72 resultados para muestreo
Resumo:
El yacimiento de Pasto Bueno se localiza en el extremo nordeste del Batolito de la Cordillera Blanca, comprende diversas vetas, generalmente subverticales, asociadas al stock cuarzomonzonitico de Consuzo, datado como Terciario Superior, que intruye a las pizarras de la fm. Chicama y cuarcitas de la fm. Chimu. Las principales vetas discurren con direccion N-S cortando al stock, aunque tambien existen sistemas NE-SW asi como NW-SE encajados sobre las rocas metamorficas. La mineralogia de mena reconocida comprende wolframita (hubnerita), tetraedrita/tenantita, esfalerita y galena, en una ganga de cuarzo, fluorita, sericita, pirita y carbonatos, ademas de molibdenita, calcopirita, bornita, arsenopirita, enargita (luzonita), stolzita, scheelita, zinnwaldita, topacio, tungstita y arsenico nativo. Estudios previos han caracterizado Pasto Bueno como un yacimiento con una gran componente de greisen, con una evolucion de las vetas desde un episodio temprano esteril de 400 oC, depositando la mineralizacion economica en torno a los 220-250 oC y con un evento postumo de 175-220 oC rico en CO2. La precipitacion de la wolframita se produjo a partir de un fluido netamente hidrotermal, sin embargo, dicha precipitacion estuvo controlada por el aporte al sistema de aguas externas meteoricas y/o metamorficas. El trabajo llevado a cabo ha consistido en la realizacion de un estudio microtermometrico de las 3 principales estructuras del distrito: Consuelo, Alonso-Fenix y Chabuca, para caracterizar la evolucion del fluido mineralizador desde el stock (veta Consuelo) hacia las rocas metasedimentarias de las fm. Chicama y Chimu (manto Alonso-Fenix y veta Chabuca). Para ello se realizo un muestreo sobre el evento principal de mineralizacion. Dichas muestras se sometieron a un estudio petrografico de lamina gruesa para seleccionar las muestras optimas para el posterior estudio microtermometrico. Previamente a la obtencion de las medidas de temperatura de fusion del hielo (criotermometria) y de homogenizacion del fluido; se realizo un estudio de petrografia de inclusiones fluidas para caracterizarlas y seleccionar las representativas. La interpretacion de los resultados ha permitido confirmar la existencia de un episodio previo de alta temperatura, superior a 282 oC y un evento mineralizador con temperaturas en torno a los 200-240 oC. Sin embargo, las salinidades obtenidas son mucho menores que las previamente publicadas, en torno al 5 % peso eq. NaCl, frente a 11-17 % peso eq. NaCl. Tambien se ha observado un fluido postumo rico en CO2, pero de temperatura superior, en torno a los 270 oC. Los gradientes isotermicos muestran dos focos para dichos fluidos hidrotermales: el primero asociado al stock en la veta Consuelo, y el segundo en la veta Chabuca, asociado a la zona de cabalgamiento de las pizarras de la fm. Chicama sobre las cuarcitas de la fm. Chimu. Este segundo foco puede corresponder con los aportes externos de aguas metamorficas. Para finalizar, se dan una serie de pautas para guiar las futuras exploraciones en el yacimiento. ABSTRACT The Pasto Bueno deposit is located at the northeastern end of the Cordillera Blanca Batholith. It comprises several veins, generally subvertical, associated with the quartz-monzonite stock of Consuzo, dated as Tertiary, which intrudes the Chicama fm. slates and the Chimu fm. quartzites. The main veins trend N-S cutting the stock, although there are also NE-SW and NWSE systems, hosted by the metamorphic rocks. The ore mineralogy comprises wolframite (hubnerite), tetrahedrite/tennantite, sphalerite and galena in a gangue of quartz, fluorite, sericite, pyrite and carbonates, and minor molybdenite, chalcopyrite, bornite, arsenopyrite, enargite (luzonite), stolzite, scheelite, zinnwaldite, topaz, tungstite and native arsenic. Previous studies have characterized Pasto Bueno as a deposit with a large component of greisen, with an evolution of the veins from an early barren 400 oC event , followed by economic mineralization of about 220-250 °C and a late event of 175 -220 oC rich in CO2. Wolframite precipitation occurred from a purely hydrothermal fluid; however, this precipitation was controlled by an external flux of meteoric and/or metamorphic waters. Microthermometric studies of the 3 main structures of the district (Consuelo, Alonso-Fenix and Chabuca veins) have been carried out to depict the evolution of the mineralizing fluid coming from the stock (Consuelo vein) into the metasedimentary rocks of the Chimu and Chicama fm. (Alonso-Fenix and Chabuca veins). The sampling was performed over the main event of mineralization. These samples were subject to a quick plate petrography study in order to select the optimal samples for further microthermometry studies. Before the freezing/heating measures, a fluid inclusion petrography study was done to characterize and select the representative F.I. Interpretation of results has confirmed the existence of a previous episode of higher temperature, over 282 °C, and a mineralizing event with temperatures of about 200-240 °C. However, obtained salinities, about 5 wt% NaCl equivalents, are much lower than those previously reported, about 11-17 wt% NaCl equivalents. A last fluid, rich in CO2, but of higher temperature, about 270 oC, has been characterized. Isothermal gradients show two foci for the hydrothermal fluids: the first one associated to the Consuzo stock as shown in the Consuelo vein, and the second one related to the thrust fault which places the Chicama fm. slates over the Chimu fm. quartzites in the Chabuca vein area. This second focus may correspond to an external input of metamorphic waters. Finally, some guidelines have been given to guide future explorations.
Resumo:
La diabetes mellitus es el conjunto de alteraciones provocadas por un defecto en la cantidad de insulina secretada o por un aprovechamiento deficiente de la misma. Es causa directa de complicaciones a corto, medio y largo plazo que disminuyen la calidad y las expectativas de vida de las personas con diabetes. La diabetes mellitus es en la actualidad uno de los problemas más importantes de salud. Ha triplicado su prevalencia en los últimos 20 anos y para el año 2025 se espera que existan casi 300 millones de personas con diabetes. Este aumento de la prevalencia junto con la morbi-mortalidad asociada a sus complicaciones micro y macro-vasculares convierten la diabetes en una carga para los sistemas sanitarios, sus recursos económicos y sus profesionales, haciendo de la enfermedad un problema individual y de salud pública de enormes proporciones. De momento no existe cura a esta enfermedad, de modo que el objetivo terapéutico del tratamiento de la diabetes se centra en la normalización de la glucemia intentando minimizar los eventos de hiper e hipoglucemia y evitando la aparición o al menos retrasando la evolución de las complicaciones vasculares, que constituyen la principal causa de morbi-mortalidad de las personas con diabetes. Un adecuado control diabetológico implica un tratamiento individualizado que considere multitud de factores para cada paciente (edad, actividad física, hábitos alimentarios, presencia de complicaciones asociadas o no a la diabetes, factores culturales, etc.). Sin embargo, a corto plazo, las dos variables más influyentes que el paciente ha de manejar para intervenir sobre su nivel glucémico son la insulina administrada y la dieta. Ambas presentan un retardo entre el momento de su aplicación y el comienzo de su acción, asociado a la absorción de los mismos. Por este motivo la capacidad de predecir la evolución del perfil glucémico en un futuro cercano, ayudara al paciente a tomar las decisiones adecuadas para mantener un buen control de su enfermedad y evitar situaciones de riesgo. Este es el objetivo de la predicción en diabetes: adelantar la evolución del perfil glucémico en un futuro cercano para ayudar al paciente a adaptar su estilo de vida y sus acciones correctoras, con el propósito de que sus niveles de glucemia se aproximen a los de una persona sana, evitando así los síntomas y complicaciones de un mal control. La aparición reciente de los sistemas de monitorización continua de glucosa ha proporcionado nuevas alternativas. La disponibilidad de un registro exhaustivo de las variaciones del perfil glucémico, con un periodo de muestreo de entre uno y cinco minutos, ha favorecido el planteamiento de nuevos modelos que tratan de predecir la glucemia utilizando tan solo las medidas anteriores de glucemia o al menos reduciendo significativamente la información de entrada a los algoritmos. El hecho de requerir menor intervención por parte del paciente, abre nuevas posibilidades de aplicación de los predictores de glucemia, haciéndose viable su uso en tiempo real, como sistemas de ayuda a la decisión, como detectores de situaciones de riesgo o integrados en algoritmos automáticos de control. En esta tesis doctoral se proponen diferentes algoritmos de predicción de glucemia para pacientes con diabetes, basados en la información registrada por un sistema de monitorización continua de glucosa así como incorporando la información de la insulina administrada y la ingesta de carbohidratos. Los algoritmos propuestos han sido evaluados en simulación y utilizando datos de pacientes registrados en diferentes estudios clínicos. Para ello se ha desarrollado una amplia metodología, que trata de caracterizar las prestaciones de los modelos de predicción desde todos los puntos de vista: precisión, retardo, ruido y capacidad de detección de situaciones de riesgo. Se han desarrollado las herramientas de simulación necesarias y se han analizado y preparado las bases de datos de pacientes. También se ha probado uno de los algoritmos propuestos para comprobar la validez de la predicción en tiempo real en un escenario clínico. Se han desarrollado las herramientas que han permitido llevar a cabo el protocolo experimental definido, en el que el paciente consulta la predicción bajo demanda y tiene el control sobre las variables metabólicas. Este experimento ha permitido valorar el impacto sobre el control glucémico del uso de la predicción de glucosa. ABSTRACT Diabetes mellitus is the set of alterations caused by a defect in the amount of secreted insulin or a suboptimal use of insulin. It causes complications in the short, medium and long term that affect the quality of life and reduce the life expectancy of people with diabetes. Diabetes mellitus is currently one of the most important health problems. Prevalence has tripled in the past 20 years and estimations point out that it will affect almost 300 million people by 2025. Due to this increased prevalence, as well as to morbidity and mortality associated with micro- and macrovascular complications, diabetes has become a burden on health systems, their financial resources and their professionals, thus making the disease a major individual and a public health problem. There is currently no cure for this disease, so that the therapeutic goal of diabetes treatment focuses on normalizing blood glucose events. The aim is to minimize hyper- and hypoglycemia and to avoid, or at least to delay, the appearance and development of vascular complications, which are the main cause of morbidity and mortality among people with diabetes. A suitable, individualized and controlled treatment for diabetes involves many factors that need to be considered for each patient: age, physical activity, eating habits, presence of complications related or unrelated to diabetes, cultural factors, etc. However, in the short term, the two most influential variables that the patient has available in order to manage his/her glycemic levels are administered insulin doses and diet. Both suffer from a delay between their time of application and the onset of the action associated with their absorption. Therefore, the ability to predict the evolution of the glycemic profile in the near future could help the patient to make appropriate decisions on how to maintain good control of his/her disease and to avoid risky situations. Hence, the main goal of glucose prediction in diabetes consists of advancing the evolution of glycemic profiles in the near future. This would assist the patient in adapting his/her lifestyle and in taking corrective actions in a way that blood glucose levels approach those of a healthy person, consequently avoiding the symptoms and complications of a poor glucose control. The recent emergence of continuous glucose monitoring systems has provided new alternatives in this field. The availability of continuous records of changes in glycemic profiles (with a sampling period of one or five minutes) has enabled the design of new models which seek to predict blood glucose by using automatically read glucose measurements only (or at least, reducing significantly the data input manually to the algorithms). By requiring less intervention by the patient, new possibilities are open for the application of glucose predictors, making its use feasible in real-time applications, such as: decision support systems, hypo- and hyperglycemia detectors, integration into automated control algorithms, etc. In this thesis, different glucose prediction algorithms are proposed for patients with diabetes. These are based on information recorded by a continuous glucose monitoring system and incorporate information of the administered insulin and carbohydrate intakes. The proposed algorithms have been evaluated in-silico and using patients’ data recorded in different clinical trials. A complete methodology has been developed to characterize the performance of predictive models from all points of view: accuracy, delay, noise and ability to detect hypo- and hyperglycemia. In addition, simulation tools and patient databases have been deployed. One of the proposed algorithms has additionally been evaluated in terms of real-time prediction performance in a clinical scenario in which the patient checked his/her glucose predictions on demand and he/she had control on his/her metabolic variables. This has allowed assessing the impact of using glucose prediction on glycemic control. The tools to carry out the defined experimental protocols were also developed in this thesis.
Resumo:
El objetivo de este estudio fue evaluar los factores micrometeorológicos que afectan a la regeneración del pino resinero en la Tierra de Pinares Segoviana. Se registró durante un período vegetativo completo la temperatura del suelo y la temperatura de la capa de aire más próximo al suelo. La temperatura del suelo alcanzó máximos de 56 ºC desde el mes de julio a septiembre, en períodos de más de 4 horas seguidas durante 2-5 días consecutivos y la temperatura del aire más próximo al suelo, donde viven las plántulas recién nacidas, alcanzó valores de hasta 56 ºC desde junio a septiembre, durante períodos de más de 4,5 horas en periodos de 7 días consecutivos. En las plántulas objeto de estudio se identificaron heridas en el cuello de la raíz lo que indica que las altas temperaturas producen cambios fisiológicos y morfológicos en las plántulas comprometiendo su supervivencia y la de la regeneración de estos montes. El análisis estadístico mostró que los puntos de muestreo seleccionados no presentaron grandes diferencias respecto a las variables microclimáticas consideradas.
Resumo:
El objetivo de este estudio fue evaluar los factores micrometeorológicos que afectan a la regeneración del pino resinero en la Tierra de Pinares Segoviana. Se registró durante un período vegetativo completo la temperatura del suelo y la temperatura de la capa de aire más próximo al suelo. La temperatura del suelo alcanzó máximos de 56 ºC desde el mes de julio a septiembre, en períodos de más de 4 horas seguidas durante 2-5 días consecutivos y la temperatura del aire más próximo al suelo, donde viven las plántulas recién nacidas, alcanzó valores de hasta 56 ºC desde junio a septiembre, durante períodos de más de 4,5 horas en periodos de 7 días consecutivos. En las plántulas objeto de estudio se identificaron heridas en el cuello de la raíz lo que indica que las altas temperaturas producen cambios fisiológicos y morfológicos en las plántulas comprometiendo su supervivencia y la de la regeneración de estos montes. El análisis estadístico mostró que los puntos de muestreo seleccionados no presentaron grandes diferencias respecto a las variables microclimáticas consideradas.
Resumo:
La vegetación de las zonas húmedas es habitualmente estudiada en relación a sus condiciones medias de inundación pero pocas veces en relación a episodios extremos. Dentro de éstos uno de los menos conocidos son efectos de la inundación excesiva en plantas leñosas. La vegetación halohidrófila de la marisma del Parque Nacional de Doñana sufrió durante el año hidrológico 2009-10 un episodio de inundación extrema que causó una extensa mortandad en el almajar (agrupación vegetal de Arthrocnemum macrostachyum) que es analizada en esta comunicación. Se presentan un estudio del efecto dicho episodio en el almajo. Se basa en un muestreo de 106 puntos, de cotas obtenidas mediante GPS diferencial y una traslación del hidroperiodo de las estaciones de seguimiento de medición de la altura diaria de agua del Parque, en los que se tomaron datos de talla y supervivencia almajos. Se empleó un análisis de regresión logística que permitió generar unas curvas de supervivencia según relaciones tiempo-altura de inundación en las plantas y se realizó un comparación con los niveles medios de inundación de dicha agrupación vegetal.
Resumo:
Se presenta la composición química de los extractos de bambú (Guadua angustifolia). Se realizó un muestreo aleatorio en el Jardín Botánico de la Universidad Tecnológica de Pereira (Colombia) de guaduas maduras y sobremaduras, combinando diafragma, nudo y entrenudo con cepa, basa y sobrebasa, obteniendo un total de 54 muestras. Las muestras se cortaron para obtener discos de unos 2-3 cm de altura, separando nudos, diafragmas y entrenudos. Las muestras trituradas se tamizan y se pesan alícuotas de 3-5 gramos para la extracción. Las extracciones se realizaron por ultrasonidos, con Soxhlet y con extractor Randall con los disolventes éter de petróleo 40-60 C, acetona, metanol y agua secuencialmente. Los extractos se analizaron por cromatografía de gases- espectrometría de masas y HPLC. El contenido total de extractos es del orden del 11,1% en los nudos, 16,5% en los entrenudos y 28,3% en los diafragmas. Entre los compuestos identificados se encuentran esteroles, vitamina E, hidrocarburos saturados, 4 hidroxi- 4 metil- 2 pentanona, neofitadieno, vitamina E, fenoles, aldehidos, los ácidos palmítico y linoleico y dietilenglicol.
Resumo:
La caracterización de los cultivos cubierta (cover crops) puede permitir comparar la idoneidad de diferentes especies para proporcionar servicios ecológicos como el control de la erosión, el reciclado de nutrientes o la producción de forrajes. En este trabajo se estudiaron bajo condiciones de campo diferentes técnicas para caracterizar el dosel vegetal con objeto de establecer una metodología para medir y comparar las arquitecturas de los cultivos cubierta más comunes. Se estableció un ensayo de campo en Madrid (España central) para determinar la relación entre el índice de área foliar (LAI) y la cobertura del suelo (GC) para un cultivo de gramínea, uno de leguminosa y uno de crucífera. Para ello se sembraron doce parcelas con cebada (Hordeum vulgare L.), veza (Vicia sativa L.), y colza (Brassica napus L.). En 10 fechas de muestreo se midieron el LAI (con estimaciones directas y del LAI-2000), la fracción interceptada de la radiación fotosintéticamente activa (FIPAR) y la GC. Un experimento de campo de dos años (Octubre-Abril) se estableció en la misma localización para evaluar diferentes especies (Hordeum vulgare L., Secale cereale L., x Triticosecale Whim, Sinapis alba L., Vicia sativa L.) y cultivares (20) en relación con su idoneidad para ser usadas como cultivos cubierta. La GC se monitorizó mediante análisis de imágenes digitales con 21 y 22 muestreos, y la biomasa se midió 8 y 10 veces, respectivamente para cada año. Un modelo de Gompertz caracterizó la cobertura del suelo hasta el decaimiento observado tras las heladas, mientras que la biomasa se ajustó a ecuaciones de Gompertz, logísticas y lineales-exponenciales. Al final del experimento se determinaron el C, el N y el contenido en fibra (neutrodetergente, ácidodetergente y lignina), así como el N fijado por las leguminosas. Se aplicó el análisis de decisión multicriterio (MCDA) con objeto de obtener un ranking de especies y cultivares de acuerdo con su idoneidad para actuar como cultivos cubierta en cuatro modalidades diferentes: cultivo de cobertura, cultivo captura, abono verde y forraje. Las asociaciones de cultivos leguminosas con no leguminosas pueden afectar al crecimiento radicular y a la absorción de N de ambos componentes de la mezcla. El conocimiento de cómo los sistemas radiculares específicos afectan al crecimiento individual de las especies es útil para entender las interacciones en las asociaciones, así como para planificar estrategias de cultivos cubierta. En un tercer ensayo se combinaron estudios en rhizotrones con extracción de raíces e identificación de especies por microscopía, así como con estudios de crecimiento, absorción de N y 15N en capas profundas del suelo. Las interacciones entre raíces en su crecimiento y en el aprovisionamiento de N se estudiaron para dos de los cultivares mejor valorados en el estudio previo: uno de cebada (Hordeum vulgare L. cv. Hispanic) y otro de veza (Vicia sativa L. cv. Aitana). Se añadió N en dosis de 0 (N0), 50 (N1) y 150 (N2) kg N ha-1. Como resultados del primer estudio, se ajustaron correctamente modelos lineales y cuadráticos a la relación entre la GC y el LAI para todos los cultivos, pero en la gramínea alcanzaron una meseta para un LAI>4. Antes de alcanzar la cobertura total, la pendiente de la relación lineal entre ambas variables se situó en un rango entre 0.025 y 0.030. Las lecturas del LAI-2000 estuvieron correlacionadas linealmente con el LAI, aunque con tendencia a la sobreestimación. Las correcciones basadas en el efecto de aglutinación redujeron el error cuadrático medio del LAI estimado por el LAI-2000 desde 1.2 hasta 0.5 para la crucífera y la leguminosa, no siendo efectivas para la cebada. Esto determinó que para los siguientes estudios se midieran únicamente la GC y la biomasa. En el segundo experimento, las gramíneas alcanzaron la mayor cobertura del suelo (83-99%) y la mayor biomasa (1226-1928 g m-2) al final del mismo. Con la mayor relación C/N (27-39) y contenido en fibra digestible (53-60%) y la menor calidad de residuo (~68%). La mostaza presentó elevadas GC, biomasa y absorción de N en el año más templado en similitud con las gramíneas, aunque escasa calidad como forraje en ambos años. La veza presentó la menor absorción de N (2.4-0.7 g N m-2) debido a la fijación de N (9.8-1.6 g N m-2) y escasa acumulación de N. El tiempo térmico hasta alcanzar el 30% de GC constituyó un buen indicador de especies de rápida cubrición. La cuantificación de las variables permitió hallar variabilidad entre las especies y proporcionó información para posteriores decisiones sobre la selección y manejo de los cultivos cubierta. La agregación de dichas variables a través de funciones de utilidad permitió confeccionar rankings de especies y cultivares para cada uso. Las gramíneas fueron las más indicadas para los usos de cultivo de cobertura, cultivo captura y forraje, mientras que las vezas fueron las mejor como abono verde. La mostaza alcanzó altos valores como cultivo de cobertura y captura en el primer año, pero el segundo decayó debido a su pobre actuación en los inviernos fríos. Hispanic fue el mejor cultivar de cebada como cultivo de cobertura y captura, mientras que Albacete como forraje. El triticale Titania alcanzó la posición más alta como cultiva de cobertura, captura y forraje. Las vezas Aitana y BGE014897 mostraron buenas aptitudes como abono verde y cultivo captura. El MCDA permitió la comparación entre especies y cultivares proporcionando información relevante para la selección y manejo de cultivos cubierta. En el estudio en rhizotrones tanto la mezcla de especies como la cebada alcanzaron mayor intensidad de raíces (RI) y profundidad (RD) que la veza, con valores alrededor de 150 cruces m-1 y 1.4 m respectivamente, comparados con 50 cruces m-1 y 0.9 m para la veza. En las capas más profundas del suelo, la asociación de cultivos mostró valores de RI ligeramente mayores que la cebada en monocultivo. La cebada y la asociación obtuvieron mayores valores de densidad de raíces (RLD) (200-600 m m-3) que la veza (25-130) entre 0.8 y 1.2 m de profundidad. Los niveles de N no mostraron efectos claros en RI, RD ó RLD, sin embargo, el incremento de N favoreció la proliferación de raíces de veza en la asociación en capas profundas del suelo, con un ratio cebada/veza situado entre 25 a N0 y 5 a N2. La absorción de N de la cebada se incrementó en la asociación a expensas de la veza (de ~100 a 200 mg planta-1). Las raíces de cebada en la asociación absorbieron también más nitrógeno marcado de las capas profundas del suelo (0.6 mg 15N planta-1) que en el monocultivo (0.3 mg 15N planta-1). ABSTRACT Cover crop characterization may allow comparing the suitability of different species to provide ecological services such as erosion control, nutrient recycling or fodder production. Different techniques to characterize plant canopy were studied under field conditions in order to establish a methodology for measuring and comparing cover crops canopies. A field trial was established in Madrid (central Spain) to determine the relationship between leaf area index (LAI) and ground cover (GC) in a grass, a legume and a crucifer crop. Twelve plots were sown with either barley (Hordeum vulgare L.), vetch (Vicia sativa L.), or rape (Brassica napus L.). On 10 sampling dates the LAI (both direct and LAI-2000 estimations), fraction intercepted of photosynthetically active radiation (FIPAR) and GC were measured. A two-year field experiment (October-April) was established in the same location to evaluate different species (Hordeum vulgare L., Secale cereale L., x Triticosecale Whim, Sinapis alba L., Vicia sativa L.) and cultivars (20) according to their suitability to be used as cover crops. GC was monitored through digital image analysis with 21 and 22 samples, and biomass measured 8 and 10 times, respectively for each season. A Gompertz model characterized ground cover until the decay observed after frosts, while biomass was fitted to Gompertz, logistic and linear-exponential equations. At the end of the experiment C, N, and fiber (neutral detergent, acid and lignin) contents, and the N fixed by the legumes were determined. Multicriteria decision analysis (MCDA) was applied in order to rank the species and cultivars according to their suitability to perform as cover crops in four different modalities: cover crop, catch crop, green manure and fodder. Intercropping legumes and non-legumes may affect the root growth and N uptake of both components in the mixture. The knowledge of how specific root systems affect the growth of the individual species is useful for understanding the interactions in intercrops as well as for planning cover cropping strategies. In a third trial rhizotron studies were combined with root extraction and species identification by microscopy and with studies of growth, N uptake and 15N uptake from deeper soil layers. The root interactions of root growth and N foraging were studied for two of the best ranked cultivars in the previous study: a barley (Hordeum vulgare L. cv. Hispanic) and a vetch (Vicia sativa L. cv. Aitana). N was added at 0 (N0), 50 (N1) and 150 (N2) kg N ha-1. As a result, linear and quadratic models fitted to the relationship between the GC and LAI for all of the crops, but they reached a plateau in the grass when the LAI > 4. Before reaching full cover, the slope of the linear relationship between both variables was within the range of 0.025 to 0.030. The LAI-2000 readings were linearly correlated with the LAI but they tended to overestimation. Corrections based on the clumping effect reduced the root mean square error of the estimated LAI from the LAI-2000 readings from 1.2 to less than 0.50 for the crucifer and the legume, but were not effective for barley. This determined that in the following studies only the GC and biomass were measured. In the second experiment, the grasses reached the highest ground cover (83- 99%) and biomass (1226-1928 g/m2) at the end of the experiment. The grasses had the highest C/N ratio (27-39) and dietary fiber (53-60%) and the lowest residue quality (~68%). The mustard presented high GC, biomass and N uptake in the warmer year with similarity to grasses, but low fodder capability in both years. The vetch presented the lowest N uptake (2.4-0.7 g N/m2) due to N fixation (9.8-1.6 g N/m2) and low biomass accumulation. The thermal time until reaching 30% ground cover was a good indicator of early coverage species. Variable quantification allowed finding variability among the species and provided information for further decisions involving cover crops selection and management. Aggregation of these variables through utility functions allowed ranking species and cultivars for each usage. Grasses were the most suitable for the cover crop, catch crop and fodder uses, while the vetches were the best as green manures. The mustard attained high ranks as cover and catch crop the first season, but the second decayed due to low performance in cold winters. Hispanic was the most suitable barley cultivar as cover and catch crop, and Albacete as fodder. The triticale Titania attained the highest rank as cover and catch crop and fodder. Vetches Aitana and BGE014897 showed good aptitudes as green manures and catch crops. MCDA allowed comparison among species and cultivars and might provide relevant information for cover crops selection and management. In the rhizotron study the intercrop and the barley attained slightly higher root intensity (RI) and root depth (RD) than the vetch, with values around 150 crosses m-1 and 1.4 m respectively, compared to 50 crosses m-1 and 0.9 m for the vetch. At deep soil layers, intercropping showed slightly larger RI values compared to the sole cropped barley. The barley and the intercropping had larger root length density (RLD) values (200-600 m m-3) than the vetch (25-130) at 0.8-1.2 m depth. The topsoil N supply did not show a clear effect on the RI, RD or RLD; however increasing topsoil N favored the proliferation of vetch roots in the intercropping at deep soil layers, with the barley/vetch root ratio ranging from 25 at N0 to 5 at N2. The N uptake of the barley was enhanced in the intercropping at the expense of the vetch (from ~100 mg plant-1 to 200). The intercropped barley roots took up more labeled nitrogen (0.6 mg 15N plant-1) than the sole-cropped barley roots (0.3 mg 15N plant-1) from deep layers.
Resumo:
Esta Tesis Doctoral trata sobre la caracterización acústica de los ecosistemas naturales y la evaluación del impacto ambiental del ruido antropogénico sobre sus potenciales receptores en estos lugares, incluidos los receptores no humanos y sus efectos ecológicos, además, analiza las implicaciones para su gestión a distintas escalas y se lleva a cabo una valoración económica. Este trabajo ofrece soluciones para caracterizar los paisajes sonoros de forma compatible con distintas escalas de trabajo, nivel de esfuerzo técnico y en contextos de recursos limitados que haga viable su tratamiento como cualquier otra variable ambiental en el ámbito de la conservación y gestión del medio natural. Se han adaptado herramientas y metodologías propias de disciplinas como la acústica ambiental, bioacústica y ecología del paisaje, para servir a los objetivos específicos de la evaluación y gestión de los paisajes sonoros y el ruido ambiental en amplias extensiones geográficas. Se ha establecido un método general de muestreo sistemático para trabajo de campo y también se han adaptado métodos de modelización informática, que permiten analizar escenarios sonoros dinámicos en el tiempo y en el espacio, desde localizaciones puntuales hasta la escala del paisaje. Es posible elaborar cartografía ambiental con esta información y se ha representado gráficamente la zona de influencia de distintas fuentes de ruido sobre la calidad de distintos hábitats faunísticos. Se recomienda el uso del indicador del nivel de presión sonora equivalente (Leq) por su operatividad en medición y modelización, y su adaptabilidad a cualquier dimensión espacial y temporal que se requiera, por ejemplo en función del paisaje, actividades o especies que se establezcan como objeto de análisis. Se ha comprobado que las voces y conversaciones de parte de los excursionistas en zonas de reposo, observación y descanso (Laguna Grande de Peñalara) es la fuente de ruido que con mayor frecuencia identifican los propios visitantes (51%) y causa un incremento del nivel de presión sonora equivalente de unos 4,5 dBA sobre el nivel correspondiente al ambiente natural (Lnat). También se ha comprobado que carreteras con bajo nivel de tráfico (IMD<1000) pueden causar estrés fisiológico sobre la fauna y afectar a la calidad de sus hábitats. La isófona de 30 dBA del índice Leq (24h) permite dividir a los corzos de la zona de estudio en dos grupos con diferente nivel de estrés fisiológico, más elevado en los que se sitúan más cerca de la carretera con mayor volumen de tráfico y se expone a mayores niveles de ruido. Por otro lado, ha sido posible delimitar una zona de exclusión para la nidificación de buitre negro alrededor de las carreteras, coincidente con la isófona Leq (24h) de 40 dBA que afecta al 11% de su hábitat potencial. Además se ha llevado a cabo una novedosa valoración económica de la contaminación acústica en espacios naturales protegidos, mediante el análisis de la experiencia sonora de los visitantes del antiguo Parque Natural de Peñalara, y se ha constatado su disposición al pago de una entrada de acceso a estos lugares (aproximadamente 1 euro) si redundara en una mejora de su estado de conservación. En conclusión, los espacios naturales protegidos pueden sufrir un impacto ambiental significativo causado por fuentes de ruido localizadas en su interior pero también lejanas a ellos, que se sitúan fuera del ámbito de competencias de sus gestores. Sucesos sonoros como el sobrevuelo de aviones pueden incrementar en aproximadamente 8 dBA el nivel de referencia Lnat en las zonas tranquilas del parque. Se recomienda llevar a cabo una gestión activa del medio ambiente sonoro y se considera necesario extender la investigación sobre los efectos ecológicos del ruido ambiental a otros lugares y especies animales. ABSTRACT This PhD Thesis deals with acoustic characterization of natural ecosystems and anthropogenic noise impact assessment on potential receivers, including non-human receivers and their ecological effects. Besides, its management implications at different scales are analyzed and an economic valuation is performed. This study provides solutions for characterizing soundscapes in a compatible way with different working scales, level of technical effort and in a context of limited resources, so its treatment becomes feasible as for any other environmental variable in conservation and environmental management. Several tools and methodologies have been adapted from a variety of disciplines such as environmental acoustics, bioacoustics and landscape ecology, to better serve the specific goals of assessing and managing soundscapes and environmental noise in large areas. A procedure has been established for systematic field measurement surveys and noise common computer modelling methods have also been adapted in order to analyze dynamic soundscapes across time and space, from local to landscape scales. It is possible to create specific thematic cartography as for instance delimiting potential influence zone from different noise sources on animal habitats quality. Use of equivalent continuous sound pressure level index (Leq) is recommended because it provides great flexibility in operation for noise measurement and modelling, and because of its adaptability to any required temporal and spatial dimension, for instance landscape, activities or the target species established as study subjects. It has been found that human voices and conversations in a resting and contemplation area (Laguna Grande de Peñalara) is the most frequently referred noise source by national park visitors (51 %) when asked. Human voices alter this recreational area by increasing the sound pressure level approximately 4.5 dBA over the natural ambient level (Lnat). It has also been found that low traffic roads (AADT<1000 ) may cause physiological stress on wildlife and affect the quality of their habitats. It has also been possible to define a road-effect zone by noise mapping, which suggests an effective habitat loss within the Leq (24h) 30 dBA isophone in case of Roe deer and also divide the study area in two groups with different physiological stress level, higher for those exposed to higher noise levels and traffic volume. On the other hand, it has been possible to determine an exclusion area for Cinereous vulture nesting surrounding roads which is coincident with the Leq (24h) 40 dBA isophone and affects 11 % of the vulture potential habitat. It has also been performed an economic estimation of noise pollution impact on visitors’ perception and results showed that visitors would be willing to pay an entrance fee of approximately 1 euro if such payment is really bringing an improvement of the conservation status. In conclusion, protected areas may be significantly affected by anthropogenic noise sources located within the park borders but perturbations may also be caused by large-distance noise sources outside the park managers’ jurisdiction. Aircraft overflight events disrupted quietness and caused Leq increases of almost 8 dBA during a monitoring period with respect to Lnat reference levels in the park quiet areas. It is recommended to actively manage the acoustic environment. Finally, further research on ecological impacts of environmental noise needs to be extended to other species and places.
Resumo:
Los sistemas de seguimiento mono-cámara han demostrado su notable capacidad para el análisis de trajectorias de objectos móviles y para monitorización de escenas de interés; sin embargo, tanto su robustez como sus posibilidades en cuanto a comprensión semántica de la escena están fuertemente limitadas por su naturaleza local y monocular, lo que los hace insuficientes para aplicaciones realistas de videovigilancia. El objetivo de esta tesis es la extensión de las posibilidades de los sistemas de seguimiento de objetos móviles para lograr un mayor grado de robustez y comprensión de la escena. La extensión propuesta se divide en dos direcciones separadas. La primera puede considerarse local, ya que está orientada a la mejora y enriquecimiento de las posiciones estimadas para los objetos móviles observados directamente por las cámaras del sistema; dicha extensión se logra mediante el desarrollo de un sistema multi-cámara de seguimiento 3D, capaz de proporcionar consistentemente las posiciones 3D de múltiples objetos a partir de las observaciones capturadas por un conjunto de sensores calibrados y con campos de visión solapados. La segunda extensión puede considerarse global, dado que su objetivo consiste en proporcionar un contexto global para relacionar las observaciones locales realizadas por una cámara con una escena de mucho mayor tamaño; para ello se propone un sistema automático de localización de cámaras basado en las trayectorias observadas de varios objetos móviles y en un mapa esquemático de la escena global monitorizada. Ambas líneas de investigación se tratan utilizando, como marco común, técnicas de estimación bayesiana: esta elección está justificada por la versatilidad y flexibilidad proporcionada por dicho marco estadístico, que permite la combinación natural de múltiples fuentes de información sobre los parámetros a estimar, así como un tratamiento riguroso de la incertidumbre asociada a las mismas mediante la inclusión de modelos de observación específicamente diseñados. Además, el marco seleccionado abre grandes posibilidades operacionales, puesto que permite la creación de diferentes métodos numéricos adaptados a las necesidades y características específicas de distintos problemas tratados. El sistema de seguimiento 3D con múltiples cámaras propuesto está específicamente diseñado para permitir descripciones esquemáticas de las medidas realizadas individualmente por cada una de las cámaras del sistema: esta elección de diseño, por tanto, no asume ningún algoritmo específico de detección o seguimiento 2D en ninguno de los sensores de la red, y hace que el sistema propuesto sea aplicable a redes reales de vigilancia con capacidades limitadas tanto en términos de procesamiento como de transmision. La combinación robusta de las observaciones capturadas individualmente por las cámaras, ruidosas, incompletas y probablemente contaminadas por falsas detecciones, se basa en un metodo de asociación bayesiana basado en geometría y color: los resultados de dicha asociación permiten el seguimiento 3D de los objetos de la escena mediante el uso de un filtro de partículas. El sistema de fusión de observaciones propuesto tiene, como principales características, una gran precisión en términos de localización 3D de objetos, y una destacable capacidad de recuperación tras eventuales errores debidos a un número insuficiente de datos de entrada. El sistema automático de localización de cámaras se basa en la observación de múltiples objetos móviles y un mapa esquemático de las áreas transitables del entorno monitorizado para inferir la posición absoluta de dicho sensor. Para este propósito, se propone un novedoso marco bayesiano que combina modelos dinámicos inducidos por el mapa en los objetos móviles presentes en la escena con las trayectorias observadas por la cámara, lo que representa un enfoque nunca utilizado en la literatura existente. El sistema de localización se divide en dos sub-tareas diferenciadas, debido a que cada una de estas tareas requiere del diseño de algoritmos específicos de muestreo para explotar en profundidad las características del marco desarrollado: por un lado, análisis de la ambigüedad del caso específicamente tratado y estimación aproximada de la localización de la cámara, y por otro, refinado de la localización de la cámara. El sistema completo, diseñado y probado para el caso específico de localización de cámaras en entornos de tráfico urbano, podría tener aplicación también en otros entornos y sensores de diferentes modalidades tras ciertas adaptaciones. ABSTRACT Mono-camera tracking systems have proved their capabilities for moving object trajectory analysis and scene monitoring, but their robustness and semantic possibilities are strongly limited by their local and monocular nature and are often insufficient for realistic surveillance applications. This thesis is aimed at extending the possibilities of moving object tracking systems to a higher level of scene understanding. The proposed extension comprises two separate directions. The first one is local, since is aimed at enriching the inferred positions of the moving objects within the area of the monitored scene directly covered by the cameras of the system; this task is achieved through the development of a multi-camera system for robust 3D tracking, able to provide 3D tracking information of multiple simultaneous moving objects from the observations reported by a set of calibrated cameras with semi-overlapping fields of view. The second extension is global, as is aimed at providing local observations performed within the field of view of one camera with a global context relating them to a much larger scene; to this end, an automatic camera positioning system relying only on observed object trajectories and a scene map is designed. The two lines of research in this thesis are addressed using Bayesian estimation as a general unifying framework. Its suitability for these two applications is justified by the flexibility and versatility of that stochastic framework, which allows the combination of multiple sources of information about the parameters to estimate in a natural and elegant way, addressing at the same time the uncertainty associated to those sources through the inclusion of models designed to this end. In addition, it opens multiple possibilities for the creation of different numerical methods for achieving satisfactory and efficient practical solutions to each addressed application. The proposed multi-camera 3D tracking method is specifically designed to work on schematic descriptions of the observations performed by each camera of the system: this choice allows the use of unspecific off-the-shelf 2D detection and/or tracking subsystems running independently at each sensor, and makes the proposal suitable for real surveillance networks with moderate computational and transmission capabilities. The robust combination of such noisy, incomplete and possibly unreliable schematic descriptors relies on a Bayesian association method, based on geometry and color, whose results allow the tracking of the targets in the scene with a particle filter. The main features exhibited by the proposal are, first, a remarkable accuracy in terms of target 3D positioning, and second, a great recovery ability after tracking losses due to insufficient input data. The proposed system for visual-based camera self-positioning uses the observations of moving objects and a schematic map of the passable areas of the environment to infer the absolute sensor position. To this end, a new Bayesian framework combining trajectory observations and map-induced dynamic models for moving objects is designed, which represents an approach to camera positioning never addressed before in the literature. This task is divided into two different sub-tasks, setting ambiguity analysis and approximate position estimation, on the one hand, and position refining, on the other, since they require the design of specific sampling algorithms to correctly exploit the discriminative features of the developed framework. This system, designed for camera positioning and demonstrated in urban traffic environments, can also be applied to different environments and sensors of other modalities after certain required adaptations.
Resumo:
El proceso de cambio de una sociedad industrial a una sociedad del conocimiento, que experimenta el mundo globalizado en el siglo XXI, induce a las empresas y organizaciones a desarrollar ventajas competitivas y sostenibles basadas en sus activos intangibles, entre los cuales destacan los sistemas de gestión en general y los sistemas de gestión de la calidad (SGC) en particular. Las organizaciones dedicadas a la producción de petróleo están influenciadas por dicha tendencia. El petróleo es un recurso natural con reservas limitadas, cuya producción y consumo ha crecido progresivamente, aportando la mayor cuota (35 %) del total de la energía que se consume en el mundo contemporáneo, aporte que se mantendrá hasta el año 2035, según las previsiones más conservadoras. Por tanto, se hace necesario desarrollar modelos de producción innovadores, que contribuyan a la mejora del factor de recobro de los yacimientos y de la vida útil de los mismos, al tiempo que satisfagan los requerimientos de producción y consumo diarios de los exigentes mercados globales. El objeto de esta investigación es el desarrollo de un modelo de gestión de la calidad y su efecto en el desempeño organizacional, a través del efecto mediador de los constructos satisfacción del cliente interno y gestión del conocimiento en la producción de petróleo. Esta investigación de carácter explicativo, no experimental, transeccional y ex-postfacto, se realizó en la región petrolífera del lago de Maracaibo, al occidente de Venezuela, la cual tiene más de 70 años en producción y cuenta con yacimientos maduros. La población objeto de estudio fue de 369 trabajadores petroleros, quienes participaron en las mesas técnicas de la calidad, durante los meses de mayo y julio del año 2012, los cuales en su mayoría están en proceso de formación como analistas, asesores y auditores de los SGC. La técnica de muestreo aplicada fue de tipo aleatorio simple, con una muestra de 252 individuos. A la misma se le aplicó un cuestionario diseñado ad hoc, el cual fue validado por las técnicas de juicio de expertos y prueba piloto. El procedimiento de investigación se realizó a través de una secuencia, que incluyó la elaboración de un modelo teórico, basado en la revisión del estado del arte; un modelo factorial, sobre la base del análisis factorial de los datos de la encuesta; un modelo de regresión lineal, elaborado a través del método de regresión lineal simple y múltiple; un modelo de análisis de sendero, realizado con el software Amos 20 SPSS y finalmente, un modelo informático, realizado con el simulador Vensim PLE v.6.2. Los resultados obtenidos indican que el modelo teórico se transformó en un modelo empírico, en el cual, la variable independiente fue el SGC, la variable mediadora fue la integración de las dimensiones eliminación de la no conformidad, satisfacción del cliente interno y aprendizaje organizacional (ENCSCIAO) y la variable respuesta la integración de las dimensiones desempeño organizacional y aprendizaje organizacional (DOOA). Se verificó el efecto mediador del ENSCIAO sobre la relación SGC-DOOA con una bondad del ajuste, del 42,65%. En el modelo de regresión múltiple se encontró que las variables determinantes son eliminación de la no conformidad (ENC), conocimiento adquirido (CA) y conocimiento espontáneo (CE), lo cual fue corroborado con el modelo de análisis de sendero. El modelo informático se desarrolló empleando datos aproximados de una unidad de producción tipo, generándose cuatro escenarios; siendo el más favorable, aquel en el cual se aplicaba el SGC y variables relacionadas, reduciendo la desviación de la producción, incrementando el factor de recobro y ampliando la vida útil del yacimiento. Se concluye que la aplicación del SGC y constructos relacionados favorece el desempeño y la producción de las unidades de explotación de yacimientos petrolíferos maduros. Los principales aportes de la tesis son la obtención de un modelo de gestión de la producción de petróleo en yacimientos maduros, basado en los SGC. Asimismo, el desarrollo de un concepto de gestión de la calidad asociado a la reducción de la desviación de la producción petrolífera anual, al incremento del factor de recobro y al aumento de la vida útil del yacimiento. Las futuras líneas de investigación están orientadas a la aplicación del modelo en contextos reales y específicos, para medir su impacto y realizar los ajustes pertinentes. ABSTRACT The process of change from an industrial society to a knowledge-based society, which undergoes the globalized world in the twenty-first century, induces companies and organizations to develop a sustainable and competitive advantages based on its intangible assets, among which are noteworthy the management systems in general and particularly the quality management systems (QMS). Organizations engaged in oil production are influenced by said trend. Oil is a natural resource with limited reserves, where production and consumption has grown progressively, providing the largest share (35%) of the total energy consumed in the contemporary world, a contribution that will remain until the year 2035 according to the more conservative trust estimations. Therefore, it becomes necessary to develop innovative production models which contribute with the improvement of reservoirs´ recovery factor and the lifetime thereof, while meeting the production requirements and daily consumption of demanding global markets. The aim of this research is to develop a model of quality management and its effect on organizational performance through the mediator effect of the constructs, internal customer satisfaction and knowledge management in oil production. This research of explanatory nature, not experimental, transactional and expos-facto was carried out in the oil-region of Maracaibo Lake located to the west of Venezuela, which has more than 70 years in continuous production and has mature reservoirs. The population under study was 369 oil workers who participated in the technical quality workshops, during the months of May and July of 2012, the majority of which were in the process of training as analysts, consultants and auditors of the QMS. The sampling technique applied was simple random type. To a sample of 252 individuals of the population it was applied an ad hoc designed questionnaire, which was validated by the techniques of expert judgment and pilot test. The research procedure was performed through a sequence, which included the elaboration of a theoretical model, based on the review of the state of the art; a factorial model with based on factorial analysis of the survey data; a linear regression model, developed through the method of simple and multiple linear regression; a structural equation model, made with software °Amos 20 SPSS° and finally, a computer model, performed with the simulator Vensim PLE v.6.2. The results indicate that the theoretical model was transformed into an empirical model, in which the independent variable was the QMS, the mediator variable was the integration of the dimensions: elimination of non-conformity, internal customer satisfaction and organizational learning (ENCSCIAO) and the response variable the integration of the dimensions, organizational performance and learning organizational (DOOA). ENSCIAO´s mediator effect on the relation QMS-DOOA was verified with a goodness of fit of 42,65%. In the multiple regression model was found to be the determining variables are elimination of nonconformity (ENC), knowledge acquired (CA) and spontaneous knowledge (EC), which was verified with the structural equation model. The computer model was developed based on approximate data of an oil production unit type, creating four (04) scenarios; being the most favorable, that one which it was applied the QMS and related variables, reducing the production deviation, increasing the recovery factor and extending the lifetime of the reservoir. It is concluded that QMS implementation powered with the related constructs, favors performance and production of mature oilfield of exploitation reservoirs units. The main contributions of this thesis are obtaining a management model for oil production in mature oilfields, based on QMS. In addition, development of a concept of quality associated to reduce the annual oil production deviation, increase the recovery factor and increase oilfield lifetime. Future lines of research are oriented to the implementation of this model in real and specific contexts to measure its impact and make the necessary adjustments that might take place.
Resumo:
Una apropiada evaluación de los márgenes de seguridad de una instalación nuclear, por ejemplo, una central nuclear, tiene en cuenta todas las incertidumbres que afectan a los cálculos de diseño, funcionanmiento y respuesta ante accidentes de dicha instalación. Una fuente de incertidumbre son los datos nucleares, que afectan a los cálculos neutrónicos, de quemado de combustible o activación de materiales. Estos cálculos permiten la evaluación de las funciones respuesta esenciales para el funcionamiento correcto durante operación, y también durante accidente. Ejemplos de esas respuestas son el factor de multiplicación neutrónica o el calor residual después del disparo del reactor. Por tanto, es necesario evaluar el impacto de dichas incertidumbres en estos cálculos. Para poder realizar los cálculos de propagación de incertidumbres, es necesario implementar metodologías que sean capaces de evaluar el impacto de las incertidumbres de estos datos nucleares. Pero también es necesario conocer los datos de incertidumbres disponibles para ser capaces de manejarlos. Actualmente, se están invirtiendo grandes esfuerzos en mejorar la capacidad de analizar, manejar y producir datos de incertidumbres, en especial para isótopos importantes en reactores avanzados. A su vez, nuevos programas/códigos están siendo desarrollados e implementados para poder usar dichos datos y analizar su impacto. Todos estos puntos son parte de los objetivos del proyecto europeo ANDES, el cual ha dado el marco de trabajo para el desarrollo de esta tesis doctoral. Por tanto, primero se ha llevado a cabo una revisión del estado del arte de los datos nucleares y sus incertidumbres, centrándose en los tres tipos de datos: de decaimiento, de rendimientos de fisión y de secciones eficaces. A su vez, se ha realizado una revisión del estado del arte de las metodologías para la propagación de incertidumbre de estos datos nucleares. Dentro del Departamento de Ingeniería Nuclear (DIN) se propuso una metodología para la propagación de incertidumbres en cálculos de evolución isotópica, el Método Híbrido. Esta metodología se ha tomado como punto de partida para esta tesis, implementando y desarrollando dicha metodología, así como extendiendo sus capacidades. Se han analizado sus ventajas, inconvenientes y limitaciones. El Método Híbrido se utiliza en conjunto con el código de evolución isotópica ACAB, y se basa en el muestreo por Monte Carlo de los datos nucleares con incertidumbre. En esta metodología, se presentan diferentes aproximaciones según la estructura de grupos de energía de las secciones eficaces: en un grupo, en un grupo con muestreo correlacionado y en multigrupos. Se han desarrollado diferentes secuencias para usar distintas librerías de datos nucleares almacenadas en diferentes formatos: ENDF-6 (para las librerías evaluadas), COVERX (para las librerías en multigrupos de SCALE) y EAF (para las librerías de activación). Gracias a la revisión del estado del arte de los datos nucleares de los rendimientos de fisión se ha identificado la falta de una información sobre sus incertidumbres, en concreto, de matrices de covarianza completas. Además, visto el renovado interés por parte de la comunidad internacional, a través del grupo de trabajo internacional de cooperación para evaluación de datos nucleares (WPEC) dedicado a la evaluación de las necesidades de mejora de datos nucleares mediante el subgrupo 37 (SG37), se ha llevado a cabo una revisión de las metodologías para generar datos de covarianza. Se ha seleccionando la actualización Bayesiana/GLS para su implementación, y de esta forma, dar una respuesta a dicha falta de matrices completas para rendimientos de fisión. Una vez que el Método Híbrido ha sido implementado, desarrollado y extendido, junto con la capacidad de generar matrices de covarianza completas para los rendimientos de fisión, se han estudiado diferentes aplicaciones nucleares. Primero, se estudia el calor residual tras un pulso de fisión, debido a su importancia para cualquier evento después de la parada/disparo del reactor. Además, se trata de un ejercicio claro para ver la importancia de las incertidumbres de datos de decaimiento y de rendimientos de fisión junto con las nuevas matrices completas de covarianza. Se han estudiado dos ciclos de combustible de reactores avanzados: el de la instalación europea para transmutación industrial (EFIT) y el del reactor rápido de sodio europeo (ESFR), en los cuales se han analizado el impacto de las incertidumbres de los datos nucleares en la composición isotópica, calor residual y radiotoxicidad. Se han utilizado diferentes librerías de datos nucleares en los estudios antreriores, comparando de esta forma el impacto de sus incertidumbres. A su vez, mediante dichos estudios, se han comparando las distintas aproximaciones del Método Híbrido y otras metodologías para la porpagación de incertidumbres de datos nucleares: Total Monte Carlo (TMC), desarrollada en NRG por A.J. Koning y D. Rochman, y NUDUNA, desarrollada en AREVA GmbH por O. Buss y A. Hoefer. Estas comparaciones demostrarán las ventajas del Método Híbrido, además de revelar sus limitaciones y su rango de aplicación. ABSTRACT For an adequate assessment of safety margins of nuclear facilities, e.g. nuclear power plants, it is necessary to consider all possible uncertainties that affect their design, performance and possible accidents. Nuclear data are a source of uncertainty that are involved in neutronics, fuel depletion and activation calculations. These calculations can predict critical response functions during operation and in the event of accident, such as decay heat and neutron multiplication factor. Thus, the impact of nuclear data uncertainties on these response functions needs to be addressed for a proper evaluation of the safety margins. Methodologies for performing uncertainty propagation calculations need to be implemented in order to analyse the impact of nuclear data uncertainties. Nevertheless, it is necessary to understand the current status of nuclear data and their uncertainties, in order to be able to handle this type of data. Great eórts are underway to enhance the European capability to analyse/process/produce covariance data, especially for isotopes which are of importance for advanced reactors. At the same time, new methodologies/codes are being developed and implemented for using and evaluating the impact of uncertainty data. These were the objectives of the European ANDES (Accurate Nuclear Data for nuclear Energy Sustainability) project, which provided a framework for the development of this PhD Thesis. Accordingly, first a review of the state-of-the-art of nuclear data and their uncertainties is conducted, focusing on the three kinds of data: decay, fission yields and cross sections. A review of the current methodologies for propagating nuclear data uncertainties is also performed. The Nuclear Engineering Department of UPM has proposed a methodology for propagating uncertainties in depletion calculations, the Hybrid Method, which has been taken as the starting point of this thesis. This methodology has been implemented, developed and extended, and its advantages, drawbacks and limitations have been analysed. It is used in conjunction with the ACAB depletion code, and is based on Monte Carlo sampling of variables with uncertainties. Different approaches are presented depending on cross section energy-structure: one-group, one-group with correlated sampling and multi-group. Differences and applicability criteria are presented. Sequences have been developed for using different nuclear data libraries in different storing-formats: ENDF-6 (for evaluated libraries) and COVERX (for multi-group libraries of SCALE), as well as EAF format (for activation libraries). A revision of the state-of-the-art of fission yield data shows inconsistencies in uncertainty data, specifically with regard to complete covariance matrices. Furthermore, the international community has expressed a renewed interest in the issue through the Working Party on International Nuclear Data Evaluation Co-operation (WPEC) with the Subgroup (SG37), which is dedicated to assessing the need to have complete nuclear data. This gives rise to this review of the state-of-the-art of methodologies for generating covariance data for fission yields. Bayesian/generalised least square (GLS) updating sequence has been selected and implemented to answer to this need. Once the Hybrid Method has been implemented, developed and extended, along with fission yield covariance generation capability, different applications are studied. The Fission Pulse Decay Heat problem is tackled first because of its importance during events after shutdown and because it is a clean exercise for showing the impact and importance of decay and fission yield data uncertainties in conjunction with the new covariance data. Two fuel cycles of advanced reactors are studied: the European Facility for Industrial Transmutation (EFIT) and the European Sodium Fast Reactor (ESFR), and response function uncertainties such as isotopic composition, decay heat and radiotoxicity are addressed. Different nuclear data libraries are used and compared. These applications serve as frameworks for comparing the different approaches of the Hybrid Method, and also for comparing with other methodologies: Total Monte Carlo (TMC), developed at NRG by A.J. Koning and D. Rochman, and NUDUNA, developed at AREVA GmbH by O. Buss and A. Hoefer. These comparisons reveal the advantages, limitations and the range of application of the Hybrid Method.
Resumo:
En entornos hostiles tales como aquellas instalaciones científicas donde la radiación ionizante es el principal peligro, el hecho de reducir las intervenciones humanas mediante el incremento de las operaciones robotizadas está siendo cada vez más de especial interés. CERN, la Organización Europea para la Investigación Nuclear, tiene alrededor de unos 50 km de superficie subterránea donde robots móviles controlador de forma remota podrían ayudar en su funcionamiento, por ejemplo, a la hora de llevar a cabo inspecciones remotas sobre radiación en los diferentes áreas destinados al efecto. No solo es preciso considerar que los robots deben ser capaces de recorrer largas distancias y operar durante largos periodos de tiempo, sino que deben saber desenvolverse en los correspondientes túneles subterráneos, tener en cuenta la presencia de campos electromagnéticos, radiación ionizante, etc. y finalmente, el hecho de que los robots no deben interrumpir el funcionamiento de los aceleradores. El hecho de disponer de un sistema de comunicaciones inalámbrico fiable y robusto es esencial para la correcta ejecución de las misiones que los robots deben afrontar y por supuesto, para evitar tales situaciones en las que es necesario la recuperación manual de los robots al agotarse su energía o al perder el enlace de comunicaciones. El objetivo de esta Tesis es proveer de las directrices y los medios necesarios para reducir el riesgo de fallo en la misión y maximizar las capacidades de los robots móviles inalámbricos los cuales disponen de almacenamiento finito de energía al trabajar en entornos peligrosos donde no se dispone de línea de vista directa. Para ello se proponen y muestran diferentes estrategias y métodos de comunicación inalámbrica. Teniendo esto en cuenta, se presentan a continuación los objetivos de investigación a seguir a lo largo de la Tesis: predecir la cobertura de comunicaciones antes y durante las misiones robotizadas; optimizar la capacidad de red inalámbrica de los robots móviles con respecto a su posición; y mejorar el rango operacional de esta clase de robots. Por su parte, las contribuciones a la Tesis se citan más abajo. El primer conjunto de contribuciones son métodos novedosos para predecir el consumo de energía y la autonomía en la comunicación antes y después de disponer de los robots en el entorno seleccionado. Esto es importante para proporcionar conciencia de la situación del robot y evitar fallos en la misión. El consumo de energía se predice usando una estrategia propuesta la cual usa modelos de consumo provenientes de diferentes componentes en un robot. La predicción para la cobertura de comunicaciones se desarrolla usando un nuevo filtro de RSS (Radio Signal Strength) y técnicas de estimación con la ayuda de Filtros de Kalman. El segundo conjunto de contribuciones son métodos para optimizar el rango de comunicaciones usando novedosas técnicas basadas en muestreo espacial que son robustas frente a ruidos de campos de detección y radio y que proporcionan redundancia. Se emplean métodos de diferencia central finitos para determinar los gradientes 2D RSS y se usa la movilidad del robot para optimizar el rango de comunicaciones y la capacidad de red. Este método también se valida con un caso de estudio centrado en la teleoperación háptica de robots móviles inalámbricos. La tercera contribución es un algoritmo robusto y estocástico descentralizado para la optimización de la posición al considerar múltiples robots autónomos usados principalmente para extender el rango de comunicaciones desde la estación de control al robot que está desarrollando la tarea. Todos los métodos y algoritmos propuestos se verifican y validan usando simulaciones y experimentos de campo con variedad de robots móviles disponibles en CERN. En resumen, esta Tesis ofrece métodos novedosos y demuestra su uso para: predecir RSS; optimizar la posición del robot; extender el rango de las comunicaciones inalámbricas; y mejorar las capacidades de red de los robots móviles inalámbricos para su uso en aplicaciones dentro de entornos peligrosos, que como ya se mencionó anteriormente, se destacan las instalaciones científicas con emisión de radiación ionizante. En otros términos, se ha desarrollado un conjunto de herramientas para mejorar, facilitar y hacer más seguras las misiones de los robots en entornos hostiles. Esta Tesis demuestra tanto en teoría como en práctica que los robots móviles pueden mejorar la calidad de las comunicaciones inalámbricas mediante la profundización en el estudio de su movilidad para optimizar dinámicamente sus posiciones y mantener conectividad incluso cuando no existe línea de vista. Los métodos desarrollados en la Tesis son especialmente adecuados para su fácil integración en robots móviles y pueden ser aplicados directamente en la capa de aplicación de la red inalámbrica. ABSTRACT In hostile environments such as in scientific facilities where ionising radiation is a dominant hazard, reducing human interventions by increasing robotic operations are desirable. CERN, the European Organization for Nuclear Research, has around 50 km of underground scientific facilities, where wireless mobile robots could help in the operation of the accelerator complex, e.g. in conducting remote inspections and radiation surveys in different areas. The main challenges to be considered here are not only that the robots should be able to go over long distances and operate for relatively long periods, but also the underground tunnel environment, the possible presence of electromagnetic fields, radiation effects, and the fact that the robots shall in no way interrupt the operation of the accelerators. Having a reliable and robust wireless communication system is essential for successful execution of such robotic missions and to avoid situations of manual recovery of the robots in the event that the robot runs out of energy or when the robot loses its communication link. The goal of this thesis is to provide means to reduce risk of mission failure and maximise mission capabilities of wireless mobile robots with finite energy storage capacity working in a radiation environment with non-line-of-sight (NLOS) communications by employing enhanced wireless communication methods. Towards this goal, the following research objectives are addressed in this thesis: predict the communication range before and during robotic missions; optimise and enhance wireless communication qualities of mobile robots by using robot mobility and employing multi-robot network. This thesis provides introductory information on the infrastructures where mobile robots will need to operate, the tasks to be carried out by mobile robots and the problems encountered in these environments. The reporting of research work carried out to improve wireless communication comprises an introduction to the relevant radio signal propagation theory and technology followed by explanation of the research in the following stages: An analysis of the wireless communication requirements for mobile robot for different tasks in a selection of CERN facilities; predictions of energy and communication autonomies (in terms of distance and time) to reduce risk of energy and communication related failures during missions; autonomous navigation of a mobile robot to find zone(s) of maximum radio signal strength to improve communication coverage area; and autonomous navigation of one or more mobile robots acting as mobile wireless relay (repeater) points in order to provide a tethered wireless connection to a teleoperated mobile robot carrying out inspection or radiation monitoring activities in a challenging radio environment. The specific contributions of this thesis are outlined below. The first sets of contributions are novel methods for predicting the energy autonomy and communication range(s) before and after deployment of the mobile robots in the intended environments. This is important in order to provide situational awareness and avoid mission failures. The energy consumption is predicted by using power consumption models of different components in a mobile robot. This energy prediction model will pave the way for choosing energy-efficient wireless communication strategies. The communication range prediction is performed using radio signal propagation models and applies radio signal strength (RSS) filtering and estimation techniques with the help of Kalman filters and Gaussian process models. The second set of contributions are methods to optimise the wireless communication qualities by using novel spatial sampling based techniques that are robust to sensing and radio field noises and provide redundancy features. Central finite difference (CFD) methods are employed to determine the 2-D RSS gradients and use robot mobility to optimise the communication quality and the network throughput. This method is also validated with a case study application involving superior haptic teleoperation of wireless mobile robots where an operator from a remote location can smoothly navigate a mobile robot in an environment with low-wireless signals. The third contribution is a robust stochastic position optimisation algorithm for multiple autonomous relay robots which are used for wireless tethering of radio signals and thereby to enhance the wireless communication qualities. All the proposed methods and algorithms are verified and validated using simulations and field experiments with a variety of mobile robots available at CERN. In summary, this thesis offers novel methods and demonstrates their use to predict energy autonomy and wireless communication range, optimise robots position to improve communication quality and enhance communication range and wireless network qualities of mobile robots for use in applications in hostile environmental characteristics such as scientific facilities emitting ionising radiations. In simpler terms, a set of tools are developed in this thesis for improving, easing and making safer robotic missions in hostile environments. This thesis validates both in theory and experiments that mobile robots can improve wireless communication quality by exploiting robots mobility to dynamically optimise their positions and maintain connectivity even when the (radio signal) environment possess non-line-of-sight characteristics. The methods developed in this thesis are well-suited for easier integration in mobile robots and can be applied directly at the application layer of the wireless network. The results of the proposed methods have outperformed other comparable state-of-the-art methods.
Resumo:
El principal objetivo del presente trabajo de investigación fue determinar las diferencias en distintas variables relacionadas con el rendimiento físico entre atletas de distinto nivel durante la prueba de los 60 metros vallas. Un total de 59 vallistas masculinos (los 31 participantes en el Campeonato del Mundo Absoluto de Pista Cubierta y los 28 participantes en el Campeonato de España Absoluto de Pista Cubierta, ambos celebrados en Valencia en el año 2008) formaron la muestra del estudio. El análisis biomecánico se realizó mediante un sistema fotogramétrico en dos dimensiones que permitió calcular, aplicando algoritmos basados en el procedimiento de la DLT (Abdel-Aziz y Karara, 1971), las coordenadas (x, y) de los sucesivos apoyos de los pies de los atletas sobre toda la superficie de competición. La filmación de las pruebas se llevó a cabo con seis cámaras de vídeo, ubicadas sobre la gradas, con una frecuencia de muestreo para el tratamiento de los datos de 50 Hz. En la fase de salida, los atletas de nivel superior mostraron una menor longitud (p<0,05) y tiempo de zancada (p<0,001), debido a un menor tiempo de vuelo (p<0,05). En la fase de vallas, los atletas de nivel más elevado presentaron mayores distancia de ataque a la valla (p<0,001), así como menores distancias de caída de la valla (p<0,001), tiempos de zancada (p<0,01-0,001) y de apoyo (p<0,01-0,001 ) en los cuatro pasos que conforman cada ciclo de vallas, así como un menor tiempo de vuelo en el paso de valla (p<0,001) y en el paso de transición (p<0,001). De manera adicional, se encontraron importantes diferencias en el reparto de los pasos entre vallas entre la primera y tercera valla y el resto de obstáculos. En la fase final, se observó una mayor longitud de zancada en los atletas de nivel superior (p<0,001), así como un menor tiempo de zancada (p<0,01) y de apoyo (p<0,01). Los resultados obtenidos en el presente estudio de investigación avalan la utilización de la fotogrametría en dos dimensiones para el análisis biomecánico de la prueba de 60 metros vallas en competición. Su aplicación en competiciones del máximo nivel internacional ha posibilitado conocer las características de los vallistas a lo largo de toda la prueba y determinar posibles implicaciones de cara al proceso de entrenamiento. ABSTRACT The aim of this research was to determine the differences in different variables related to physical performance among athletes of different levels during the race of 60 meter hurdles. A total of 59 male hurdlers (the 31 participants in the World Indoor Championship and the 28 participants in the Spanish Indoor Championship, both held in Valencia in 2008) formed the sample of the study. The biomechanical analysis of athletes was performed using a two-dimensional photogrammetric system which enabled calculation, applying algorithms based on the DLT method (Abdel -Aziz y Karara , 1971), the coordinates (x , y) of the successive supports of the feet on the entire competition surface. Filming test was conducted with six video cameras, located on the bleachers, with a sampling frequency for data processing of 50 Hz. In the approach run phase, the top-level athletes showed a smaller length step (p<0.05), and shorter step time (p<0.001), due to a shorter step flight time (p<0.05). In the hurdle unit phase, the higher level athletes had greater take-off distances (p<0.001), shorter landing distances (p<0.001), smaller step times (p<0.01-0.001), and support times (p<0.01- 0.001) in the four steps that comprised each hurdle unit, and smaller flight times in the hurdle step (p < 0.001), and the recovery step (p<0.001). Additionally, differences in the distribution of hurdle unit steps between the first and third hurdle, and other hurdles were found. In the run-in phase, a greater step length in top-level athletes (p<0.001), and a shorter step time (p<0.01) and contact time (p<0.01) was observed. The results obtained in this study support the use of photogrammetry in two dimensions for biomechanical analysis in 60 meter hurdles competition events. Its application at the highest international level competitions has allowed to know the characteristics of the hurdlers over the entire race and identify possible implications for the training process.
Resumo:
Dada la importancia de conocer la humedad del suelo de forma precisa y en tiempo real, se ha realizado este trabajo de investigación cuyo objetivo principal ha sido seleccionar un Balance Hídrico del Suelo (BHS) diario y validar sus estimaciones de humedad del suelo frente a medidas obtenidas “in situ”, aplicándolo a tres emplazamientos seleccionados en la zona centro con características edáficas y climáticas diferentes, y de este modo estimar con cierta precisión la humedad del suelo como Agua Disponible (AD) para las plantas y a su vez permitir la realización de estudios climáticos. Los observatorios meteorológicos seleccionados fueron: Guadalajara/El Serranillo en la zona aluvial del río Henares; Colmenar Viejo/Base Famet en la rampa sur del Guadarrama sobre rocas metamórficas; y Radiosondeo/Madrid(Barajas) en arenas arcósicas de grano grueso. Se realizó una caracterización morfológica y un estudio de las propiedades físicas, químicas e hidrofísicas de los suelos en cada emplazamiento. El suelo de Guadalajara, Xerorthent Típico presenta una secuencia genética de horizontes (Ap-AC-C1-C2) siendo su clase textural entre franco-arenosa a franca, con menos del 2% de elementos gruesos, presencia de caliza a lo largo de todo el perfil, destacando la homogeneidad en vertical y horizontal de sus propiedades. El suelo de Colmenar, Xerorthent Dystrico, presenta una secuencia genética de horizontes (A-C-C/R) apareciendo el horizonte C/R entre 20-30 cm; y la roca aproximadamente a unos 30 cm; destacando en este perfil su acidez y el alto contenido de elementos gruesos. El suelo de Radiosondeo, Haploxeralf Típico, presenta la secuencia normal de horizontes de los alfisoles (A-Bt1-Bt2-C/Bt); destacando su heterogeneidad principalmente en el plano horizontal, con presencia del Bt a diferentes profundidades en un corto espacio longitudinal. En una primera fase de experimentación (2007-2008) se seleccionaron BHS diarios que sólo utilizaban como datos de entrada la información de variables meteorológicas y el valor del Agua Disponible Total (ADT) para cada tipo de suelo y profundidad. Se probaron BHS diarios con agotamiento exponencial y directo de la reserva, utilizando la evapotranspiración de referencia de Penman-Monteith recomendada por FAO. Al mismo tiempo que se disponía de los datos estimados de humedad de suelo mediante diferentes BHS diarios en los tres emplazamientos, también se realizó una monitorización de la humedad del suelo “in situ” mediante el método gravimétrico, con adaptación de dicha metodología a la problemática de cada suelo, para determinar en cada fecha tanto la humedad del suelo como su contenido de AD para una profundidad de 0 a 30 cm. Se tomaron en cada fecha de muestreo 5 muestras para la profundidad 0- 10 cm, otras cinco para 10-20 cm y otras cinco para 20-30 cm, realizándose el correspondiente tratamiento estadístico de los datos. El ADT se calculó a partir de los datos de capacidad de campo y punto de marchitez obtenidos en laboratorio con membrana de Richards. Los resultados de esta primera fase permitieron conocer que el BHS exponencial diario era el que mejor estimaba el AD en Guadalajara considerando la capacidad de campo a una presión de 33 kPa, mientras que en Colmenar se debían considerar para un mejor ajuste, 10 kPa en lugar de 33 kPa. En el observatorio de Radiosondeo debido a que en cada fecha de muestreo la profundidad en la que aparecía el horizonte Bt era diferente, no se pudo demostrar si el BHS exponencial diario tenía un buen comportamiento. En una segunda fase de experimentación (2009-2012) y con el objeto de aminorar los problemas encontrados en Radiosondeo para la medida de humedad del suelo por el método gravimétrico, se procedió a la instalación y utilización de diferentes sensores de medida de humedad de suelo en el mismo observatorio: TDR (time domain reflectometry - TRIME T3 de IMKO); FDR capacitivo (frecuency domain reflectometry - ECH2O EC-20 de DECAGON) y otros. Esta segunda fase de experimentación tuvo una duración de 4 años y se compararon las medidas de humedad de suelo obtenidas a partir de los sensores con las estimadas del BHS exponencial hasta una profundidad de 0 a 85 cm. En laboratorio se realizaron calibraciones específicas de los sensores TDR y FDR para cada uno de los horizontes más diferenciados del Haploxeralf Típico, utilizando diferentes tipos de regresión. Los valores de humedad de suelo con el equipo TDR, corregidos mediante la calibración específica de laboratorio, fueron los que más se ajustaron a las medidas realizadas por método gravimétrico “in situ”, por lo que se utilizó el TDR para las comparaciones con los valores obtenidos del BHS exponencial diario durante los cuatro años de esta segunda fase experimental. Se realizaron diferentes estimaciones del ADT, partiendo de datos de laboratorio y/o de datos procedentes de humedad de los sensores en campo. Los resultados mostraron de nuevo la conveniencia de utilizar el BHS exponencial diario, pero en este caso, con la estimación del ADT realizada a partir de las gráficas de los sensores. Mediante la utilización de los datos de humedad del BHS exponencial diario se han realizado comparaciones con el mismo tipo de balance pero utilizando un periodo semanal o mensual en lugar de diario, para conocer las diferencias. Los valores obtenidos con periodicidad mensual han dado valores de AD inferiores a los balances calculados semanalmente o diariamente. Por último se ha comprobado que los resultados de un BHS exponencial diario pueden complementar la información que se obtiene del Índice de Precipitación Estandarizado (SPI) y pueden mejorar el estudio de la sequía agrícola. ABSTRACT Due to the importance of a better knowledge of soil water at real time and in a more precisely way, this research work has being carried out with the main objective of selecting a daily Soil Water Balance (SWB) to estimate soil water content, and validate it in comparison to “in situ” measurements. Three locations, differing in soil and climate characteristics, were selected in central Spain in order to estimate with certain acuity soil water as plant-Available Water (AW) and to serve as a tool for the climatic studies. The selected places near meteorology stations were: Guadalajara/El Serranillo an alluvium of the Henares watershed; Colmenar Viejo/Base Famet, in the south raised area of the Guadarrama river basin, over metamorphic rocks; and Radiosondeo/Madrid (Barajas) in coarse arkosic sandstone. Morphology characterization, physical, chemical and hydrologic soil properties were studied in each area. In Guadalajara the soil is a Typic Xerorthent with a (Ap-AC-C1- C2) genetic horizon sequence, loam-sandy to loam textural class, less than 2% of rock fragments, presence of equivalent CaCO3 through the whole profile, outstanding the vertical and horizontal homogeneity of the properties. In Colmenar the soil is represented by a Dystric Xerorthent with a (A-C-C/R) genetic horizon sequence, the C/R is 20-30 cm deep where rock outcrops are approximately at 30 cm; a characteristic feature of this profile is its high acidity and high rock fragments content. In Radiosondeo the soil is represented by a Typic Haploxeralf, with the usual alfisol genetic horizon sequence (A-Bt1-Bt2-C/Bt); outstanding its horizontal heterogeneity, “the variability of the Bt (clay enriched horizon) depth in short distances”. In a first experimental stage (2007-2008), the daily SWB chosen was that which only uses as input data the information from the meteorology variables and plant-Total Available Water (TAW) for each soil type and depth. Different daily SWB (with exponential or direct plant-Available Water depletion) were applied, using the Penman- Monteith reference evapotranspiration (ETo) recommended by FAO. At the same time as soil water content was estimated from the different daily SWB at the three locations, also soil water content was being monitored by “in situ” gravimetric methodology, adapting it to each soil characteristic, to determine every time soil water content and AW to a depth of 0 to 30 cm. In each sampling date, 5 samples for each depth were taken: 0-10 cm; 10-20 cm and 20-30 cm and the data were submitted to the corresponding statistical analysis. The TAW was calculated based on field capacity (FC) and permanent wilting point (PWP) data obtained from laboratory by the Richards pressure plate. Results from this first experimental stage show that the daily exponential SWB was the one which better estimated the AW in Guadalajara considering field capacity at -33 kPa, though in Colmenar, field capacity at -10 kPa must be considered instead of -33 kPa for a better estimation. In Radiosondeo due to the fact that the Bt horizon depth varied in different sampling dates, it could not be established if the daily exponential SWB had a good performance. In a second experimental stage (20019-2012) and with the objective of minimizing the problems encountered in Radiosondeo for measuring “in situ” soil water content by the gravimetric method, the installation of different sensors for measuring soil water content were established and used in the same field location: TDR (time domain reflectometry - TRIME T3 from IMKO), capacitance FDR (frecuency domain reflectometry - ECH2O EC-20 from DECAGON) and others. This second experimental stage lasted 4 years in order to compare the soil water measures from the sensors with the estimations by the exponential SWB form 0 to 85 cm soil depths. At laboratory, specific calibrations for TDR and FDR sensors of the Typic Haploxeralf more differentiated horizons were done using different types of regressions. The results showed that soil water data obtained by the TDR equipment, corrected by the specific laboratory calibration, best fitted to “in situ” gravimetric soil water measures. In this way TDR was used for comparing to the daily exponential SWB during the four years of this second experimentation stage. Various estimations for obtaining TAW were tested; based on laboratory data – and/or on the data obtained of the soil water content field sensors. Results confirmed again, the convenience of using the daily exponential SWB, though in this case, with the TAW obtained from the field sensors graphics. Soil water estimated by exponential SWB on daily basis was compared to weekly and monthly periods, in order to know their reliability. The results obtained for a monthly period gave less AW than the ones obtained in a weekly or daily period. Finally it has been proved that the results obtained from the exponential SWB in a daily bases can be used as a useful tool in order to give complementary information to the SPI (Precipitation Standardized Index) and to help in agricultural drought studies.
Resumo:
Se ha realizado un estudio de la distribución de plantas vasculares en un territorio situado entre las provincias de Cuenca, Guadalajara, Madrid y Toledo (España). El territorio estudiado está en la Submeseta Sur de la península ibérica, al sur del Sistema Central, norte de los Montes de Toledo y oeste del Sistema Ibérico, en zonas sedimentarias con poco relieve y clima mediterráneo, con grandes contrastes de temperatura y precipitaciones muy irregulares. Coincide con las regiones naturales llamadas: “Alcarrias”, “Campiñas de Madrid y Guadalajara” y “Vegas de los ríos de la Cuenca del Tajo”. Es lo que he llamado Cuenca Media del Tajo. En una primera fase se ha estudiado la flora regional para adquirir conocimientos previos mediante las consultas bibliográficas y de herbarios, se ha contado con bases de datos disponibles para MA, MACB, MAF, JACA, AH, ABH, VAL, SALA y EMMA. Se han revisado las aportaciones propias que en los últimos años he realizado en el territorio en relación a los temas tratados en la tesis. El trabajo de campo ha consistido en la realización de inventarios de presencia de flora. Ha sido muy importante la tarea herborizadora para llegar a la correcta identificación de las especies colectadas en los inventarios. De esta forma el autor ha confeccionado un herbario propio JML que en el territorio muestreado ha reunido cerca de 15000 números en las cuatro provincias estudiadas. Se ha hecho un muestreo sistemático del territorio con unos 6000 listados de plantas. Se ha tomado como unidad de muestreo la cuadrícula de UTM de 1 km de lado incluida como una centésima parte de la cuadrícula de UTM de 10 km. Se han seguido criterios para uniformizar el muestreo. Se ha apuntado el tiempo empleado y la superficie muestreada estimada en cada toma de datos. El criterio mínimo que tienen que cumplir todas las cuadrículas en el área estudiada ha sido que para cada cuadrícula de UTM de 5 km se han realizado al menos 5 inventarios en 5 cuadrículas diferentes de UTM de 1 km y al menos en una hora de tiempo. La unidad de comparación ha sido la cuadrícula UTM de 5 km. Se han informatizado los inventarios de campo, para ello se ha creado la base de datos TESIS en Microsoft office –Access-. Las principales tablas son LOCALIDAD, en la que se anotan las características del lugar muestreado y ESPECIES, que lista las especies de flora consideradas en las cuatro provincias del estudio. Por medio de formularios se han rellenado las tablas; destaca la tabla ESPECIE INVENTARIO que relaciona las tablas ESPECIES y LOCALIDAD; esta tabla cuenta en este momento con unos 165.000 registros. En la tabla ESPECIES_FPVI se visualizan las especies recopiladas. Se ha creado un indicador llamado FPVI “Flora permanentemente visible identificable” que consiste en atribuir a cada especie unos índices que nos permiten saber si una determinada planta se puede detectar en cualquier época del año. Los resultados presentados son: Creación de la base de datos TESIS. El Catálogo Florístico de la Cuenca Media del Tajo, que es el catálogo de la flora de las cuatro provincias desde el principio de la sistemática hasta las Saxifragáceas. En total se han recopilado 1028 taxones distribuidos en 77 familias. Se ha calculado el índice FPVI, para las especies del catálogo. La finalidad para la que se ha diseñado este índice es para poder comparar territorios. Para el desarrollo de ambos resultados ha sido fundamental el desarrollo de la tabla ESPECIES_PVI de la base de datos TESIS. En la tabla ESPECIES_PVI se han apuntado las características ecológicas y se revisa la información bibliográfica disponible para cada especie; las principales fuentes de información consultadas han sido Flora iberica, el proyecto “Anthos” y las bases de datos de los herbarios. Se ha apuntado sí se ha visto, sí está protegida o sí en un endemismo. Otros resultados son: la localización de las cuadrículas de UTM de 10 km, con mayor número de endemismos o especies singulares, con mayor valor botánico. Se ha realizado un par de ejemplos de estudios de autoecología de especie, en concreto Teucrium pumilum y Clematis recta. Se han confeccionando salidas cartográficas de distribución de especies. Se ha elaborado el herbario JML. Se ha presentado una sencilla herramienta para incluir inventarios florísticos, citas corológicas, consultas de autoecología o etiquetado de pliegos de herbario. Como colofón, se ha colaborado para desarrollar una aplicación informática de visualización, análisis y estudio de la distribución de taxones vegetales, que ha utilizado como datos de partida un porcentaje importante de los obtenidos para esta tesis. ABSTRACT I have made a study of the distribution of vascular plants in a territory located between the provinces of Cuenca, Guadalajara, Madrid and Toledo (Spain). The studied area is in the “Submeseta” South of the Iberian Peninsula, south of the Central System, north of the Montes de Toledo and west of the Iberian System, in sedimentary areas with little relief and Mediterranean climate, with big temperature contrasts and irregular rainfall. Coincides with the natural regions called "Alcarrias", "countryside of Madrid and Guadalajara" and “Vegas River Tagus Basin”. This is what I have called Middle Tagus Basin. In a first step we have studied the regional flora to acquire prior knowledge through the literature and herbaria consultations, it has had available databases for MA, MACB, MAF, JACA, AH, ABH, VAL, SALA and EMMA herbaria. The contributions I have made in the last years in the territory in relation to the topics discussed in the thesis have been revised. The field work consisted of conducting inventories presence of flora. Botanize was a very important task to get to the correct identification of the species collected in inventories. In this way the author has made his own herbarium JML in the sampled area has met at least 15000 samples in the four studied provinces. There has been a systematic sampling of the territory with nearly 6,000 listings of plants. Was taken as the sampling unit grid UTM 1 km side included as a hundredth of the UTM grid of 10 km from side. Criteria have been taken to standardize the sampling. Data were taken of the time spent and the estimated sampled surface. The minimum criteria they have to meet all the grids in the study area has been that for each UTM grid of 5 km have been made at least 5 stocks in 5 different grids UTM 1 km and at least one hour of time. The unit of comparison was the UTM grid of 5 km. I have computerized inventories of field, for it was created a database in Access- Microsoft office -TESIS. The main tables are LOCALIDAD, with caracteristics of the sampled location and ESPECIES, which lists the plant species considered in the four provinces of the study, is. Through forms I filled in the tables; highlights ESPECIE INVENTARIO table that relates the tables ESPECIES and LOCALIDAD, this table is counted at the moment with about 165,000 records. The table ESPECIES FPVI visualizes all recollected species. We have created an indicator called FPVI "Flora permanently visible identifiable" that attributes to each species indices that allow us to know whether a given plant can be detected in any season. The results presented are: Creating data base TESIS. The Floristic Books Middle Tagus Basin, which is a catalog of the flora of the four provinces since the beginning of the systematic until Saxifragaceae. In total 1028 collected taxa in 77 families. We calculated FPVI index for species catalog. The purpose for which this index designed is, to compare territories. For the development of both results, it was essential to develop the table ESPECIES_PVI TESIS data base. Table ESPECIES_PVI has signed the ecological characteristics and bibliographic information available for each species is revised; the main sources of information has been Flora iberica, the Anthos project databases of herbaria. Targeted species has been recorded, when seen, protected or endemism. Have also been located UTM grids of 10 km, with the largest number of endemic or unique species and more botanical value. There have been a couple of species autecology studies, namely Teucrium pumilum and Clematis recta, as an example of this type of study. They have been putting together maps of species distribution. We made herbarium JML. I have presented a simple tool to include floristic inventories, chorological appointments, consultations or to tag autoecology herbarium specimens. To cap it has worked to develop a computer application for visualization, analysis and study of the distribution of plant taxa, which has used as input data a significant percentage of those obtained for this thesis.