978 resultados para Campaña sísmica de alta resolución
Resumo:
Se trabajó con aceite esencial obtenido por arrastre por vapor de Origanum x applii (criollo) y Origanum x majoricum (mendocino), cultivados en La Consulta, Mendoza, Argentina. Para evaluar su poder antioxidante y conservante en alimentos se determinó: rendimiento, polifenoles totales, cuantificación de timol y carvacrol mediante cromatografía en capa fina de alta resolución (HPTLC) y capacidad de secuestro de radicales libres (DPPH). La actividad conservante se evaluó in vitro, por el método de difusión en agar, frente a cultivos puros de cinco bacterias patógenas y seis cepas de bacterias lácticas que alteran alimentos. El rendimiento en aceite esencial de estos oréganos oscila entre los valores informados por distintos autores para variedades cultivadas en otras regiones. Se destaca el contenido de polifenoles de ambos en relación con los valores mencionados en la bibliografía para otros Origanum, prevaleciendo el timol sobre el carvacrol. Esto se condice con un superior nivel de secuestro de radicales libres de ambos respecto de los citados en la literatura. Los oréganos de La Consulta inhibieron todas las cepas ensayadas y fueron más efectivos contra Staphylococcus aureus. Lo expuesto corrobora el poder antioxidante y conservante del Origanum x applii y del Origanum x majoricum.
Resumo:
En los últimos 10 años, la Argentina se ha incorporado a los países exportadores de vinos, en el decimoprimer lugar con productos de excelente calidad (INV, 2011). Entre los atributos que conforman los aspectos de calidad e inocuidad de los vinos se destaca el cumplimiento de los Límites Máximos de Residuos (LMR) de plaguicidas permitidos por las diversas legislaciones según el destino comercial de los mismos. Para los productos procesados, se considera como LMR el establecido para el producto en bruto. Por ejemplo, para productos procesados como el vino se aplica los LMR establecidos en la uva (The Australian Wine Research Institute, 2012). En Argentina, el Instituto Nacional de Vitivinicultura no establece LMR de plaguicidas para el vino por lo que se consideran los LMR establecidos para uva por SENASA en su Resolución 934/10. En la actualidad, benomil y carbendazim son los fungicidas bencimidazoles más utilizados en el cultivo de la vid para controlar la podredumbre de los racimos. El problema mayor se presenta cuando son necesarias aplicaciones en épocas muy cercanas a cosecha, permitiendo el pasaje de residuos de estos fungicidas desde uvas al mosto y luego al vino. En nuestro país está legislada la cantidad máxima de estos plaguicidas en uva en fresco, 3 ppm para benomil al igual que para carbendazim (SENASA, Resolución 934/10). El Codex alimentarius establece un LMR de 3 ppm para carbendazim en uva en fresco y no establece un LMR para el benomil. La Unión Europea establece un LMR de 0,5 ppm para el benomil y carbendazim (suma de benomil y carbendazim expresado como carbendazim). De esta manera es importante su determinación para evitar rechazos y de esta forma proteger la imagen y calidad de la producción nacional y garantizar la seguridad alimentaria de los consumidores. El objetivo del presente trabajo fue evaluar una metodología analítica validada en vegetales, basada en el método de Jullie Fillion, 1998, para la determinación de residuos de plaguicidas bencimidazoles (benomil y carbendazim) en vinos. Este método consiste en una extracción con acetato de etilo, posterior conversión del benomil a carbendazim y concentración e inyección en cromatógrafo líquido de alta resolución y detector de arreglo de diodos (HPLC-DAD). Los parámetros que se evaluaron fueron: selectividad, linealidad, exactitud y precisión. Los valores obtenidos cumplieron con los criterios de aceptación establecidos por el SENASA en su Resolución 138/2002, el Codex alimentarius, 1999 y Quatrocchi, 1992. Con esto se puede concluir que se obtuvo un método confiable con el cual controlar los niveles de contaminación de benomil y carbendazim en los vinos. Esto es una herramienta importante para la industria vitivinícola ya que para proteger la imagen y calidad de sus productos y garantizar la seguridad alimentaria de los consumidores, deberá implementar programas de monitoreo de residuos de plaguicidas para prevenir que éstos se encuentren en el producto terminado.
Resumo:
La expresión de la intensidad del flavor en los bulbos de ajo (Allium sativum L.), depende tanto de factores genéticos como ambientales. Las características organolépticas se manifiestan por la presencia de compuestos organoazufrados, específicamente tiosulfinatos, siendo el representante mayoritario la allicina (diallil tiosulfinato). El ácido pirúvico constituye un producto secundario de la reacción enzimática generadora del flavor, por lo que su medición se asocia a la intensidad de pungencia en ajo. El objetivo del presente trabajo fue estudiar si la variabilidad en el contenido de allicina y pirúvico está más asociada a las características genéticas o a la influencia de las regiones de cultivo. Se seleccionaron cuatro cultivares (Castaño INTA, Sureño INTA, Lican INTA y Unión) pertenecientes al banco de germoplasma del Instituto Nacional de Tecnología Agropecuaria (INTA) La Consulta, Mendoza, Argentina, cultivados en diferentes zonas geográficas: La Consulta (Dpto. San Carlos, Mendoza), Esquel (Chubut) y Ushuaia (Tierra del Fuego). Se cuantificó la allicina mediante Cromatografía Líquida de Alta Resolución (HPLC) y pungencia mediante espectrofotometría. A partir del análisis estadístico de los valores obtenidos se puede inferir que existen diferencias significativas en el contenido de allicina y pirúvico entre distintas cultivares de una misma zona y en el contenido de allicina y pirúvico para la misma cultivar en distintas zonas.
Resumo:
En regiones en las que no se dispone de un modelo hidrológico correctamente calibrado para estimar la escorrentía, se puede recurrir a la utilización de la escorrentía directa simulada por los modelos climáticos o a la escorrentía calculada a partir de fórmulas climatológicas que emplean variables climáticas básicas como la precipitación, temperatura y radiación solar, simuladas por los modelos regionales de clima (MRC). El presente trabajo compara el comportamiento de la escorrentía directa obtenida por 10 simulaciones de los MRC del proyecto europeo PRUDENCE y la escorrentía media anual calculada a partir de la aplicación de cinco fórmulas climatológicas (Schreiber, Ol’dekop, Budyko, Turc-Pike, Zhang et al.) basadas en el índice de aridez, definido por la relación entre la evapotranspiración potencial y la precipitación. Series temporales mensuales de escorrentía, precipitación, temperatura y radiación solar son generadas a partir de las simulaciones de los MRC en 338 cuencas de España que cubren la totalidad del territorio peninsular, bajo condiciones de clima actual (periodo 1961-1990). La evapotranspiración potencial se obtiene usando el método presentado por Hargreaves. Estas formas funcionales estiman la relación entre la evapotranspiración actual y la precipitación y a través de un balance hídrico se calculan los valores de escorrentía anual. El comportamiento general de las variables climáticas simuladas por los MRC se caracteriza por presentar menor sesgo para precipitación y temperatura que para escorrentía. Empleando estadísticos de comparación se analiza la capacidad que tiene la escorrentía directa y la escorrentía anual calculada a partir de las fórmulas climáticas para reproducir los valores observados de escorrentía natural estimada por el modelo hidrológico distribuido SIMPA en las cuencas españolas. En total se generaron 10 series mensuales de escorrentía directa y 50 series de escorrentía anual basadas en el índice de aridez (cada fórmula climática aplicada a las 10 simulaciones de los MRC). Los resultados muestran que la fórmula de Schreiber produce la mejor aproximación a los valores observados y por tanto minimiza el sesgo predominante en la variable escorrentía. Adicionalmente, estos resultados se validan con las capas de escorrentía media anual de alta resolución proporcionada por la UNH/GRDC (University of New Hampshire/Global Runoff Data Centre) que preservan la exactitud de las medidas de las aportaciones observadas en las principales estaciones hidrológicas de todo el mundo, y que en la actualidad es el “mejor estimador” de la escorrentía terrestre sobre grandes extensiones. En este caso, los resultados muestran también que la fórmula de Schreiber estima mejor los valores de escorrentía anual que la escorrentía directa simulada por MRC.
Resumo:
Las técnicas SAR (Synthetic Aperture Radar, radar de apertura sintética) e ISAR (Inverse SAR, SAR inverso) son sistemas radar coherentes de alta resolución, capaces de proporcionar un mapa de la sección radar del blanco en el dominio espacial de distancia y acimut. El objetivo de ambas técnicas radica en conseguir una resolución acimutal más fina generando una apertura sintética a partir del movimiento relativo entre radar y blanco. Los radares imagen complementan la labor de los sistemas ópticos e infrarrojos convencionales, especialmente en condiciones meteorológicas adversas. Los sistemas SAR e ISAR convencionales se diseñan para iluminar blancos en situaciones de línea de vista entre sensor y blanco. Por este motivo, presentan un menor rendimiento en escenarios complejos, como por ejemplo en bosques o entornos urbanos, donde los retornos multitrayecto se superponen a los ecos directos procedentes de los blancos. Se conocen como "imágenes fantasma", puesto que enmascaran a los verdaderos blancos y dan lugar a una calidad visual pobre, complicando en gran medida la detección del blanco. El problema de la mitigación del multitrayecto en imágenes radar adquiere una relevancia teórica y práctica. En esta Tesis Doctoral, se hace uso del concepto de inversión temporal (Time Reversal, TR) para mejorar la calidad visual de las imágenes SAR e ISAR eliminando las "imágenes fantasma" originadas por la propagación multitrayecto (algoritmos TR-SAR y TR-ISAR, respectivamente). No obstante, previamente a la aplicación de estas innovadoras técnicas de mitigación del multi-trayecto, es necesario resolver el problema geométrico asociado al multitrayecto. Centrando la atención en la mejora de las prestaciones de TR-ISAR, se implementan una serie de técnicas de procesado de señal avanzadas antes y después de la etapa basada en inversión temporal (el eje central de esta Tesis). Las primeras (técnicas de pre-procesado) están relacionadas con el multilook averaging, las transformadas tiempo-frecuencia y la transformada de Radon, mientras que las segundas (técnicas de post-procesado) se componen de un conjunto de algoritmos de superresolución. En pocas palabras, todas ellas pueden verse como un valor añadido al concepto de TR, en lugar de ser consideradas como técnicas independientes. En resumen, la utilización del algoritmo diseñado basado en inversión temporal, junto con algunas de las técnicas de procesado de señal propuestas, no deben obviarse si se desean obtener imágenes ISAR de gran calidad en escenarios con mucho multitrayecto. De hecho, las imágenes resultantes pueden ser útiles para posteriores esquemas de reconocimiento automático de blancos (Automatic Target Recognition, ATR). Como prueba de concepto, se hace uso tanto de datos simulados como experimentales obtenidos a partir de radares de alta resolución con el fin de verificar los métodos propuestos.
Resumo:
El estudio de materiales, especialmente biológicos, por medios no destructivos está adquiriendo una importancia creciente tanto en las aplicaciones científicas como industriales. Las ventajas económicas de los métodos no destructivos son múltiples. Existen numerosos procedimientos físicos capaces de extraer información detallada de las superficie de la madera con escaso o nulo tratamiento previo y mínima intrusión en el material. Entre los diversos métodos destacan las técnicas ópticas y las acústicas por su gran versatilidad, relativa sencillez y bajo coste. Esta tesis pretende establecer desde la aplicación de principios simples de física, de medición directa y superficial, a través del desarrollo de los algoritmos de decisión mas adecuados basados en la estadística, unas soluciones tecnológicas simples y en esencia, de coste mínimo, para su posible aplicación en la determinación de la especie y los defectos superficiales de la madera de cada muestra tratando, en la medida de lo posible, no alterar su geometría de trabajo. Los análisis desarrollados han sido los tres siguientes: El primer método óptico utiliza las propiedades de la luz dispersada por la superficie de la madera cuando es iluminada por un laser difuso. Esta dispersión produce un moteado luminoso (speckle) cuyas propiedades estadísticas permiten extraer propiedades muy precisas de la estructura tanto microscópica como macroscópica de la madera. El análisis de las propiedades espectrales de la luz laser dispersada genera ciertos patrones mas o menos regulares relacionados con la estructura anatómica, composición, procesado y textura superficial de la madera bajo estudio que ponen de manifiesto características del material o de la calidad de los procesos a los que ha sido sometido. El uso de este tipo de láseres implica también la posibilidad de realizar monitorizaciones de procesos industriales en tiempo real y a distancia sin interferir con otros sensores. La segunda técnica óptica que emplearemos hace uso del estudio estadístico y matemático de las propiedades de las imágenes digitales obtenidas de la superficie de la madera a través de un sistema de scanner de alta resolución. Después de aislar los detalles mas relevantes de las imágenes, diversos algoritmos de clasificacion automatica se encargan de generar bases de datos con las diversas especies de maderas a las que pertenecían las imágenes, junto con los márgenes de error de tales clasificaciones. Una parte fundamental de las herramientas de clasificacion se basa en el estudio preciso de las bandas de color de las diversas maderas. Finalmente, numerosas técnicas acústicas, tales como el análisis de pulsos por impacto acústico, permiten complementar y afinar los resultados obtenidos con los métodos ópticos descritos, identificando estructuras superficiales y profundas en la madera así como patologías o deformaciones, aspectos de especial utilidad en usos de la madera en estructuras. La utilidad de estas técnicas esta mas que demostrada en el campo industrial aun cuando su aplicación carece de la suficiente expansión debido a sus altos costes y falta de normalización de los procesos, lo cual hace que cada análisis no sea comparable con su teórico equivalente de mercado. En la actualidad gran parte de los esfuerzos de investigación tienden a dar por supuesto que la diferenciación entre especies es un mecanismo de reconocimiento propio del ser humano y concentran las tecnologías en la definición de parámetros físicos (módulos de elasticidad, conductividad eléctrica o acústica, etc.), utilizando aparatos muy costosos y en muchos casos complejos en su aplicación de campo. Abstract The study of materials, especially the biological ones, by non-destructive techniques is becoming increasingly important in both scientific and industrial applications. The economic advantages of non-destructive methods are multiple and clear due to the related costs and resources necessaries. There are many physical processes capable of extracting detailed information on the wood surface with little or no previous treatment and minimal intrusion into the material. Among the various methods stand out acoustic and optical techniques for their great versatility, relative simplicity and low cost. This thesis aims to establish from the application of simple principles of physics, surface direct measurement and through the development of the more appropriate decision algorithms based on statistics, a simple technological solutions with the minimum cost for possible application in determining the species and the wood surface defects of each sample. Looking for a reasonable accuracy without altering their work-location or properties is the main objetive. There are three different work lines: Empirical characterization of wood surfaces by means of iterative autocorrelation of laser speckle patterns: A simple and inexpensive method for the qualitative characterization of wood surfaces is presented. it is based on the iterative autocorrelation of laser speckle patterns produced by diffuse laser illumination of the wood surfaces. The method exploits the high spatial frequency content of speckle images. A similar approach with raw conventional photographs taken with ordinary light would be very difficult. A few iterations of the algorithm are necessary, typically three or four, in order to visualize the most important periodic features of the surface. The processed patterns help in the study of surface parameters, to design new scattering models and to classify the wood species. Fractal-based image enhancement techniques inspired by differential interference contrast microscopy: Differential interference contrast microscopy is a very powerful optical technique for microscopic imaging. Inspired by the physics of this type of microscope, we have developed a series of image processing algorithms aimed at the magnification, noise reduction, contrast enhancement and tissue analysis of biological samples. These algorithms use fractal convolution schemes which provide fast and accurate results with a performance comparable to the best present image enhancement algorithms. These techniques can be used as post processing tools for advanced microscopy or as a means to improve the performance of less expensive visualization instruments. Several examples of the use of these algorithms to visualize microscopic images of raw pine wood samples with a simple desktop scanner are provided. Wood species identification using stress-wave analysis in the audible range: Stress-wave analysis is a powerful and flexible technique to study mechanical properties of many materials. We present a simple technique to obtain information about the species of wood samples using stress-wave sounds in the audible range generated by collision with a small pendulum. Stress-wave analysis has been used for flaw detection and quality control for decades, but its use for material identification and classification is less cited in the literature. Accurate wood species identification is a time consuming task for highly trained human experts. For this reason, the development of cost effective techniques for automatic wood classification is a desirable goal. Our proposed approach is fully non-invasive and non-destructive, reducing significantly the cost and complexity of the identification and classification process.
Resumo:
La termografía infrarroja (TI) es una técnica no invasiva y de bajo coste que permite, con el simple acto de tomar una fotografía, el registro sin contacto de la energía que irradia el cuerpo humano (Akimov & Son’kin, 2011, Merla et al., 2005, Ng et al., 2009, Costello et al., 2012, Hildebrandt et al., 2010). Esta técnica comenzó a utilizarse en el ámbito médico en los años 60, pero debido a los malos resultados como herramienta diagnóstica y la falta de protocolos estandarizados (Head & Elliot, 2002), ésta se dejó de utilizar en detrimento de otras técnicas más precisas a nivel diagnóstico. No obstante, las mejoras tecnológicas de la TI en los últimos años han hecho posible un resurgimiento de la misma (Jiang et al., 2005, Vainer et al., 2005, Cheng et al., 2009, Spalding et al., 2011, Skala et al., 2012), abriendo el camino a nuevas aplicaciones no sólo centradas en el uso diagnóstico. Entre las nuevas aplicaciones, destacamos las que se desarrollan en el ámbito de la actividad física y el deporte, donde recientemente se ha demostrado que los nuevos avances con imágenes de alta resolución pueden proporcionar información muy interesante sobre el complejo sistema de termorregulación humana (Hildebrandt et al., 2010). Entre las nuevas aplicaciones destacan: la cuantificación de la asimilación de la carga de trabajo físico (Čoh & Širok, 2007), la valoración de la condición física (Chudecka et al., 2010, 2012, Akimov et al., 2009, 2011, Merla et al., 2010), la prevención y seguimiento de lesiones (Hildebrandt et al., 2010, 2012, Badža et al., 2012, Gómez Carmona, 2012) e incluso la detección de agujetas (Al-Nakhli et al., 2012). Bajo estas circunstancias, se acusa cada vez más la necesidad de ampliar el conocimiento sobre los factores que influyen en la aplicación de la TI en los seres humanos, así como la descripción de la respuesta de la temperatura de la piel (TP) en condiciones normales, y bajo la influencia de los diferentes tipos de ejercicio. Por consiguiente, este estudio presenta en una primera parte una revisión bibliográfica sobre los factores que afectan al uso de la TI en los seres humanos y una propuesta de clasificación de los mismos. Hemos analizado la fiabilidad del software Termotracker, así como su reproducibilidad de la temperatura de la piel en sujetos jóvenes, sanos y con normopeso. Finalmente, se analizó la respuesta térmica de la piel antes de un entrenamiento de resistencia, velocidad y fuerza, inmediatamente después y durante un período de recuperación de 8 horas. En cuanto a la revisión bibliográfica, hemos propuesto una clasificación para organizar los factores en tres grupos principales: los factores ambientales, individuales y técnicos. El análisis y descripción de estas influencias deben representar la base de nuevas investigaciones con el fin de utilizar la TI en las mejores condiciones. En cuanto a la reproducibilidad, los resultados mostraron valores excelentes para imágenes consecutivas, aunque la reproducibilidad de la TP disminuyó ligeramente con imágenes separadas por 24 horas, sobre todo en las zonas con valores más fríos (es decir, zonas distales y articulaciones). Las asimetrías térmicas (que normalmente se utilizan para seguir la evolución de zonas sobrecargadas o lesionadas) también mostraron excelentes resultados pero, en este caso, con mejores valores para las articulaciones y el zonas centrales (es decir, rodillas, tobillos, dorsales y pectorales) que las Zonas de Interés (ZDI) con valores medios más calientes (como los muslos e isquiotibiales). Los resultados de fiabilidad del software Termotracker fueron excelentes en todas las condiciones y parámetros. En el caso del estudio sobre los efectos de los entrenamientos de la velocidad resistencia y fuerza en la TP, los resultados muestran respuestas específicas según el tipo de entrenamiento, zona de interés, el momento de la evaluación y la función de las zonas analizadas. Los resultados mostraron que la mayoría de las ZDI musculares se mantuvieron significativamente más calientes 8 horas después del entrenamiento, lo que indica que el efecto del ejercicio sobre la TP perdura por lo menos 8 horas en la mayoría de zonas analizadas. La TI podría ser útil para cuantificar la asimilación y recuperación física después de una carga física de trabajo. Estos resultados podrían ser muy útiles para entender mejor el complejo sistema de termorregulación humano, y por lo tanto, para utilizar la TI de una manera más objetiva, precisa y profesional con visos a mejorar las nuevas aplicaciones termográficas en el sector de la actividad física y el deporte Infrared Thermography (IRT) is a safe, non-invasive and low-cost technique that allows the rapid and non-contact recording of the irradiated energy released from the body (Akimov & Son’kin, 2011; Merla et al., 2005; Ng et al., 2009; Costello et al., 2012; Hildebrandt et al., 2010). It has been used since the early 1960’s, but due to poor results as diagnostic tool and a lack of methodological standards and quality assurance (Head et al., 2002), it was rejected from the medical field. Nevertheless, the technological improvements of IRT in the last years have made possible a resurgence of this technique (Jiang et al., 2005; Vainer et al., 2005; Cheng et al., 2009; Spalding et al., 2011; Skala et al., 2012), paving the way to new applications not only focused on the diagnose usages. Among the new applications, we highlighted those in physical activity and sport fields, where it has been recently proven that a high resolution thermal images can provide us with interesting information about the complex thermoregulation system of the body (Hildebrandt et al., 2010), information than can be used as: training workload quantification (Čoh & Širok, 2007), fitness and performance conditions (Chudecka et al., 2010, 2012; Akimov et al., 2009, 2011; Merla et al., 2010; Arfaoui et al., 2012), prevention and monitoring of injuries (Hildebrandt et al., 2010, 2012; Badža et al., 2012, Gómez Carmona, 2012) and even detection of Delayed Onset Muscle Soreness – DOMS- (Al-Nakhli et al., 2012). Under this context, there is a relevant necessity to broaden the knowledge about factors influencing the application of IRT on humans, and to better explore and describe the thermal response of Skin Temperature (Tsk) in normal conditions, and under the influence of different types of exercise. Consequently, this study presents a literature review about factors affecting the application of IRT on human beings and a classification proposal about them. We analysed the reliability of the software Termotracker®, and also its reproducibility of Tsk on young, healthy and normal weight subjects. Finally, we examined the Tsk thermal response before an endurance, speed and strength training, immediately after and during an 8-hour recovery period. Concerning the literature review, we proposed a classification to organise the factors into three main groups: environmental, individual and technical factors. Thus, better exploring and describing these influence factors should represent the basis of further investigations in order to use IRT in the best and optimal conditions to improve its accuracy and results. Regarding the reproducibility results, the outcomes showed excellent values for consecutive images, but the reproducibility of Tsk slightly decreased with time, above all in the colder Regions of Interest (ROI) (i.e. distal and joint areas). The side-to-side differences (ΔT) (normally used to follow the evolution of some injured or overloaded ROI) also showed highly accurate results, but in this case with better values for joints and central ROI (i.e. Knee, Ankles, Dorsal and Pectoral) than the hottest muscle ROI (as Thigh or Hamstrings). The reliability results of the IRT software Termotracker® were excellent in all conditions and parameters. In the part of the study about the effects on Tsk of aerobic, speed and strength training, the results of Tsk demonstrated specific responses depending on the type of training, ROI, moment of the assessment and the function of the considered ROI. The results showed that most of muscular ROI maintained warmer significant Tsk 8 hours after the training, indicating that the effect of exercise on Tsk last at least 8 hours in most of ROI, as well as IRT could help to quantify the recovery status of the athlete as workload assimilation indicator. Those results could be very useful to better understand the complex skin thermoregulation behaviour, and therefore, to use IRT in a more objective, accurate and professional way to improve the new IRT applications for the physical activity and sport sector.
Resumo:
Analysis of river flow using hydraulic modelling and its implications in derived environ-mental applications are inextricably connected with the way in which the river boundary shape is represented. This relationship is scale-dependent upon the modelling resolution which in turn determines the importance of a subscale performance of the model and the way subscale (surface and flow) processes are parameterised. Commonly, the subscale behaviour of the model relies upon a roughness parameterisation whose meaning depends on the dimensionality of the hydraulic model and the resolution of the topographic represen¬tation scale. This latter is, in turn, dependent on the resolution of the computational mesh as well as on the detail of measured topographic data. Flow results are affected by this interactions between scale and subscale parameterisation according to the dimensionality approach. The aim of this dissertation is the evaluation of these interactions upon hy¬draulic modelling results. Current high resolution topographic source availability induce this research which is tackled using a suitable roughness approach according to each di¬mensionality with the purpose of the interaction assessment. A 1D HEC-RAS model, a 2D raster-based diffusion-wave model with a scale-dependent distributed roughness parame-terisation and a 3D finite volume scheme with a porosity algorithm approach to incorporate complex topography have been used. Different topographic sources are assessed using a 1D scheme. LiDAR data are used to isolate the mesh resolution from the topographic content of the DEM effects upon 2D and 3D flow results. A distributed roughness parameterisation, using a roughness height approach dependent upon both mesh resolution and topographic content is developed and evaluated for the 2D scheme. Grain-size data and fractal methods are used for the reconstruction of topography with microscale information, required for some applications but not easily available. Sensitivity of hydraulic parameters to this topographic parameterisation is evaluated in a 3D scheme at different mesh resolu¬tions. Finally, the structural variability of simulated flow is analysed and related to scale interactions. Model simulations demonstrate (i) the importance of the topographic source in a 1D models; (ii) the mesh resolution approach is dominant in 2D and 3D simulations whereas in a 1D model the topographic source and even the roughness parameterisation impacts are more critical; (iii) the increment of the sensitivity to roughness parameterisa-tion in 1D and 2D schemes with detailed topographic sources and finer mesh resolutions; and (iv) the topographic content and microtopography impact throughout the vertical profile of computed 3D velocity in a depth-dependent way, whereas 2D results are not affected by topographic content variations. Finally, the spatial analysis shows that the mesh resolution controls high resolution model scale results, roughness parameterisation control 2D simulation results for a constant mesh resolution; and topographic content and micro-topography variations impacts upon the organisation of flow results depth-dependently in a 3D scheme. Resumen La topografía juega un papel fundamental en la distribución del agua y la energía en los paisajes naturales (Beven and Kirkby 1979; Wood et al. 1997). La simulación hidráulica combinada con métodos de medición del terreno por teledetección constituyen una poderosa herramienta de investigación en la comprensión del comportamiento de los flujos de agua debido a la variabilidad de la superficie sobre la que fluye. La representación e incorporación de la topografía en el esquema hidráulico tiene una importancia crucial en los resultados y determinan el desarrollo de sus aplicaciones al campo medioambiental. Cualquier simulación es una simplificación de un proceso del mundo real, y por tanto el grado de simplificación determinará el significado de los resultados simulados. Este razonamiento es particularmente difícil de trasladar a la simulación hidráulica donde aspectos de la escala tan diferentes como la escala de los procesos de flujo y de representación del contorno son considerados conjuntamente incluso en fases de parametrización (e.g. parametrización de la rugosidad). Por una parte, esto es debido a que las decisiones de escala vienen condicionadas entre ellas (e.g. la dimensionalidad del modelo condiciona la escala de representación del contorno) y por tanto interaccionan en sus resultados estrechamente. Y por otra parte, debido a los altos requerimientos numéricos y computacionales de una representación explícita de alta resolución de los procesos de flujo y discretización de la malla. Además, previo a la modelización hidráulica, la superficie del terreno sobre la que el agua fluye debe ser modelizada y por tanto presenta su propia escala de representación, que a su vez dependerá de la escala de los datos topográficos medidos con que se elabora el modelo. En última instancia, esta topografía es la que determina el comportamiento espacial del flujo. Por tanto, la escala de la topografía en sus fases de medición y modelización (resolución de los datos y representación topográfica) previas a su incorporación en el modelo hidráulico producirá a su vez un impacto que se acumulará al impacto global resultante debido a la escala computacional del modelo hidráulico y su dimensión. La comprensión de las interacciones entre las complejas geometrías del contorno y la estructura del flujo utilizando la modelización hidráulica depende de las escalas consideradas en la simplificación de los procesos hidráulicos y del terreno (dimensión del modelo, tamaño de escala computacional y escala de los datos topográficos). La naturaleza de la aplicación del modelo hidráulico (e.g. habitat físico, análisis de riesgo de inundaciones, transporte de sedimentos) determina en primer lugar la escala del estudio y por tanto el detalle de los procesos a simular en el modelo (i.e. la dimensionalidad) y, en consecuencia, la escala computacional a la que se realizarán los cálculos (i.e. resolución computacional). Esta última a su vez determina, el detalle geográfico con que deberá representarse el contorno acorde con la resolución de la malla computacional. La parametrización persigue incorporar en el modelo hidráulico la cuantificación de los procesos y condiciones físicas del sistema natural y por tanto debe incluir no solo aquellos procesos que tienen lugar a la escala de modelización, sino también aquellos que tienen lugar a un nivel subescalar y que deben ser definidos mediante relaciones de escalado con las variables modeladas explícitamente. Dicha parametrización se implementa en la práctica mediante la provisión de datos al modelo, por tanto la escala de los datos geográficos utilizados para parametrizar el modelo no sólo influirá en los resultados, sino también determinará la importancia del comportamiento subescalar del modelo y el modo en que estos procesos deban ser parametrizados (e.g. la variabilidad natural del terreno dentro de la celda de discretización o el flujo en las direcciones laterales y verticales en un modelo unidimensional). En esta tesis, se han utilizado el modelo unidimensional HEC-RAS, (HEC 1998b), un modelo ráster bidimensional de propagación de onda, (Yu 2005) y un esquema tridimensional de volúmenes finitos con un algoritmo de porosidad para incorporar la topografía, (Lane et al. 2004; Hardy et al. 2005). La geometría del contorno viene definida por la escala de representación topográfica (resolución de malla y contenido topográfico), la cual a su vez depende de la escala de la fuente cartográfica. Todos estos factores de escala interaccionan en la respuesta del modelo hidráulico a la topografía. En los últimos años, métodos como el análisis fractal y las técnicas geoestadísticas utilizadas para representar y analizar elementos geográficos (e.g. en la caracterización de superficies (Herzfeld and Overbeck 1999; Butler et al. 2001)), están promoviendo nuevos enfoques en la cuantificación de los efectos de escala (Lam et al. 2004; Atkinson and Tate 2000; Lam et al. 2006) por medio del análisis de la estructura espacial de la variable (e.g. Bishop et al. 2006; Ju et al. 2005; Myint et al. 2004; Weng 2002; Bian and Xie 2004; Southworth et al. 2006; Pozd-nyakova et al. 2005; Kyriakidis and Goodchild 2006). Estos métodos cuantifican tanto el rango de valores de la variable presentes a diferentes escalas como la homogeneidad o heterogeneidad de la variable espacialmente distribuida (Lam et al. 2004). En esta tesis, estas técnicas se han utilizado para analizar el impacto de la topografía sobre la estructura de los resultados hidráulicos simulados. Los datos de teledetección de alta resolución y técnicas GIS también están siendo utilizados para la mejor compresión de los efectos de escala en modelos medioambientales (Marceau 1999; Skidmore 2002; Goodchild 2003) y se utilizan en esta tesis. Esta tesis como corpus de investigación aborda las interacciones de esas escalas en la modelización hidráulica desde un punto de vista global e interrelacionado. Sin embargo, la estructura y el foco principal de los experimentos están relacionados con las nociones espaciales de la escala de representación en relación con una visión global de las interacciones entre escalas. En teoría, la representación topográfica debe caracterizar la superficie sobre la que corre el agua a una adecuada (conforme a la finalidad y dimensión del modelo) escala de discretización, de modo que refleje los procesos de interés. La parametrización de la rugosidad debe de reflejar los efectos de la variabilidad de la superficie a escalas de más detalle que aquellas representadas explícitamente en la malla topográfica (i.e. escala de discretización). Claramente, ambos conceptos están físicamente relacionados por un
Resumo:
Se ha estudiado la determinación de especies de arsénico y de contenidos totales de arsénico y metales pesados, específicamente cadmio, cromo, cobre, níquel, plomo y cinc, en muestras de interés medioambiental por su elevada capacidad acumuladora de metales, concretamente algas marinas comestibles y plantas terrestres procedentes de suelos contaminados por la actividad minera. La determinación de contenidos totales se ha llevado a cabo mediante espectrometría de emisión atómica con plasma de acoplamiento inductivo (ICP‐AES), así como por espectrometría de fluorescencia atómica con generación de hidruros (HG‐AFS), para bajos contenidos de arsénico. Las muestras fueron mineralizadas en medio ácido y calentamiento en horno de microondas. Los métodos fueron validados a través de su aplicación a materiales de referencia de matriz similar a la de las muestras, certificados en contenidos totales de los elementos seleccionados. Los resultados obtenidos mostraron su elevada capacidad de bioabsorción, especialmente en relación a los elevados contenidos de arsénico encontrados en algunas especies de algas pardas (Phaeophytas). En las plantas, se calcularon los factores de translocación, acumulación y biodisponibilidad de los elementos estudiados, permitiendo identificar a la especie Corrigiola telephiifolia como posible acumuladora de plomo e hiperacumuladora de arsénico. La determinación de especies de arsénico hidrosolubles en las muestras objeto de estudio, se llevó a cabo por cromatografía líquida de alta eficacia (HPLC) acoplado a ICP‐AES, HG‐ICP‐AES y HG‐AFS, incluyendo una etapa previa de foto‐oxidación. Los métodos desarrollados, mediante intercambio aniónico y catiónico, permitieron la diferenciación de hasta once especies de arsénico. Para el análisis de las muestras, fue necesaria la optimización de métodos de extracción, seleccionándose la extracción asistida por microondas (MAE) con agua desionizada. Asimismo, se realizaron estudios de estabilidad de arsénico total y de las especies hidrosolubles presentes en las algas, tanto sobre la muestra sólida como en sus extractos acuosos, evaluando las condiciones de almacenamiento adecuadas. En el caso de las plantas, la aplicación del diseño factorial de experimentos permitió optimizar el método de extracción y diferenciar entre las especies de arsénico presentes en forma de iones sencillos de mayor movilidad y el arsénico más fuertemente enlazado a componentes estructurales. Los resultados obtenidos permitieron identificar la presencia de arseniato (As(V)) y arsenito (As(III)) en las plantas, así como de ácido monometilarsónico (MMA) y óxido de trimetilarsina (TMAO) en algunas especies. En la mayoría de las algas se encontraron especies tóxicas, tanto mayoritarias (arseniato) como minoritarias (ácido dimetilarsínico (DMA)), así como hasta cuatro arsenoazúcares. Los resultados obtenidos y su estudio a través de la legislación vigente, mostraron la necesidad de desarrollar una reglamentación específica para el control de este tipo de alimentos. La determinación de especies de arsénico liposolubles en las muestras de algas se llevó a cabo mediante HPLC, en modo fase inversa, acoplado a espectrometría de masas con plasma de acoplamiento inductivo (ICP‐MS) y con ionización por electrospray (ESI‐MS), permitiendo la elucidación estructural de estos compuestos a través de la determinación de sus masas moleculares. Para ello, fue necesaria la puesta a punto de métodos extracción y purificación de los extractos. La metodología desarrollada permitió identificar hasta catorce especies de arsénico liposolubles en las algas, tres de ellas correspondientes a hidrocarburos que contienen arsénico, y once a arsenofosfolípidos, además de dos especies desconocidas. Las masas moleculares de las especies identificadas fueron confirmadas mediante cromatografía de gases acoplada a espectrometría de masas (GC‐MS) y espectrometría de masas de alta resolución (HR‐MS). ABSTRACT The determination of arsenic species and total arsenic and heavy metal contents (cadmium, chromium, cooper, nickel, lead and zinc) in environmental samples, with high metal accumulator capacity, has been studied. The samples studied were edible marine algae and terrestrial plants from soils polluted by mining activities. The determination of total element contents was performed by inductively coupled plasma atomic emission spectrometry (ICP‐AES), as well as by hydride generation atomic fluorescence spectrometry (HG‐AFS) for low arsenic contents. The samples studied were digested in an acidic medium by heating in a microwave oven. The digestion methods were validated against reference materials, with matrix similar to sample matrix and certified in total contents of the elements studied. The results showed the high biosorption capacity of the samples studied, especially regarding the high arsenic contents in some species of brown algae (Phaeophyta division). In terrestrial plants, the translocation, accumulation and bioavailability factors of the elements studied were calculated. Thus, the plant species Corrigiola telephiifolia was identified as possible lead accumulator and arsenic hyperaccumulator. The determination of water‐soluble arsenic species in the samples studied was carried out by high performance liquid chromatography (HPLC) coupled to ICP‐AES, HG‐ICP‐AES and HG‐AFS, including a prior photo‐oxidation step. The chromatographic methods developed, by anion and cation exchange, allowed us to differentiate up to eleven arsenic species. The sample analysis required the optimization of extraction methods, choosing the microwave assisted extraction (MAE) with deionized water. On the other hand, the stability of total arsenic and water‐soluble arsenic species in algae, both in the solid samples and in the water extracts, was studied, assessing the suitable storage conditions. In the case of plant samples, the application of a multivariate experimental design allowed us to optimize the extraction method and differentiate between the arsenic species present as simple ions of higher mobility and the arsenic more strongly bound to structural components. The presence of arsenite (As(III)) and arsenate (As(V)) was identified in plant samples, as well as monomethylarsonic acid (MMA) and trimethylarsine oxide (TMAO) in some cases. Regarding algae, toxic arsenic species were found in most of them, both As(V) and dimethylarsinic acid (DMA), as well as up to four arsenosugars. These results were discussed according to the current legislation, showing the need to develop specific regulations to control this kind of food products. The determination of lipid‐soluble arsenic species in alga samples was performed by reversed‐phase HPLC coupled to inductively coupled plasma and electrospray mass spectrometry (ICP‐MS and ESI‐MS), in order to establish the structure of these compounds by determining the corresponding molecular masses. For this purpose, it was necessary to develop an extraction method, as well as a clean‐up method of the extracts. The method developed permitted the identification of fourteen lipid‐soluble arsenic compounds in algae, corresponding to three arsenic‐hydrocarbons and eleven arsenosugarphospholipids, as well as two unknown compounds. Accurate mass measurements of the identified compounds were performed by gas chromatography coupled to mass spectrometry (GC‐MS) and high resolution mass spectrometry (HR‐MS).
Resumo:
Clasificación de una imagen de alta resolución "Quickbird" con la técnica de análisis de imágenes en base a objetos.
Resumo:
Clasificación de una imagen de alta resolución "Quickbird" con la técnica de análisis de imágenes en base a objetos
Resumo:
En muchos espacios naturales protegidos, el flujo peatonal de visitantes se concentra en determinados sectores del área de uso público, sobre todo en la proximidad de las principales vías de acceso (carreteras, núcleos de población...) y en un reducido número de sendas y caminos peatonales que comunican los elementos más visitados. Es el caso del camino hacia la Cola de Caballo en el parque nacional de Ordesa y Monte Perdido; el camino a la ermita de San Frutos en el parque natural de las Hoces del río Duratón; o la senda que comunica el Salto del Gitano con el castillo y la ermita en el parque nacional de Monfragüe, por citar algunos ejemplos. Esta concentración de actividades de senderismo produce en determinados tramos de estos caminos y sendas (zonas con suelos arenosos o limosos y altas pendientes) una erosión hídrica acelerada por el efecto físico del pisoteo, compactación y continua fricción. En ocasiones se llegan a formar regueros, pequeños barrancos y se pierden grandes cantidades de suelos fértiles, que además fosilizan y aterran aquéllas zonas donde va a parar la escorrentía, produciendo importantes impactos en estos espacios singulares. Existen numerosos ejemplos de ingentes partidas económicas que los gestores de estos espacios protegidos tienen que destinar a la reparación y recuperación de estas sendas y su entorno. Para ayudar a los gestores es básico disponer de metodologías y herramientas que cuantifiquen esta erosión hídrica (en mm/año) delimitando qué tramos de estas sendas y caminos tienen los mayores problemas erosivos, para así determinar cuáles deben ser prioritarios en su corrección, o qué acciones de restricción de paso o determinación de capacidad de acogida, son necesarias adoptar. Para esta cuantificación son muy útiles, desde hace décadas, las técnicas dendrogeomorfológicas aplicadas a las raíces de árboles que han quedado expuestas a la intemperie por la erosión acelerada en las sendas. En este trabajo se propone una nueva metodología de medición del suelo denudado en relación con la raíz, basado en el estudio microtopográfico de la superficie utilizando moldes y réplicas de alta resolución realizados en diferentes tipos de siliconas, latex y escayolas, y su posterior escaneo tridimensional. La zona piloto donde se ha ensayado esta metodología son los senderos y caminos del parque nacional de Monfragüe (Cáceres), que presentan raíces expuestas debido a la intensa erosión hídrica acelerada como consecuencia de la elevada concentración de visitantes. Los estudios son financiados por el proyecto de investigación IDEA-GesPPNN, del OAPN (MAGRAMA).
Resumo:
El vehículo espacial ExoMarsOrbiter, llamado Exomars Trace Gas Orbiter (EMTGO), se encuadra en una misión de la ESA/NASA, contribuyendo a las ambiciones europeas de misiones de exploración futura, según lo establecido en la declaración Aurora. Los objetivos del programa ExoMars dan continuidad a los esfuerzos de cooperación con la NASA para enviar una misión de retorno de una muestra de Marte en las siguientes décadas. Están prevista s dos misiones dentro del programa ExoMars, una para 2016 y otra para 2018. NOMAD (solar occultation in the infra red and Nadir and Occultation for MArs Discovery) es un espectrómetro de alta resolución en el infrarrojo - visible - ultravioleta, observando en las franjas de 0.2 - 0.65 y 2.3 - 4.2 μm, para la inspección de la atmósfera de Marte. Dispone de tres canales (LNO, SO y UVIS) que operarán según tres modos distintos (ocultación solar, limbo y nadir). NOMAD es un instrumento con una masa de 29.9 kg que está montado sobre la bandeja superior exterior, en la cara fría del vehículo, y debe estar fuertemente desacoplado del mismo desde un punto de vista térmico (con una conductancia total máxima de 0.02 W/K). Este desacoplamiento dificulta el diseño estructural de la unión con el vehículo. El diseño térmico debe estar capacitado además para evacuar el calor disipado internamente y las cargas exteriores, utilizando únicamente métodos de control térmico pasivos. Un requisito térmico adicional es el que impone e l espectrómetro del canal LNO, que es una caja interior a NOMAD que debe ser enfriada a - 100º C. Con el objeto de cumplir estos requisitos, se disponen dos radiadores: un radiador ‘general’ para mantener al conjunto del instrumento a una temperatura semejante a la ambiente terrestre, y un radiador multietapa en “V” para enfriar la sección del LNO a - 100º C. Éste último consiste en 4 etapas con placas delgadas, que disponen de una combinación de regiones de alta emisividad y otras de alta reflectividad, para evacuar el calor entre etapas. Además, se ha de alcanzar un compromiso entre la rigidez del radiador y la masa del mismo para disminuir la masa del radiador, las placas delgadas deben ser rigidizadas estructuralmente. Tanto su diseño térmico como el estructural representan un reto tecnológico, debido a su escasa presencia en misiones anteriores. El modelo geométrico y los modelos matemáticos térmico s y estructural es se han construido siguiendo los estándares de la ESA. Esto es, la metodología utilizada ha sido la de efectuar primero un diseño conceptual preliminar, para posteriormente desarrollar un modelo térmico y otro estructural a nivel instrumento, con el software ESATAN y NASTRAN, ambos indicados por la ESA. Los resultados muestran la viabilidad de NOMAD desde un punto de vista térmico y estructural.
Resumo:
Los sistemas de proyección multi-proyector han adquirido gran popularidad en los últimos años para su uso en un amplio rango de aplicaciones como sistemas de realidad virtual, simuladores y visualización de datos. Esto es debido a que normalmente estas aplicaciones necesitan representar sus datos a muy alta resolución y a lo largo de una gran superficie. Este tipo de sistemas de proyección son baratos en comparación con las resoluciones que pueden conseguir, se pueden configurar para proyectar sobre prácticamente cualquier tipo de superficie, sea cual sea su forma, y son fácilmente escalables. Sin embargo, para hacer que este tipo de sistemas generen una imagen sin discontinuidades geométricas o colorimétricas requieren de un ajuste preciso. En la presente tesis se analizan en detalle todos los problemas a los que hay que enfrentarse a la hora de diseñar y calibrar un sistema de proyección de este tipo y se propone una metodología con una serie de optimizaciones para hacer el ajuste de estos sistemas más sencillo y rápido. Los resultados de esta metodología se muestran aplicados a la salida gráfica de un simulador de entrenamiento. Multi-projector display systems have gained high popularity over the past years for its use in a wide range of applications such as virtual reality systems, simulators or data visualization where a high resolution image over a large projection surface is required. Such systems are cheap for the resolutions they can provide, can be configured to project images on almost any kind of screen shapes and are easily scalable, but in order to provide a seamless image with no photometric discontinuities they require a precise geometric and colour correction. In this thesis, we analyze all the problems that have to be faced in order to design and calibrate a multi-projector display. We propose a calibration methodology with some optimizations that make the adjustment of this kind of displays easier and faster. The results of the implementation of this methodology on a training simulator are presented and discussed
Resumo:
La cuenca del Duero constituye un vasto territorio ibérico cuyo paisaje se encuentra actualmente muy alterado por la mano del hombre y es prácticamente imposible localizar alguna manifestación de su cubierta vegetal natural. Aunque la historia de la vegetación en los sectores central y oriental es relativamente bien conocida, en su mitad occidental los registros paleoecológicos estudiados hasta la fecha son prácticamente inexistentes. Esto hace que se desconozca la respuesta de la vegetación a las diferentes oscilaciones climáticas que se han producido desde el Último Máximo Glaciar, cuál fue el impacto de las diferentes culturas sobre el medio, cuándo se produjo una alteración profunda de la vegetación natural y cuál ha sido la historia de los incendios. Este último aspecto, el papel e importancia de los incendios, reviste un especial interés en la península Ibérica dada su situación geográfica y climática dentro de la cuenca Mediterránea, donde el fuego es un factor ecológico de primer nivel. Las distintas técnicas paleoecológicas son las más adecuadas para abordar todas estas preguntas. De este modo, los avatares de la vegetación a través del tiempo se han reconstruido mediante el análisis polínico y de macrofósiles, el impacto humano se ha trazado utilizando indicadores polínicos ligados a actividades antrópicas y esporas de hongos coprófilos, estudiándose los incendios a partir del registro de partículas microscópicas de carbón. La alta resolución temporal y taxonómica alcanzada en estos análisis, así como la amplia superficie abarcada con los yacimientos estudiados, hacen que la información obtenida sea altamente detallada y complete el conocimiento que se tiene sobre la cuenca del Duero. El Tardiglaciar se registra por primera vez en la Meseta Norte Ibérica en la secuencia de Ayoó de Vidriales, donde una vegetación esteparia prácticamente desarbolada domina durante los periodos fríos. Durante el interestadial Bølling/Allerød la expansión forestal (pinos, abedules) fue muy leve y tardía y fue interrumpida bruscamente por el Dryas Reciente. Al final del Dryas Reciente o al inicio del Holoceno se produjo una acusada y rápida expansión de los bosques. Esta dinámica sugiere que no hubo refugios glaciares importantes en esta zona de la Meseta durante el “Mystery Interval”, aparentemente el periodo más frío y seco. Los incendios fueron muy escasos, aumentando de forma muy brusca al inicio del Holoceno por el aumento de biomasa y las condiciones relativamente cálidas y secas. A partir de los registros de Ayoó y El Maíllo se consolida la importancia del gradiente oceanicidad-continentalidad en el Sistema Central y la Meseta Norte, que se manifiesta principalmente en la dominancia más prolongada de los pinares hacia el interior. Además, otra de las principales contribuciones de la presente tesis es proporcionar evidencia sobre la sucesión de distintos tipos de bosques en el noroeste de la Meseta, precisando el marco temporal en el que suceden. Así, se ha constatado que hubo un máximo desarrollo del bosque caducifolio durante el Holoceno medio en Ayoó de Vidriales y una baja incidencia del fuego que sugieren que el clima fue más húmedo que en el Holoceno inicial. El estudio de macrofósiles leñosos ha permitido detectar procesos que con el análisis polínico habrían pasado desapercibidos, como la persistencia hasta el Holoceno final de Pinus sylvestris en la sierra del Teleno y la sustitución de P. sylvestris por P. pinaster en la sierra de Francia durante el Holoceno inicial. También el estudio de los carbones procedentes de los arenales de Tierra de Pinares han proporcionado la prueba definitiva de la naturalidad de los pinares de P. pinaster. El impacto humano se detecta temprano en las secuencias del oeste de la cuenca del Duero, durante el Neolítico, aunque ha sido mucho más acusado desde la Edad del Hierro (ca 2700-2500 años cal BP). Para la detección del impacto humano temprano ha sido clave el análisis de esporas de hongos coprófilos, cuyo análisis fue incorporado en la secuencia de Ayoó de Vidriales. Una de sus principales consecuencias fue el establecimiento de comunidades de matorral (brezales, piornales) sobre amplias extensiones del occidente de la cuenca del Duero, vinculado al recrudecimiento de los regímenes de incendios. A pesar de que los incendios han sido ecológicamente importantes desde el inicio del Holoceno, los cambios introducidos por el hombre en sus regímenes sobrepasaron la resiliencia de los bosques originales, lo cual condujo a su sustitución sostenida por matorrales. ABSTRACT The Duero Basin constitutes a vast Iberian territory which is currently strongly disturbed due to human activities, so it is very difficult to find any remnant of the natural vegetation. Vegetation history for the eastern and western sectors of the Basin is relatively well-known but, in contrast, there is an almost complete lack of palaeoecological record in the western area. Consequently, there exists a profound ignorance about vegetation responses to the climatic oscillations occurred since the Last Glacial Maximum, the environmental impact of the different cultures, when a severe disturbance of the natural vegetation took place and fire history. The last question, the role and importance of fire, has a special interest in the Iberian Peninsula due to its geographic and climatic framework, the Mediterranean Basin, where fire is a major ecological factor. The diverse palaeoecological techmiques are the most suitable tools to address all these questions. Thus, vegetation shifts through time have been reconstructed using pollen and macrofossil analyses, human impact has been tracked by means of anthropogenic pollen indicators and dung fungal spores, while fire history has been studied from the quantification of microscopic charcoal particles. The high taxonomic and time resolution attained along with the extensive surface covered by the studied sites provide detailed information very useful to complete the knowledge on landscape dynamics in the Duero Basin. The Lateglacial is recorded for the first time in the Northern Iberian Plateau in the sequence from Ayoó de Vidriales, showing that almost treeless steppic vegetation dominated during the cold periods. Tree expansion (pines, birches) was late and slight during the Bølling/Allerød interstadial and was sharply interrupted by the Younger Dryas (YD) climatic reversal. By the end of the YD or the onset of the Holocene, a rapid forest expansion occurred. This forest dynamics suggests an absence of important glacial refugia for trees in this area of the Plateau during the Mystery Interval, apparently the coldest and driest period. Fires were fairly rare, increasing abruptly at the beginning of the Holocene due to the relatively warm and dry climate and the accumulation of biomass. The records from Ayoó and El Maíllo reinforce the role of the oceanicity-continentality gradient in the vegetation history of the Iberian Central Range and the Iberian Northern Plateau, reflected mainly in the longer dominance of pine forests towards inland areas. Further, another important contribution of this PhD Thesis is providing evidence on the succession of different forest types in the northestern fringe of the Plateau, specifying the chronological framework. A maximum of deciduous forest development and low fire activity have been detected in Ayoó de Vidriales during the mid-Holocene, suggesting that climate was wetter than in the early Holocene. The study of woody macrofossils has allowed detecting processes which would have remained unnoticed using pollen analysis alone, such as the persistence of Pinus sylvestris until the late Holocene in the Teleno Mountains and the early Holocene replacement of P. sylvestris with P. pinaster in the sierra de Francia range. The study of macroscopic charcoal fragments from palaeosols of the Tierra de Pinares has also provided the definitive proof of naturalness for the P. pinaster stands gorwing over this area at present. Early human impact, during the Neolithic, has been detected in the sequences from the western sector of the Duero Basin, although human disturbance has been more severe from the Iron Age onwards (ca 2700-2500 cal yr BP). The analysis of coprophilous fungi incorporated in the sequence of Ayoó de Vidriales has played a key role in recognizing that early human impact. One of the main consequences of human disturbance was the establishment of shrubland communities (heaths, brooms) over huge areas of the western Duero Basin, linked to severe and/or frequent fires. Despite fires has been ecologically important since the onset of the Holocene, human-induced changes in fire regimes have exceeded the resilience of original forests leading to a sustained replacement with shrublands.