25 resultados para Natural and Synthetic Rubber,
em Universidad Politécnica de Madrid
Resumo:
Zinc chelates have been widely used to correct deficiencies in this micronutrient in different soil types and under different moisture conditions. The aging of the metal in soil could cause a change in its availability. Over time the most labile forms of Zn could decrease in activity and extractability and change to more stable forms. Various soil parameters, such as redox conditions, time, soil type and moisture conditions, affect the aging process and modify the solubility of the metal. In general, redox conditions influence pH and also the chemical forms dissolved in the soil solution. Soil pH also affects Zn solubility; at high pH values, most of the Zn is present in forms that are not bioavailable to plants. The objective of this study was to determine the changes in Zn over time in a soil solution in a waterlogged acidic soil to which synthetic and natural chelates were applied
Resumo:
The amplification of high-order harmonics (HOH) in a plasma-based amplifier is a multiscale, temporal phenomenon that couples plasma hydrodynamics, atomic processes, and HOH electromagnetic fields. We use a one-dimensional, time-dependent Maxwell-Bloch code to compare the natural amplification regime and another regime where plasma polarization is constantly forced by the HOH. In this regime, a 10-MW (i.e., 100 times higher than current seeded soft x-ray laser power), 1.5-μJ, 140-fs pulse free from the parasitic temporal structures appearing on the natural amplification regime can be obtained.
Resumo:
El Zn es un elemento esencial para el crecimiento saludable y reproducción de plantas, animales y humanos. La deficiencia de Zn es una de las carencias de micronutrientes más extendidas en muchos cultivos, afectando a grandes extensiones de suelos en diferentes áreas agrícolas. La biofortificación agronómica de diferentes cultivos, incrementando la concentración de micronutriente Zn en la planta, es un medio para evitar la deficiencia de Zn en animales y humanos. Tradicionalmente se han utilizado fertilizantes de Zn inorgánicos, como el ZnSO4, aunque en los últimos años se están utilizado complejos de Zn como fuentes de este micronutriente, obteniéndose altas concentraciones de Zn soluble y disponible en el suelo. Sin embargo, el envejecimiento de la fuente en el suelo puede causar cambios importantes en su disponibilidad para las plantas. Cuando se añaden al suelo fuentes de Zn inorgánicas, las formas de Zn más solubles pierden actividad y extractabilidad con el paso del tiempo, transformándose a formas más estables y menos biodisponibles. En esta tesis se estudia el efecto residual de diferentes complejos de Zn de origen natural y sintético, aplicados en cultivos previos de judía y lino, bajo dos condiciones de riego distintas (por encima y por debajo de la capacidad de campo, respectivamente) y en dos suelos diferentes (ácido y calizo). Los fertilizantes fueron aplicados al cultivo previo en tres dosis diferentes (0, 5 y 10 mg Zn kg-1 suelo). El Zn fácilmente lixiviable se estimó con la extracción con BaCl2 0,1M. Bajo condiciones de humedad por encima de la capacidad de campo se obtuvieron mayores porcentajes de Zn lixiviado en el suelo calizo que en el suelo ácido. En el caso del cultivo de judía realizado en condiciones de humedad por encima de la capacidad de campo se compararon las cantidades extraídas con el Zn lixiviado real. El análisis de correlación entre el Zn fácilmente lixiviable y el estimado sólo fue válido para complejos con alta movilidad y para cada suelo por separado. Bajo condiciones de humedad por debajo de la capacidad de campo, la concentración de Zn biodisponible fácilmente lixiviable presentó correlaciones positivas y altamente significativas con la concentración de Zn disponible en el suelo. El Zn disponible se estimó con varios métodos de extracción empleados habitualmente: DTPA-TEA, DTPA-AB, Mehlich-3 y LMWOAs. Estas concentraciones fueron mayores en el suelo ácido que en el calizo. Los diferentes métodos utilizados para estimar el Zn disponible presentaron correlaciones positivas y altamente significativas entre sí. La distribución del Zn en las distintas fracciones del suelo fue estimada con diferentes extracciones secuenciales. Las extracciones secuenciales mostraron un descenso entre los dos cultivos (el anterior y el actual) en la fracción de Zn más lábil y un aumento en la concentración de Zn asociado a fracciones menos lábiles, como carbonatos, óxidos y materia orgánica. Se obtuvieron correlaciones positivas y altamente significativas entre las concentraciones de Zn asociado a las fracciones más lábiles (WSEX y WS+EXC, experimento de la judía y lino, respectivamente) y las concentraciones de Zn disponible, estimadas por los diferentes métodos. Con respecto a la planta se determinaron el rendimiento en materia seca y la concentración de Zn en planta. Se observó un aumento del rendimiento y concentraciones con el efecto residual de la dosis mayores (10 mg Zn kg-1) con respecto a la dosis inferior (5 mg Zn 12 kg-1) y de ésta con respecto a la dosis 0 (control). El incremento de la concentración de Zn en todos los tratamientos fertilizantes, respecto al control, fue mayor en el suelo ácido que en el calizo. Las concentraciones de Zn en planta indicaron que, en el suelo calizo, serían convenientes nuevas aplicaciones de Zn en posteriores cultivos para mantener unas adecuadas concentraciones en planta. Las mayores concentraciones de Zn en la planta de judía, cultivada bajo condiciones de humedad por encima de la capacidad de campo, se obtuvieron en el suelo ácido con el efecto residual del Zn-HEDTA a la dosis de 10 mg Zn kg-1 (280,87 mg Zn kg-1) y en el suelo calizo con el efecto residual del Zn-DTPA-HEDTA-EDTA a la dosis de 10 mg Zn kg-1 (49,89 mg Zn kg-1). En el cultivo de lino, cultivado bajo condiciones de humedad por debajo de la capacidad de campo, las mayores concentraciones de Zn en planta ese obtuvieron con el efecto residual del Zn-AML a la dosis de 10 mg Zn kg-1 (224,75 mg Zn kg-1) y en el suelo calizo con el efecto residual del Zn-EDTA a la dosis de 10 mg Zn kg-1 (99,83 mg Zn kg-1). El Zn tomado por la planta fue determinado como combinación del rendimiento y de la concentración en planta. Bajo condiciones de humedad por encima de capacidad de campo, con lixiviación, el Zn tomado por la judía disminuyó en el cultivo actual con respecto al cultivo anterior. Sin embargo, en el cultivo de lino, bajo condiciones de humedad por debajo de la capacidad de campo, se obtuvieron cantidades de Zn tomado superiores en el cultivo actual con respecto al anterior. Esta tendencia también se observó, en ambos casos, con el porcentaje de Zn usado por la planta. Summary Zinc is essential for healthy growth and reproduction of plants, animals and humans. Zinc deficiency is one of the most widespread micronutrient deficiency in different crops, and affect different agricultural areas. Agronomic biofortification of crops produced by an increased of Zn in plant, is one way to avoid Zn deficiency in animals and humans Sources with inorganic Zn, such as ZnSO4, have been used traditionally. Although, in recent years, Zn complexes are used as sources of this micronutrient, the provide high concentrations of soluble and available Zn in soil. However, the aging of the source in the soil could cause significant changes in their availability to plants. When an inorganic source of Zn is added to soil, Zn forms more soluble and extractability lose activity over time, transforming into forms more stable and less bioavailable. This study examines the residual effect of different natural and synthetic Zn complexes on navy bean and flax crops, under two different moisture conditions (above and below field capacity, respectively) and in two different soils (acid and calcareous). Fertilizers were applied to the previous crop in three different doses (0, 5 y 10 mg Zn kg-1 soil). The easily leachable Zn was estimated by extraction with 0.1 M BaCl2. Under conditions of moisture above field capacity, the percentage of leachable Zn in the calcareous soil was higher than in acid soil. In the case of navy bean experiment, performed in moisture conditions of above field capacity, amounts extracted of easily leachable Zn were compared with the real leachable Zn. Correlation analysis between the leachable Zn and the estimate was only valid for complex with high mobility and for each soil separately. Under moisture conditions below field capacity, the concentration of bioavailable easily leachable Zn showed highly significant positive correlations with the concentration of available soil Zn. The available Zn was estimated with several commonly used extraction methods: DTPA-TEA, AB-DTPA, Mehlich-3 and LMWOAs. These concentrations were higher in acidic soil than in the calcareous. The different methods used to estimate the available Zn showed highly significant positive correlations with each other. The distribution of Zn in the different fractions of soil was estimated with different sequential extractions. The sequential extractions showed a decrease between the two crops (the previous and current) at the most labile Zn fraction and an increase in the concentration of Zn associated with the less labile fractions, such as carbonates, oxides and organic matter. A positive and highly significant correlation was obtained between the concentrations of Zn associated with more labile fractions (WSEX and WS + EXC, navy bean and flax experiments, respectively) and available Zn concentrations determined by the different methods. Dry matter yield and Zn concentration in plants were determined in plant. Yield and Zn concentration in plant were higher with the residual concentrations of the higher dose applied (10 mg Zn kg-1) than with the lower dose (5 mg Zn kg-1), also these parameters showed higher values with application of this dose than with not Zn application. The increase of Zn concentration in plant with Zn treatments, respect to the control, was greater in the acid soil than in the calcareous. The Zn concentrations in plant indicated that in the calcareous soil, new applications of Zn are desirable in subsequent crops to maintain suitable concentrations in plant. 15 The highest concentrations of Zn in navy bean plant, performed under moisture conditions above the field capacity, were obtained with the residual effect of Zn-HEDTA at the dose of 10 mg Zn kg-1 (280.87 mg Zn kg-1) in the acid soil, and with the residual effect of Zn- DTPA-HEDTA-EDTA at a dose of 10 mg Zn kg-1 (49.89 mg Zn kg-1) in the calcareous soil. In the flax crop, performed under moisture conditions below field capacity, the highest Zn concentrations in plant were obtained with the residual effect of Zn-AML at the dose of 10 mg Zn kg-1 (224.75 Zn mg kg-1) and with the residual effect of Zn-EDTA at a dose of 10 mg Zn kg-1 (99.83 mg Zn kg-1) in the calcareous soil. The Zn uptake was determined as a combination of yield and Zn concentration in plant. Under moisture conditions above field capacity, with leaching, Zn uptake by navy bean decreased in the current crop, respect to the previous crop. However, in the flax crop, under moisture conditions below field capacity, Zn uptake was higher in the current crop than in the previous. This trend is also observed in both cases, with the percentage of Zn used by the plant
Resumo:
Esta Tesis trata sobre el diseño y desarrollo de un material constructivo de fachada (tras ventilada), empleando plástico reciclado (granza de caucho, de neumáticos fuera de uso) para su elaboración. El uso de materiales reciclados para la elaboración de nuevos materiales constructivos, es a día de hoy, un valor agregado que contribuye tanto a la disminución de desechos tóxicos, como a la fabricación de productos de alta calidad. La investigación partió de la necesidad de comprender qué es un plástico, cómo son producidos, cuáles son los factores que permitían su reciclaje y qué propiedades podrían ser aprovechadas para desarrollar un nuevo material constructivo. En el estado del arte, fueron analizados los aspectos del plástico relacionados a su composición, propiedades, tipologías, producción, consumo, legislación europea y española, reciclaje y valorización energética. Para analizar más profundamente los materiales desarrollados a partir de plásticos reciclados, desde textiles hasta elementos constructivos. Con el conocimiento adquirido mediante este análisis previo, se diseñó una metodología de experimentación, utilizando caucho reciclado y derivados del yeso como agregados, en una matriz de resinas poliméricas reforzada con fibras naturales y sintéticas. Los resultados obtenidos en los ensayos físicos y térmicos, con los elementos producidos, demostraron que el material tiene una excelente resistencia a tensión así como una baja conductividad térmica. Esta investigación, servirá como precedente para el desarrollo de nuevos materiales y sistemas constructivos, utilizando agregados de plástico reciclado, en los procesos de fabricación. Ya que ha comprobado el enorme potencial que ofrecen, creando nuevos materiales, y contribuyendo a reducir la contaminación medio ambiental. "La mayor recompensa de nuestro trabajo no es lo que nos pagan por él, sino aquello en lo que nos convierte". John Ruskin Material compuesto (Composite) de caucho reciclado, fibras y resinas poliméricas. ABSTRACT This thesis deals with the design and development of a new facade construction material using recycled plastic (rubber pellets from used tires) for processing. The use of recycled materials for the development of new building materials, today is an added value which contributes both to the reduction of toxic waste, as well as the processing of products of good quality. The research derives from the need to understand what a plastic is, how they are produced, what the factors that allowed recycling are and what properties can be exploited to develop a new building material. In the prior art, were analyzed plastic aspects related to its composition, properties, typologies, production, consumption, European and Spanish legislation, recycling and energy recovery. To further analyze the materials developed from recycled plastics, from textiles to construction elements. With the knowledge gained from this previous analysis, we designed an experimental approach using recycled rubber and plaster derivatives as aggregates in a polymeric resin matrix reinforced with natural and synthetic fibers. The results obtained in physical and thermal testing, with the elements produced, showed that the material has excellent tensile strength and a low thermal conductivity. This research will serve as a precedent for the development of new materials and building systems, using recycled plastic aggregates in the manufacturing processes. Since it was found the enormous potential, creating new materials, and helping reduce environmental pollution. "The greatest reward of our work is not what we get paid for it, but what they make us."
Resumo:
The study of soil structure, i.e., the pores, is of vital importance in different fields of science and technology. Total pore volume (porosity), pore surface, pore connectivity and pore size distribution are some (probably the most important) of the geometric measurements of pore space. The technology of X-ray computed tomography allows us to obtain 3D images of the inside of a soil sample enabling study of the pores without disturbing the samples. In this work we performed a set of geometrical measures, some of them from mathematical morphology, to assess and quantify any possible difference that tillage may have caused on the soil. We compared samples from tilled soil with samples from a soil with natural vegetation taken in a very close area. Our results show that the main differences between these two groups of samples are total surface area and pore connectivity per unit pore volume.
Resumo:
The substitution of cation atoms by V, Cr and It in the natural and synthetic quaternary Cu2ZnSnS4 semiconductor is analyzed using first-principles methods. In most of the substitutions, the electronic structure of these modified CZTS is characterized for intermediate bands with different occupation and position within of the energy band gap. A study of the symmetry and composition of these intermediate bands is carried out for all substitutions. These bands permit additional photon absorption and emission channels depending on their occupation. The optical properties are obtained and analyzed. The absorption coefficients are split into contributions from the different absorption channels and from the inter- and intra-atomic components. The sub bandgap transitions are significant in many cases because the anion states contribute to the valence, conduction and intermediates bands. These properties could therefore be used for novel optoelectronic devices.
Resumo:
La tomografía axial computerizada (TAC) es la modalidad de imagen médica preferente para el estudio de enfermedades pulmonares y el análisis de su vasculatura. La segmentación general de vasos en pulmón ha sido abordada en profundidad a lo largo de los últimos años por la comunidad científica que trabaja en el campo de procesamiento de imagen; sin embargo, la diferenciación entre irrigaciones arterial y venosa es aún un problema abierto. De hecho, la separación automática de arterias y venas está considerado como uno de los grandes retos futuros del procesamiento de imágenes biomédicas. La segmentación arteria-vena (AV) permitiría el estudio de ambas irrigaciones por separado, lo cual tendría importantes consecuencias en diferentes escenarios médicos y múltiples enfermedades pulmonares o estados patológicos. Características como la densidad, geometría, topología y tamaño de los vasos sanguíneos podrían ser analizados en enfermedades que conllevan remodelación de la vasculatura pulmonar, haciendo incluso posible el descubrimiento de nuevos biomarcadores específicos que aún hoy en dípermanecen ocultos. Esta diferenciación entre arterias y venas también podría ayudar a la mejora y el desarrollo de métodos de procesamiento de las distintas estructuras pulmonares. Sin embargo, el estudio del efecto de las enfermedades en los árboles arterial y venoso ha sido inviable hasta ahora a pesar de su indudable utilidad. La extrema complejidad de los árboles vasculares del pulmón hace inabordable una separación manual de ambas estructuras en un tiempo realista, fomentando aún más la necesidad de diseñar herramientas automáticas o semiautomáticas para tal objetivo. Pero la ausencia de casos correctamente segmentados y etiquetados conlleva múltiples limitaciones en el desarrollo de sistemas de separación AV, en los cuales son necesarias imágenes de referencia tanto para entrenar como para validar los algoritmos. Por ello, el diseño de imágenes sintéticas de TAC pulmonar podría superar estas dificultades ofreciendo la posibilidad de acceso a una base de datos de casos pseudoreales bajo un entorno restringido y controlado donde cada parte de la imagen (incluyendo arterias y venas) está unívocamente diferenciada. En esta Tesis Doctoral abordamos ambos problemas, los cuales están fuertemente interrelacionados. Primero se describe el diseño de una estrategia para generar, automáticamente, fantomas computacionales de TAC de pulmón en humanos. Partiendo de conocimientos a priori, tanto biológicos como de características de imagen de CT, acerca de la topología y relación entre las distintas estructuras pulmonares, el sistema desarrollado es capaz de generar vías aéreas, arterias y venas pulmonares sintéticas usando métodos de crecimiento iterativo, que posteriormente se unen para formar un pulmón simulado con características realistas. Estos casos sintéticos, junto a imágenes reales de TAC sin contraste, han sido usados en el desarrollo de un método completamente automático de segmentación/separación AV. La estrategia comprende una primera extracción genérica de vasos pulmonares usando partículas espacio-escala, y una posterior clasificación AV de tales partículas mediante el uso de Graph-Cuts (GC) basados en la similitud con arteria o vena (obtenida con algoritmos de aprendizaje automático) y la inclusión de información de conectividad entre partículas. La validación de los fantomas pulmonares se ha llevado a cabo mediante inspección visual y medidas cuantitativas relacionadas con las distribuciones de intensidad, dispersión de estructuras y relación entre arterias y vías aéreas, los cuales muestran una buena correspondencia entre los pulmones reales y los generados sintéticamente. La evaluación del algoritmo de segmentación AV está basada en distintas estrategias de comprobación de la exactitud en la clasificación de vasos, las cuales revelan una adecuada diferenciación entre arterias y venas tanto en los casos reales como en los sintéticos, abriendo así un amplio abanico de posibilidades en el estudio clínico de enfermedades cardiopulmonares y en el desarrollo de metodologías y nuevos algoritmos para el análisis de imágenes pulmonares. ABSTRACT Computed tomography (CT) is the reference image modality for the study of lung diseases and pulmonary vasculature. Lung vessel segmentation has been widely explored by the biomedical image processing community, however, differentiation of arterial from venous irrigations is still an open problem. Indeed, automatic separation of arterial and venous trees has been considered during last years as one of the main future challenges in the field. Artery-Vein (AV) segmentation would be useful in different medical scenarios and multiple pulmonary diseases or pathological states, allowing the study of arterial and venous irrigations separately. Features such as density, geometry, topology and size of vessels could be analyzed in diseases that imply vasculature remodeling, making even possible the discovery of new specific biomarkers that remain hidden nowadays. Differentiation between arteries and veins could also enhance or improve methods processing pulmonary structures. Nevertheless, AV segmentation has been unfeasible until now in clinical routine despite its objective usefulness. The huge complexity of pulmonary vascular trees makes a manual segmentation of both structures unfeasible in realistic time, encouraging the design of automatic or semiautomatic tools to perform the task. However, this lack of proper labeled cases seriously limits in the development of AV segmentation systems, where reference standards are necessary in both algorithm training and validation stages. For that reason, the design of synthetic CT images of the lung could overcome these difficulties by providing a database of pseudorealistic cases in a constrained and controlled scenario where each part of the image (including arteries and veins) is differentiated unequivocally. In this Ph.D. Thesis we address both interrelated problems. First, the design of a complete framework to automatically generate computational CT phantoms of the human lung is described. Starting from biological and imagebased knowledge about the topology and relationships between structures, the system is able to generate synthetic pulmonary arteries, veins, and airways using iterative growth methods that can be merged into a final simulated lung with realistic features. These synthetic cases, together with labeled real CT datasets, have been used as reference for the development of a fully automatic pulmonary AV segmentation/separation method. The approach comprises a vessel extraction stage using scale-space particles and their posterior artery-vein classification using Graph-Cuts (GC) based on arterial/venous similarity scores obtained with a Machine Learning (ML) pre-classification step and particle connectivity information. Validation of pulmonary phantoms from visual examination and quantitative measurements of intensity distributions, dispersion of structures and relationships between pulmonary air and blood flow systems, show good correspondence between real and synthetic lungs. The evaluation of the Artery-Vein (AV) segmentation algorithm, based on different strategies to assess the accuracy of vessel particles classification, reveal accurate differentiation between arteries and vein in both real and synthetic cases that open a huge range of possibilities in the clinical study of cardiopulmonary diseases and the development of methodological approaches for the analysis of pulmonary images.
Resumo:
The lipid content of three cores from Lake Enol (Picos de Europa National Park, Asturias, Northern Spain) was studied. The n-alkane profiles indicated a major input from terrigenous plants [predominance of high molecular weight (HMW) alkanes] since ca. 1695 AD to the water body, although the uppermost cm revealed a predominance of organic matter (OM) derived from algae, as the most abundant alkane was C17. Three units revealing different environmental conditions were defined. Unit A (ca. 1695–1860 AD) in the lowermost parts of ENO13-10 (< 12 cm) and ENO13-15 (< 28 cm) was identified and was characterized by higher OM input and evidence of minimal degradation (high CPI values, predominance of HMW n-alkanoic acids and good correspondence between the predominant n-alkane and n-alkanoic acid chains). These findings could be linked to the Little Ice Age, when cold and humid conditions may have favored an increase in total organic carbon (TOC) and n-alkane and n-alkanoic acid content (greater terrigenous OM in-wash), and may have also reduced bacterial activity. In Unit B (ca. 1860–1980 AD) the lack of correspondence between the n-alkane and n-alkanoic acid profiles of ENO13-10 (12–4 cm) and ENO13-15 (28–8 cm) suggested a certain preferential microbial synthesis of long chain saturated fatty acids from primary OM and/or bacterial activity, coinciding with a decrease in OM input, which could be linked to the global warming that started in the second half of the 19th century. In ENO13-7 the low OM input (low TOC) was accompanied by some bacterial degradation (predominance ofHMWn-alkanoic acids but with a bimodal distribution) in the lowermost 16–5 cm. Evidence of considerable phytoplankton productivity and microbial activity was especially significant in Unit C (ca. 1980–2013 AD) identified in the uppermost part of all three cores (5 cm in ENO13-7, 4 cm in ENO13-10 and 8 cm in ENO13-15), coinciding with higher concentrations of n-alkanes and n-alkanoic acids, which were considered to be linked to warmer and drier conditions, as well as to greater anthropogenic influence in modern times. Plant sterols, such as b-sitosterol, campesterol and stigmasterol, were significantly present in the cores. In addition, fecal stanols, such as 24-ethylcoprostanol from herbivores, were present, thereby indicating a continuous and significant pollution input derived from these animals since the 17th century, being more important in the last 20 years.
Resumo:
Palatal clicks are most interesting for human echolocation. Moreover, these sounds are suitable for other acoustic applications due to their regular mathematical properties and reproducibility. Simple and nondestructive techniques, bioinspired by synthetized pulses whose form reproduces the best features of palatal clicks, can be developed. The use of synthetic palatal pulses also allows detailed studies of the real possibilities of acoustic human echolocation without the problems associated with subjective individual differences. These techniques are being applied to the study of wood. As an example, a comparison of the performance of both natural and synthetic human echolocation to identify three different species of wood is presented. The results show that human echolocation has a vast potential.
Resumo:
The substitution of Cu, Sn or Zn in the quaternary Cu2ZnSnS4 semiconductor by impurities that introduce intermediate states in the energy bandgap could have important implications either for photovoltaic or spintronic applications. This allows more generation–recombination channels than for the host semiconductor. We explore and discuss this possibility by obtaining the ionization energies from total energy first-principles calculations. The three substitutions of Cu, Sn and Zn by impurities are analyzed. From these results we have found that several impurities have an amphoteric behavior with the donor and acceptor energies in the energy bandgap. In order to analyze the role of the ionization energies in both the radiative and non-radiative processes, the host energy bandgap and the acceptor and the donor energies have been obtained as a function of the inward and outward impurity-S displacements. We carried out the analysis for both the natural and synthetic CZTS. The results show that the ionization energies are similar, whereas the energy band gaps are different.
Resumo:
El tiempo de concentración de una cuenca sigue siendo relativamente desconocido para los ingenieros. El procedimiento habitual en un estudio hidrológico es calcularlo según varias fórmulas escogidas entre las existentes para después emplear el valor medio obtenido. De esta media se derivan los demás resultados hidrológicos, resultados que influirán en el futuro dimensionamiento de las infraestructuras. Este trabajo de investigación comenzó con el deseo de conseguir un método más fiable y objetivo que permitiera obtener el tiempo de concentración. Dada la imposibilidad de poner en práctica ensayos hidrológicos en una cuenca física real, ya que no resulta viable monitorizar perfectamente la precipitación ni los caudales de salida, se planteó llevar a cabo los ensayos de forma simulada, con el empleo de modelos hidráulicos bidimensionales de lluvia directa sobre malla 2D de volúmenes finitos. De entre todos los disponibles, se escogió InfoWorks ICM, por su rapidez y facilidad de uso. En una primera fase se efectuó la validación del modelo hidráulico elegido, contrastando los resultados de varias simulaciones con la formulación analítica existente. Posteriormente, se comprobaron los valores de los tiempos de concentración obtenidos con las expresiones referenciadas en la bibliografía, consiguiéndose resultados muy satisfactorios. Una vez verificado, se ejecutaron 690 simulaciones de cuencas tanto naturales como sintéticas, incorporando variaciones de área, pendiente, rugosidad, intensidad y duración de las precipitaciones, a fin de obtener sus tiempos de concentración y retardo. Esta labor se realizó con ayuda de la aceleración del cálculo vectorial que ofrece la tecnología CUDA (Arquitectura Unificada de Dispositivos de Cálculo). Basándose en el análisis dimensional, se agruparon los resultados del tiempo de concentración en monomios adimensionales. Utilizando regresión lineal múltiple, se obtuvo una nueva formulación para el tiempo de concentración. La nueva expresión se contrastó con las formulaciones clásicas, habiéndose obtenido resultados equivalentes. Con la exposición de esta nueva metodología se pretende ayudar al ingeniero en la realización de estudios hidrológicos. Primero porque proporciona datos de manera sencilla y objetiva que se pueden emplear en modelos globales como HEC-HMS. Y segundo porque en sí misma se ha comprobado como una alternativa realmente válida a la metodología hidrológica habitual. Time of concentration remains still fairly imprecise to engineers. A normal hydrological study goes through several formulae, obtaining concentration time as the median value. Most of the remaining hydrologic results will be derived from this value. Those results will determine how future infrastructures will be designed. This research began with the aim to acquire a more reliable and objective method to estimate concentration times. Given the impossibility of carrying out hydrological tests in a real watershed, due to the difficulties related to accurate monitoring of rainfall and derived outflows, a model-based approach was proposed using bidimensional hydraulic simulations of direct rainfall over a 2D finite-volume mesh. Amongst all of the available software packages, InfoWorks ICM was chosen for its speed and ease of use. As a preliminary phase, the selected hydraulic model was validated, checking the outcomes of several simulations over existing analytical formulae. Next, concentration time values were compared to those resulting from expressions referenced in the technical literature. They proved highly satisfactory. Once the model was properly verified, 690 simulations of both natural and synthetic basins were performed, incorporating variations of area, slope, roughness, intensity and duration of rainfall, in order to obtain their concentration and lag times. This job was carried out in a reasonable time lapse with the aid of the parallel computing platform technology CUDA (Compute Unified Device Architecture). Performing dimensional analysis, concentration time results were isolated in dimensionless monomials. Afterwards, a new formulation for the time of concentration was obtained using multiple linear regression. This new expression was checked against classical formulations, obtaining equivalent results. The publication of this new methodology intends to further assist the engineer while carrying out hydrological studies. It is effective to provide global parameters that will feed global models as HEC-HMS on a simple and objective way. It has also been proven as a solid alternative to usual hydrology methodology.
Resumo:
Introduction and motivation: A wide variety of organisms have developed in-ternal biomolecular clocks in order to adapt to cyclic changes of the environment. Clock operation involves genetic networks. These genetic networks have to be mod¬eled in order to understand the underlying mechanism of oscillations and to design new synthetic cellular clocks. This doctoral thesis has resulted in two contributions to the fields of genetic clocks and systems and synthetic biology, generally. The first contribution is a new genetic circuit model that exhibits an oscillatory behav¬ior through catalytic RNA molecules. The second and major contribution is a new genetic circuit model demonstrating that a repressor molecule acting on the positive feedback of a self-activating gene produces reliable oscillations. First contribution: A new model of a synthetic genetic oscillator based on a typical two-gene motif with one positive and one negative feedback loop is pre¬sented. The originality is that the repressor is a catalytic RNA molecule rather than a protein or a non-catalytic RNA molecule. This catalytic RNA is a ribozyme that acts post-transcriptionally by binding to and cleaving target mRNA molecules. This genetic clock involves just two genes, a mRNA and an activator protein, apart from the ribozyme. Parameter values that produce a circadian period in both determin¬istic and stochastic simulations have been chosen as an example of clock operation. The effects of the stochastic fluctuations are quantified by a period histogram and autocorrelation function. The conclusion is that catalytic RNA molecules can act as repressor proteins and simplify the design of genetic oscillators. Second and major contribution: It is demonstrated that a self-activating gene in conjunction with a simple negative interaction can easily produce robust matically validated. This model is comprised of two clearly distinct parts. The first is a positive feedback created by a protein that binds to the promoter of its own gene and activates the transcription. The second is a negative interaction in which a repressor molecule prevents this protein from binding to its promoter. A stochastic study shows that the system is robust to noise. A deterministic study identifies that the oscillator dynamics are mainly driven by two types of biomolecules: the protein, and the complex formed by the repressor and this protein. The main conclusion of this study is that a simple and usual negative interaction, such as degradation, se¬questration or inhibition, acting on the positive transcriptional feedback of a single gene is a sufficient condition to produce reliable oscillations. One gene is enough and the positive transcriptional feedback signal does not need to activate a second repressor gene. At the genetic level, this means that an explicit negative feedback loop is not necessary. Unlike many genetic oscillators, this model needs neither cooperative binding reactions nor the formation of protein multimers. Applications and future research directions: Recently, RNA molecules have been found to play many new catalytic roles. The first oscillatory genetic model proposed in this thesis uses ribozymes as repressor molecules. This could provide new synthetic biology design principles and a better understanding of cel¬lular clocks regulated by RNA molecules. The second genetic model proposed here involves only a repression acting on a self-activating gene and produces robust oscil¬lations. Unlike current two-gene oscillators, this model surprisingly does not require a second repressor gene. This result could help to clarify the design principles of cellular clocks and constitute a new efficient tool for engineering synthetic genetic oscillators. Possible follow-on research directions are: validate models in vivo and in vitro, research the potential of second model as a genetic memory, investigate new genetic oscillators regulated by non-coding RNAs and design a biosensor of positive feedbacks in genetic networks based on the operation of the second model Resumen Introduccion y motivacion: Una amplia variedad de organismos han desarro-llado relojes biomoleculares internos con el fin de adaptarse a los cambios ciclicos del entorno. El funcionamiento de estos relojes involucra redes geneticas. El mo delado de estas redes geneticas es esencial tanto para entender los mecanismos que producen las oscilaciones como para diseiiar nuevos circuitos sinteticos en celulas. Esta tesis doctoral ha dado lugar a dos contribuciones dentro de los campos de los circuitos geneticos en particular, y biologia de sistemas y sintetica en general. La primera contribucion es un nuevo modelo de circuito genetico que muestra un comportamiento oscilatorio usando moleculas de ARN cataliticas. La segunda y principal contribucion es un nuevo modelo de circuito genetico que demuestra que una molecula represora actuando sobre el lazo de un gen auto-activado produce oscilaciones robustas. Primera contribucion: Es un nuevo modelo de oscilador genetico sintetico basado en una tipica red genetica compuesta por dos genes con dos lazos de retroa-limentacion, uno positivo y otro negativo. La novedad de este modelo es que el represor es una molecula de ARN catalftica, en lugar de una protefna o una molecula de ARN no-catalitica. Este ARN catalitico es una ribozima que actua despues de la transcription genetica uniendose y cortando moleculas de ARN mensajero (ARNm). Este reloj genetico involucra solo dos genes, un ARNm y una proteina activadora, aparte de la ribozima. Como ejemplo de funcionamiento, se han escogido valores de los parametros que producen oscilaciones con periodo circadiano (24 horas) tanto en simulaciones deterministas como estocasticas. El efecto de las fluctuaciones es-tocasticas ha sido cuantificado mediante un histograma del periodo y la función de auto-correlacion. La conclusion es que las moleculas de ARN con propiedades cataliticas pueden jugar el misnio papel que las protemas represoras, y por lo tanto, simplificar el diseno de los osciladores geneticos. Segunda y principal contribucion: Es un nuevo modelo de oscilador genetico que demuestra que un gen auto-activado junto con una simple interaction negativa puede producir oscilaciones robustas. Este modelo ha sido estudiado y validado matematicamente. El modelo esta compuesto de dos partes bien diferenciadas. La primera parte es un lazo de retroalimentacion positiva creado por una proteina que se une al promotor de su propio gen activando la transcription. La segunda parte es una interaction negativa en la que una molecula represora evita la union de la proteina con el promotor. Un estudio estocastico muestra que el sistema es robusto al ruido. Un estudio determinista muestra que la dinamica del sistema es debida principalmente a dos tipos de biomoleculas: la proteina, y el complejo formado por el represor y esta proteina. La conclusion principal de este estudio es que una simple y usual interaction negativa, tal como una degradation, un secuestro o una inhibition, actuando sobre el lazo de retroalimentacion positiva de un solo gen es una condition suficiente para producir oscilaciones robustas. Un gen es suficiente y el lazo de retroalimentacion positiva no necesita activar a un segundo gen represor, tal y como ocurre en los relojes actuales con dos genes. Esto significa que a nivel genetico un lazo de retroalimentacion negativa no es necesario de forma explicita. Ademas, este modelo no necesita reacciones cooperativas ni la formation de multimeros proteicos, al contrario que en muchos osciladores geneticos. Aplicaciones y futuras lineas de investigacion: En los liltimos anos, se han descubierto muchas moleculas de ARN con capacidad catalitica. El primer modelo de oscilador genetico propuesto en esta tesis usa ribozimas como moleculas repre¬soras. Esto podria proporcionar nuevos principios de diseno en biologia sintetica y una mejor comprension de los relojes celulares regulados por moleculas de ARN. El segundo modelo de oscilador genetico propuesto aqui involucra solo una represion actuando sobre un gen auto-activado y produce oscilaciones robustas. Sorprendente-mente, un segundo gen represor no es necesario al contrario que en los bien conocidos osciladores con dos genes. Este resultado podria ayudar a clarificar los principios de diseno de los relojes celulares naturales y constituir una nueva y eficiente he-rramienta para crear osciladores geneticos sinteticos. Algunas de las futuras lineas de investigation abiertas tras esta tesis son: (1) la validation in vivo e in vitro de ambos modelos, (2) el estudio del potential del segundo modelo como circuito base para la construction de una memoria genetica, (3) el estudio de nuevos osciladores geneticos regulados por ARN no codificante y, por ultimo, (4) el rediseno del se¬gundo modelo de oscilador genetico para su uso como biosensor capaz de detectar genes auto-activados en redes geneticas.
Resumo:
Machine learning techniques are used for extracting valuable knowledge from data. Nowa¬days, these techniques are becoming even more important due to the evolution in data ac¬quisition and storage, which is leading to data with different characteristics that must be exploited. Therefore, advances in data collection must be accompanied with advances in machine learning techniques to solve new challenges that might arise, on both academic and real applications. There are several machine learning techniques depending on both data characteristics and purpose. Unsupervised classification or clustering is one of the most known techniques when data lack of supervision (unlabeled data) and the aim is to discover data groups (clusters) according to their similarity. On the other hand, supervised classification needs data with supervision (labeled data) and its aim is to make predictions about labels of new data. The presence of data labels is a very important characteristic that guides not only the learning task but also other related tasks such as validation. When only some of the available data are labeled whereas the others remain unlabeled (partially labeled data), neither clustering nor supervised classification can be used. This scenario, which is becoming common nowadays because of labeling process ignorance or cost, is tackled with semi-supervised learning techniques. This thesis focuses on the branch of semi-supervised learning closest to clustering, i.e., to discover clusters using available labels as support to guide and improve the clustering process. Another important data characteristic, different from the presence of data labels, is the relevance or not of data features. Data are characterized by features, but it is possible that not all of them are relevant, or equally relevant, for the learning process. A recent clustering tendency, related to data relevance and called subspace clustering, claims that different clusters might be described by different feature subsets. This differs from traditional solutions to data relevance problem, where a single feature subset (usually the complete set of original features) is found and used to perform the clustering process. The proximity of this work to clustering leads to the first goal of this thesis. As commented above, clustering validation is a difficult task due to the absence of data labels. Although there are many indices that can be used to assess the quality of clustering solutions, these validations depend on clustering algorithms and data characteristics. Hence, in the first goal three known clustering algorithms are used to cluster data with outliers and noise, to critically study how some of the most known validation indices behave. The main goal of this work is however to combine semi-supervised clustering with subspace clustering to obtain clustering solutions that can be correctly validated by using either known indices or expert opinions. Two different algorithms are proposed from different points of view to discover clusters characterized by different subspaces. For the first algorithm, available data labels are used for searching for subspaces firstly, before searching for clusters. This algorithm assigns each instance to only one cluster (hard clustering) and is based on mapping known labels to subspaces using supervised classification techniques. Subspaces are then used to find clusters using traditional clustering techniques. The second algorithm uses available data labels to search for subspaces and clusters at the same time in an iterative process. This algorithm assigns each instance to each cluster based on a membership probability (soft clustering) and is based on integrating known labels and the search for subspaces into a model-based clustering approach. The different proposals are tested using different real and synthetic databases, and comparisons to other methods are also included when appropriate. Finally, as an example of real and current application, different machine learning tech¬niques, including one of the proposals of this work (the most sophisticated one) are applied to a task of one of the most challenging biological problems nowadays, the human brain model¬ing. Specifically, expert neuroscientists do not agree with a neuron classification for the brain cortex, which makes impossible not only any modeling attempt but also the day-to-day work without a common way to name neurons. Therefore, machine learning techniques may help to get an accepted solution to this problem, which can be an important milestone for future research in neuroscience. Resumen Las técnicas de aprendizaje automático se usan para extraer información valiosa de datos. Hoy en día, la importancia de estas técnicas está siendo incluso mayor, debido a que la evolución en la adquisición y almacenamiento de datos está llevando a datos con diferentes características que deben ser explotadas. Por lo tanto, los avances en la recolección de datos deben ir ligados a avances en las técnicas de aprendizaje automático para resolver nuevos retos que pueden aparecer, tanto en aplicaciones académicas como reales. Existen varias técnicas de aprendizaje automático dependiendo de las características de los datos y del propósito. La clasificación no supervisada o clustering es una de las técnicas más conocidas cuando los datos carecen de supervisión (datos sin etiqueta), siendo el objetivo descubrir nuevos grupos (agrupaciones) dependiendo de la similitud de los datos. Por otra parte, la clasificación supervisada necesita datos con supervisión (datos etiquetados) y su objetivo es realizar predicciones sobre las etiquetas de nuevos datos. La presencia de las etiquetas es una característica muy importante que guía no solo el aprendizaje sino también otras tareas relacionadas como la validación. Cuando solo algunos de los datos disponibles están etiquetados, mientras que el resto permanece sin etiqueta (datos parcialmente etiquetados), ni el clustering ni la clasificación supervisada se pueden utilizar. Este escenario, que está llegando a ser común hoy en día debido a la ignorancia o el coste del proceso de etiquetado, es abordado utilizando técnicas de aprendizaje semi-supervisadas. Esta tesis trata la rama del aprendizaje semi-supervisado más cercana al clustering, es decir, descubrir agrupaciones utilizando las etiquetas disponibles como apoyo para guiar y mejorar el proceso de clustering. Otra característica importante de los datos, distinta de la presencia de etiquetas, es la relevancia o no de los atributos de los datos. Los datos se caracterizan por atributos, pero es posible que no todos ellos sean relevantes, o igualmente relevantes, para el proceso de aprendizaje. Una tendencia reciente en clustering, relacionada con la relevancia de los datos y llamada clustering en subespacios, afirma que agrupaciones diferentes pueden estar descritas por subconjuntos de atributos diferentes. Esto difiere de las soluciones tradicionales para el problema de la relevancia de los datos, en las que se busca un único subconjunto de atributos (normalmente el conjunto original de atributos) y se utiliza para realizar el proceso de clustering. La cercanía de este trabajo con el clustering lleva al primer objetivo de la tesis. Como se ha comentado previamente, la validación en clustering es una tarea difícil debido a la ausencia de etiquetas. Aunque existen muchos índices que pueden usarse para evaluar la calidad de las soluciones de clustering, estas validaciones dependen de los algoritmos de clustering utilizados y de las características de los datos. Por lo tanto, en el primer objetivo tres conocidos algoritmos se usan para agrupar datos con valores atípicos y ruido para estudiar de forma crítica cómo se comportan algunos de los índices de validación más conocidos. El objetivo principal de este trabajo sin embargo es combinar clustering semi-supervisado con clustering en subespacios para obtener soluciones de clustering que puedan ser validadas de forma correcta utilizando índices conocidos u opiniones expertas. Se proponen dos algoritmos desde dos puntos de vista diferentes para descubrir agrupaciones caracterizadas por diferentes subespacios. Para el primer algoritmo, las etiquetas disponibles se usan para bus¬car en primer lugar los subespacios antes de buscar las agrupaciones. Este algoritmo asigna cada instancia a un único cluster (hard clustering) y se basa en mapear las etiquetas cono-cidas a subespacios utilizando técnicas de clasificación supervisada. El segundo algoritmo utiliza las etiquetas disponibles para buscar de forma simultánea los subespacios y las agru¬paciones en un proceso iterativo. Este algoritmo asigna cada instancia a cada cluster con una probabilidad de pertenencia (soft clustering) y se basa en integrar las etiquetas conocidas y la búsqueda en subespacios dentro de clustering basado en modelos. Las propuestas son probadas utilizando diferentes bases de datos reales y sintéticas, incluyendo comparaciones con otros métodos cuando resulten apropiadas. Finalmente, a modo de ejemplo de una aplicación real y actual, se aplican diferentes técnicas de aprendizaje automático, incluyendo una de las propuestas de este trabajo (la más sofisticada) a una tarea de uno de los problemas biológicos más desafiantes hoy en día, el modelado del cerebro humano. Específicamente, expertos neurocientíficos no se ponen de acuerdo en una clasificación de neuronas para la corteza cerebral, lo que imposibilita no sólo cualquier intento de modelado sino también el trabajo del día a día al no tener una forma estándar de llamar a las neuronas. Por lo tanto, las técnicas de aprendizaje automático pueden ayudar a conseguir una solución aceptada para este problema, lo cual puede ser un importante hito para investigaciones futuras en neurociencia.
Resumo:
Cuando una colectividad de sistemas dinámicos acoplados mediante una estructura irregular de interacciones evoluciona, se observan dinámicas de gran complejidad y fenómenos emergentes imposibles de predecir a partir de las propiedades de los sistemas individuales. El objetivo principal de esta tesis es precisamente avanzar en nuestra comprensión de la relación existente entre la topología de interacciones y las dinámicas colectivas que una red compleja es capaz de mantener. Siendo este un tema amplio que se puede abordar desde distintos puntos de vista, en esta tesis se han estudiado tres problemas importantes dentro del mismo que están relacionados entre sí. Por un lado, en numerosos sistemas naturales y artificiales que se pueden describir mediante una red compleja la topología no es estática, sino que depende de la dinámica que se desarrolla en la red: un ejemplo son las redes de neuronas del cerebro. En estas redes adaptativas la propia topología emerge como consecuencia de una autoorganización del sistema. Para conocer mejor cómo pueden emerger espontáneamente las propiedades comúnmente observadas en redes reales, hemos estudiado el comportamiento de sistemas que evolucionan según reglas adaptativas locales con base empírica. Nuestros resultados numéricos y analíticos muestran que la autoorganización del sistema da lugar a dos de las propiedades más universales de las redes complejas: a escala mesoscópica, la aparición de una estructura de comunidades, y, a escala macroscópica, la existencia de una ley de potencias en la distribución de las interacciones en la red. El hecho de que estas propiedades aparecen en dos modelos con leyes de evolución cuantitativamente distintas que siguen unos mismos principios adaptativos sugiere que estamos ante un fenómeno que puede ser muy general, y estar en el origen de estas propiedades en sistemas reales. En segundo lugar, proponemos una medida que permite clasificar los elementos de una red compleja en función de su relevancia para el mantenimiento de dinámicas colectivas. En concreto, estudiamos la vulnerabilidad de los distintos elementos de una red frente a perturbaciones o grandes fluctuaciones, entendida como una medida del impacto que estos acontecimientos externos tienen en la interrupción de una dinámica colectiva. Los resultados que se obtienen indican que la vulnerabilidad dinámica es sobre todo dependiente de propiedades locales, por tanto nuestras conclusiones abarcan diferentes topologías, y muestran la existencia de una dependencia no trivial entre la vulnerabilidad y la conectividad de los elementos de una red. Finalmente, proponemos una estrategia de imposición de una dinámica objetivo genérica en una red dada e investigamos su validez en redes con diversas topologías que mantienen regímenes dinámicos turbulentos. Se obtiene como resultado que las redes heterogéneas (y la amplia mayora de las redes reales estudiadas lo son) son las más adecuadas para nuestra estrategia de targeting de dinámicas deseadas, siendo la estrategia muy efectiva incluso en caso de disponer de un conocimiento muy imperfecto de la topología de la red. Aparte de la relevancia teórica para la comprensión de fenómenos colectivos en sistemas complejos, los métodos y resultados propuestos podrán dar lugar a aplicaciones en sistemas experimentales y tecnológicos, como por ejemplo los sistemas neuronales in vitro, el sistema nervioso central (en el estudio de actividades síncronas de carácter patológico), las redes eléctricas o los sistemas de comunicaciones. ABSTRACT The time evolution of an ensemble of dynamical systems coupled through an irregular interaction scheme gives rise to dynamics of great of complexity and emergent phenomena that cannot be predicted from the properties of the individual systems. The main objective of this thesis is precisely to increase our understanding of the interplay between the interaction topology and the collective dynamics that a complex network can support. This is a very broad subject, so in this thesis we will limit ourselves to the study of three relevant problems that have strong connections among them. First, it is a well-known fact that in many natural and manmade systems that can be represented as complex networks the topology is not static; rather, it depends on the dynamics taking place on the network (as it happens, for instance, in the neuronal networks in the brain). In these adaptive networks the topology itself emerges from the self-organization in the system. To better understand how the properties that are commonly observed in real networks spontaneously emerge, we have studied the behavior of systems that evolve according to local adaptive rules that are empirically motivated. Our numerical and analytical results show that self-organization brings about two of the most universally found properties in complex networks: at the mesoscopic scale, the appearance of a community structure, and, at the macroscopic scale, the existence of a power law in the weight distribution of the network interactions. The fact that these properties show up in two models with quantitatively different mechanisms that follow the same general adaptive principles suggests that our results may be generalized to other systems as well, and they may be behind the origin of these properties in some real systems. We also propose a new measure that provides a ranking of the elements in a network in terms of their relevance for the maintenance of collective dynamics. Specifically, we study the vulnerability of the elements under perturbations or large fluctuations, interpreted as a measure of the impact these external events have on the disruption of collective motion. Our results suggest that the dynamic vulnerability measure depends largely on local properties (our conclusions thus being valid for different topologies) and they show a non-trivial dependence of the vulnerability on the connectivity of the network elements. Finally, we propose a strategy for the imposition of generic goal dynamics on a given network, and we explore its performance in networks with different topologies that support turbulent dynamical regimes. It turns out that heterogeneous networks (and most real networks that have been studied belong in this category) are the most suitable for our strategy for the targeting of desired dynamics, the strategy being very effective even when the knowledge on the network topology is far from accurate. Aside from their theoretical relevance for the understanding of collective phenomena in complex systems, the methods and results here discussed might lead to applications in experimental and technological systems, such as in vitro neuronal systems, the central nervous system (where pathological synchronous activity sometimes occurs), communication systems or power grids.
Resumo:
A comprehensive assessment of nitrogen (N) flows at the landscape scale is fundamental to understand spatial interactions in the N cascade and to inform the development of locally optimised N management strategies. To explore these interactions, complete N budgets were estimated for two contrasting hydrological catchments (dominated by agricultural grassland vs. semi-natural peat-dominated moorland), forming part of an intensively studied landscape in southern Scotland. Local scale atmospheric dispersion modelling and detailed farm and field inventories provided high resolution estimations of input fluxes. Direct agricultural inputs (i.e. grazing excreta, N2 fixation, organic and synthetic fertiliser) accounted for most of the catchment N inputs, representing 82% in the grassland and 62% in the moorland catchment, while atmospheric deposition made a significant contribution, particularly in the moorland catchment, contributing 38% of the N inputs. The estimated catchment N budgets highlighted areas of key uncertainty, particularly N2 exchange and stream N export. The resulting N balances suggest that the study catchments have a limited capacity to store N within soils, vegetation and groundwater. The "catchment N retention", i.e. the amount of N which is either stored within the catchment or lost through atmospheric emissions, was estimated to be 13% of the net anthropogenic input in the moorland and 61% in the grassland catchment. These values contrast with regional scale estimates: Catchment retentions of net anthropogenic input estimated within Europe at the regional scale range from 50% to 90%, with an average of 82% (Billen et al., 2011). This study emphasises the need for detailed budget analyses to identify the N status of European landscapes.