903 resultados para whether solicitor required to check date if injury advised by client
Resumo:
El propósito de este proyecto de fin de Grado es el estudio y desarrollo de una aplicación basada en Android que proporcionará soporte y atención a los servicios de transporte público existentes en Cracovia, Polonia. La principal funcionalidad del sistema será consultar la posición de un determinado autobús o tranvía y mostrar su ubicación con exactitud. Para lograr esto, necesitaremos tres fases de desarrollo. En primer lugar, deberemos implementar un sistema que obtenga las coordenadas geográficas de los vehículos de transporte público en cada instante. A continuación, tendremos que registrar todos estos datos y almacenarlos en una base de datos en un servidor web. Por último, desarrollaremos un sistema cliente que realice consultas a tiempo real sobre estos datos almacenados, obteniendo la posición para una línea determinada y mostrando su ubicación con un marcador en el mapa. Para hacer el seguimiento de los vehículos, sería necesario tener acceso a una API pública que nos proporcionase la posición registrada por los GPS que integran cada uno de ellos. Como esta API no existe actualmente para los servicios de autobús, y para los tranvías es de uso meramente privado, desarrollaremos una segunda aplicación en Android que hará las funciones del lado servidor. En ella podremos elegir mediante una simple interfaz el número de línea y un código específico que identificará a cada vehículo en particular (e.g. podemos tener 6 tranvías recorriendo la red al mismo tiempo para la línea 24). Esta aplicación obtendrá las coordenadas geográficas del teléfono móvil, lo cual incluye latitud, longitud y orientación a través del proveedor GPS. De este modo, podremos realizar una simulación de como el sistema funcionará a tiempo real utilizando la aplicación servidora desde dentro de un tranvía o autobús y, al mismo tiempo, utilizando la aplicación cliente haciendo peticiones para mostrar la información de dicho tranvía. El cliente, además, podrá consultar la ruta de cualquier línea sin necesidad de tener acceso a Internet. Almacenaremos las rutas y paradas de cada línea en la memoria del teléfono móvil utilizando ficheros XML debido al poco espacio que ocupan y a lo útil que resulta poder consultar un trayecto en cualquier momento, independientemente del acceso a la red. El usuario también podrá consultar las tablas de horarios oficiales para cada línea. Aunque en este caso si será necesaria una conexión a Internet debido a que se realizará a través de la web oficial de MPK. Para almacenar todas las coordenadas de cada vehículo en cada instante necesitaremos crear una base de datos en un servidor. Esto se resolverá mediante el uso de MYSQL y PHP. Se enviarán peticiones de tipo GET y POST a los servicios PHP que se encargarán de traducir y realizar la consulta correspondiente a la base de datos MYSQL. Por último, gracias a todos los datos recogidos relativos a la posición de los vehículos de transporte público, podremos realizar algunas tareas de análisis. Comparando la hora exacta a la que los vehículos pasaron por cada parada y la hora a la que deberían haber pasado según los horarios oficiales, podremos descubrir fallos en estos. Seremos capaces de determinar si es un error puntual debido a factores externos (atascos, averías,…) o si por el contrario, es algo que ocurre muy a menudo y se debería corregir el horario oficial. ABSTRACT The aim of this final Project (for University) is to develop an Android application thatwill provide support and feedback to the public transport services in Krakow. The main functionality of the system will be to track the position of a desired bus or tram line, and display its position on the map. To achieve this, we will need 3 stages: the first one will be to implement a system that sends the geographical position of the public transport vehicles, the second one will be to collect this data in a web server, and the last one will be to get the last location registered for the desired line and display it on the map. For tracking the vehicles, we would need to have access to a public API that should be connected with each bus/tram GPS. As this doesn’t exist in Krakow or at least is not available for public use, we will develop a second android application that will do the server side job. We will be able to choose in a simple interface the line number and a code letter to identify each vehicle (e.g. we can have 6 trams that belong to the line number 24 working at the same time). It will take the current mobile geolocation; this includes getting latitude, longitude and bearing from the GPS provider. Thus, we will be able to make a simulation of how the system works in real time by using the server app inside a tram and at the same time, using the client app and making requests to display the information of that tram. The client will also be able to check the path of the desired line without internet access. We will store the path and stops for each line locally in the phone memory using xml files due to the few requirements of available space it needs and the usefulness of checking a path when needed. This app will also offer the functionality of checking the timetable for the line, but in this case, it will link to the official Mpk website, so Internet access will be required. For storing all the coordinates for each vehicle at every moment we will need to create a database on a server. We have decided that the easiest way is to use Mysql and PHP for the deployment of the service. We will send GET and POST requests to the php files and those files will make the according queries to our database. Finally, based on all the collected data, we will be able to get some information about errors in the system of public transport timetables. We will check at what time a line was in each specific stop and compare it with the official timetable to find mistakes of time. We will determine if it is something that happens occasionally and related to external factors (e.g. traffic jams, breakdowns…) or if on the other hand, it is something that happens very often and the public transport timetables should be looked over and corrected.
Resumo:
The objective of this study was to evaluate the effects of increasing doses [0 (control: CON), 20, 60, 180 and 540 mg/L incubation medium] of garlic oil (GO) and cinnamaldehyde (CIN) on in vitro ruminal fermentation of two diets. Batch cultures of mixed ruminal microorganisms were inoculated with ruminal fluid from four sheep fed a medium-concentrate diet (MC; 50 : 50 alfalfa hay : concentrate) or four sheep fed a high-concentrate diet (HC; 15 : 85 barley straw : concentrate). Diets MC and HC were representative of those fed to dairy and fattening ruminants, respectively. Samples of each diet were used as incubation substrates for the corresponding inoculum, and the incubation was repeated on 4 different days (four replicates per experimental treatment). There were GO × diet-type and CIN × diet-type interactions (P < 0.001–0.05) for many of the parameters determined, indicating different effects of both oils depending on the diet type. In general, effects of GO were more pronounced for MC compared with HC diet. Supplementation of GO did not affect (P > 0.05) total volatile fatty acid (VFA) production at any dose. For MC diet, GO at 60, 180 and 540 mg/L decreased (P < 0.05) molar proportion of acetate (608, 569 and 547 mmol/mol total VFA, respectively), and increased (P < 0.05) propionate proportion (233, 256 and 268 mmol/mol total VFA, respectively), compared with CON values (629 and 215 mmol/mol total VFA for acetate and propionate, respectively). A minimum dose of 180 mg of GO/L was required to produce similar modifications in acetate and propionate proportions with HC diet, but no effects (P > 0.05) on butyrate proportion were detected. Methane/VFA ratio was reduced (P < 0.05) by GO at 60, 180 and 540 mg/L for MC diet (0.23, 0.16 and 0.10 mol/mol, respectively), and by GO at 20, 60, 180 and 540 mg/L for HC diet (0.19, 0.19, 0.16 and 0.08 mol/mol, respectively), compared with CON (0.26 and 0.21 mol/mol for MC and HC diets, respectively). No effects (P = 0.16–0.85) of GO on final pH and concentrations of NH3-N and lactate were detected. For both diet types, the highest CIN dose decreased (P < 0.05) production of total VFA, gas and methane, which would indicate an inhibition of fermentation. Compared with CON, CIN at 180 mg/L increased (P < 0.05) acetate proportion for the MC (629 and 644 mmol/mol total VFA for CON and CIN, respectively) and HC (525 and 540 mmol/mol total VFA, respectively) diets, without affecting the proportions of any other VFA or total VFA production. Whereas for MC diet CIN at 60 and 180 mg/L decreased (P < 0.05) NH3-N concentrations compared with CON, only a trend (P < 0.10) was observed for CIN at 180 mg/L with the HC diet. Supplementation of CIN up to 180 mg/L did not affect (P = 0.18–0.99) lactate concentrations and production of gas and methane for any diet. The results show that effectiveness of GO and CIN to modify ruminal fermentation may depend on diet type, which would have practical implications if they are confirmed in vivo.
Resumo:
This study analyses the variation of main physical-mechanical properties of wood along the longitudinal and radial directions of the tree for Abies alba Mill. growing in the Spanish Pyrenees. Small clear specimens were used to study the properties of volumetric shrinkage (VS), density (?), hardness (H), bending strength (MOR), modulus of elasticity (MOE), maximum compressive strength parallel to the grain (MCS) and impact strength (K). Several models of properties variation in the longitudinal and radial directions were analyzed. Main trends of variation of properties throughout the tree stem were identified although none of them could be fitted to predictive statistical models. Along the longitudinal direction, the properties studied followed a downward trend from the base to the crown, which was not significant in all cases, indicating that no differences in quality existed. Throughout the radial direction the trend is upward for the first 40-50 growth rings, after which it slopes downwards, more gently at first until rings 70-75 and then more steeply. This behaviour is related to variation in wood structure from the pith to the bark, depending on whether the wood is juvenile, sapwood or heartwood, and to wood maturity and microfibril angle. Authors encourage carrying further studies on other populations of A. alba in the Spanish Pyrenees to check if the trends found in this study apply to other provenances.
Resumo:
El óxido nitroso (N2O) es un potente gas de efecto invernadero (GHG) proveniente mayoritariamente de la fertilización nitrogenada de los suelos agrícolas. Identificar estrategias de manejo de la fertilización que reduzcan estas emisiones sin suponer un descenso de los rendimientos es vital tanto a nivel económico como medioambiental. Con ese propósito, en esta Tesis se han evaluado: (i) estrategias de manejo directo de la fertilización (inhibidores de la nitrificación/ureasa); y (ii) interacciones de los fertilizantes con (1) el manejo del agua, (2) residuos de cosecha y (3) diferentes especies de plantas. Para conseguirlo se llevaron a cabo meta-análisis, incubaciones de laboratorio, ensayos en invernadero y experimentos de campo. Los inhibidores de la nitrificación y de la actividad ureasa se proponen habitualmente como medidas para reducir las pérdidas de nitrógeno (N), por lo que su aplicación estaría asociada al uso eficiente del N por parte de los cultivos (NUE). Sin embargo, su efecto sobre los rendimientos es variable. Con el objetivo de evaluar en una primera fase su efectividad para incrementar el NUE y la productividad de los cultivos, se llevó a cabo un meta-análisis. Los inhibidores de la nitrificación dicyandiamide (DCD) y 3,4-dimetilepyrazol phosphate (DMPP) y el inhibidor de la ureasa N-(n-butyl) thiophosphoric triamide (NBPT) fueron seleccionados para el análisis ya que generalmente son considerados las mejores opciones disponibles comercialmente. Nuestros resultados mostraron que su uso puede ser recomendado con el fin de incrementar tanto el rendimiento del cultivo como el NUE (incremento medio del 7.5% y 12.9%, respectivamente). Sin embargo, se observó que su efectividad depende en gran medida de los factores medioambientales y de manejo de los estudios evaluados. Una mayor respuesta fue encontrada en suelos de textura gruesa, sistemas irrigados y/o en cultivos que reciben altas tasas de fertilizante nitrogenado. En suelos alcalinos (pH ≥ 8), el inhibidor de la ureasa NBPT produjo el mayor efecto. Dado que su uso representa un coste adicional para los agricultores, entender las mejores prácticas que permitan maximizar su efectividad es necesario para posteriormente realizar comparaciones efectivas con otras prácticas que incrementen la productividad de los cultivos y el NUE. En base a los resultados del meta-análisis, se seleccionó el NBPT como un inhibidor con gran potencial. Inicialmente desarrollado para reducir la volatilización de amoniaco (NH3), en los últimos años algunos investigadores han demostrado en estudios de campo un efecto mitigador de este inhibidor sobre las pérdidas de N2O provenientes de suelos fertilizados bajo condiciones de baja humedad del suelo. Dada la alta variabilidad de los experimentos de campo, donde la humedad del suelo cambia rápidamente, ha sido imposible entender mecanísticamente el potencial de los inhibidores de la ureasa (UIs) para reducir emisiones de N2O y su dependencia con respecto al porcentaje de poros llenos de agua del suelo (WFPS). Por lo tanto se realizó una incubación en laboratorio con el propósito de evaluar cuál es el principal mecanismo biótico tras las emisiones de N2O cuando se aplican UIs bajo diferentes condiciones de humedad del suelo (40, 60 y 80% WFPS), y para analizar hasta qué punto el WFPS regula el efecto del inhibidor sobre las emisiones de N2O. Un segundo UI (i.e. PPDA) fue utilizado para comparar el efecto del NBPT con el de otro inhibidor de la ureasa disponible comercialmente; esto nos permitió comprobar si el efecto de NBPT es específico de ese inhibidor o no. Las emisiones de N2O al 40% WFPS fueron despreciables, siendo significativamente más bajas que las de todos los tratamientos fertilizantes al 60 y 80% WFPS. Comparado con la urea sin inhibidor, NBPT+U redujo las emisiones de N2O al 60% WFPS pero no tuvo efecto al 80% WFPS. La aplicación de PPDA incrementó significativamente las emisiones con respecto a la urea al 80% WFPS mientras que no se encontró un efecto significativo al 60% WFPS. Al 80% WFPS la desnitrificación fue la principal fuente de las emisiones de N2O en todos los tratamientos mientras que al 60% tanto la nitrificación como la desnitrificación tuvieron un papel relevante. Estos resultados muestran que un correcto manejo del NBPT puede suponer una estrategia efectiva para mitigar las emisiones de N2O. Con el objetivo de trasladar nuestros resultados de los estudios previos a condiciones de campo reales, se desarrolló un experimento en el que se evaluó la efectividad del NBPT para reducir pérdidas de N y aumentar la productividad durante un cultivo de cebada (Hordeum vulgare L.) en secano Mediterráneo. Se determinó el rendimiento del cultivo, las concentraciones de N mineral del suelo, el carbono orgánico disuelto (DOC), el potencial de desnitrificación, y los flujos de NH3, N2O y óxido nítrico (NO). La adición del inhibidor redujo las emisiones de NH3 durante los 30 días posteriores a la aplicación de urea en un 58% y las emisiones netas de N2O y NO durante los 95 días posteriores a la aplicación de urea en un 86 y 88%, respectivamente. El uso de NBPT también incrementó el rendimiento en grano en un 5% y el consumo de N en un 6%, aunque ninguno de estos incrementos fue estadísticamente significativo. Bajo las condiciones experimentales dadas, estos resultados demuestran el potencial del inhibidor de la ureasa NBPT para mitigar las emisiones de NH3, N2O y NO provenientes de suelos arables fertilizados con urea, mediante la ralentización de la hidrólisis de la urea y posterior liberación de menores concentraciones de NH4 + a la capa superior del suelo. El riego por goteo combinado con la aplicación dividida de fertilizante nitrogenado disuelto en el agua de riego (i.e. fertirriego por goteo) se considera normalmente una práctica eficiente para el uso del agua y de los nutrientes. Algunos de los principales factores (WFPS, NH4 + y NO3 -) que regulan las emisiones de GHGs (i.e. N2O, CO2 y CH4) y NO pueden ser fácilmente manipulados por medio del fertirriego por goteo sin que se generen disminuciones del rendimiento. Con ese propósito se evaluaron opciones de manejo para reducir estas emisiones en un experimento de campo durante un cultivo de melón (Cucumis melo L.). Los tratamientos incluyeron distintas frecuencias de riego (semanal/diario) y tipos de fertilizantes nitrogenados (urea/nitrato cálcico) aplicados por fertirriego. Fertirrigar con urea en lugar de nitrato cálcico aumentó las emisiones de N2O y NO por un factor de 2.4 y 2.9, respectivamente (P < 0.005). El riego diario redujo las emisiones de NO un 42% (P < 0.005) pero aumentó las emisiones de CO2 un 21% (P < 0.05) comparado con el riego semanal. Analizando el Poder de Calentamiento global en base al rendimiento así como los factores de emisión del NO, concluimos que el fertirriego semanal con un fertilizante de tipo nítrico es la mejor opción para combinar productividad agronómica con sostenibilidad medioambiental en este tipo de agroecosistemas. Los suelos agrícolas en las áreas semiáridas Mediterráneas se caracterizan por su bajo contenido en materia orgánica y bajos niveles de fertilidad. La aplicación de residuos de cosecha y/o abonos es una alternativa sostenible y eficiente desde el punto de vista económico para superar este problema. Sin embargo, estas prácticas podrían inducir cambios importantes en las emisiones de N2O de estos agroecosistemas, con impactos adicionales en las emisiones de CO2. En este contexto se llevó a cabo un experimento de campo durante un cultivo de cebada (Hordeum vulgare L.) bajo condiciones Mediterráneas para evaluar el efecto de combinar residuos de cosecha de maíz con distintos inputs de fertilizantes nitrogenados (purín de cerdo y/o urea) en estas emisiones. La incorporación de rastrojo de maíz incrementó las emisiones de N2O durante el periodo experimental un 105%. Sin embargo, las emisiones de NO se redujeron significativamente en las parcelas enmendadas con rastrojo. La sustitución parcial de urea por purín de cerdo redujo las emisiones netas de N2O un 46 y 39%, con y sin incorporación de residuo de cosecha respectivamente. Las emisiones netas de NO se redujeron un 38 y un 17% para estos mismos tratamientos. El ratio molar DOC:NO3 - demostró predecir consistentemente las emisiones de N2O y NO. El efecto principal de la interacción entre el fertilizante nitrogenado y el rastrojo de maíz se dio a los 4-6 meses de su aplicación, generando un aumento del N2O y una disminución del NO. La sustitución de urea por purín de cerdo puede considerarse una buena estrategia de manejo dado que el uso de este residuo orgánico redujo las emisiones de óxidos de N. Los pastos de todo el mundo proveen numerosos servicios ecosistémicos pero también suponen una importante fuente de emisión de N2O, especialmente en respuesta a la deposición de N proveniente del ganado mientras pasta. Para explorar el papel de las plantas como mediadoras de estas emisiones, se analizó si las emisiones de N2O dependen de la riqueza en especies herbáceas y/o de la composición específica de especies, en ausencia y presencia de una deposición de orina. Las hipótesis fueron: 1) las emisiones de N2O tienen una relación negativa con la productividad de las plantas; 2) mezclas de cuatro especies generan menores emisiones que monocultivos (dado que su productividad será mayor); 3) las emisiones son menores en combinaciones de especies con distinta morfología radicular y alta biomasa de raíz; y 4) la identidad de las especies clave para reducir el N2O depende de si hay orina o no. Se establecieron monocultivos y mezclas de dos y cuatro especies comunes en pastos con rasgos funcionales divergentes: Lolium perenne L. (Lp), Festuca arundinacea Schreb. (Fa), Phleum pratense L. (Php) y Poa trivialis L. (Pt), y se cuantificaron las emisiones de N2O durante 42 días. No se encontró relación entre la riqueza en especies y las emisiones de N2O. Sin embargo, estas emisiones fueron significativamente menores en ciertas combinaciones de especies. En ausencia de orina, las comunidades de plantas Fa+Php actuaron como un sumidero de N2O, mientras que los monocultivos de estas especies constituyeron una fuente de N2O. Con aplicación de orina la comunidad Lp+Pt redujo (P < 0.001) las emisiones de N2O un 44% comparado con los monocultivos de Lp. Las reducciones de N2O encontradas en ciertas combinaciones de especies pudieron explicarse por una productividad total mayor y por una complementariedad en la morfología radicular. Este estudio muestra que la composición de especies herbáceas es un componente clave que define las emisiones de N2O de los ecosistemas de pasto. La selección de combinaciones de plantas específicas en base a la deposición de N esperada puede, por lo tanto, ser clave para la mitigación de las emisiones de N2O. ABSTRACT Nitrous oxide (N2O) is a potent greenhouse gas (GHG) directly linked to applications of nitrogen (N) fertilizers to agricultural soils. Identifying mitigation strategies for these emissions based on fertilizer management without incurring in yield penalties is of economic and environmental concern. With that aim, this Thesis evaluated: (i) the use of nitrification and urease inhibitors; and (ii) interactions of N fertilizers with (1) water management, (2) crop residues and (3) plant species richness/identity. Meta-analysis, laboratory incubations, greenhouse mesocosm and field experiments were carried out in order to understand and develop effective mitigation strategies. Nitrification and urease inhibitors are proposed as means to reduce N losses, thereby increasing crop nitrogen use efficiency (NUE). However, their effect on crop yield is variable. A meta-analysis was initially conducted to evaluate their effectiveness at increasing NUE and crop productivity. Commonly used nitrification inhibitors (dicyandiamide (DCD) and 3,4-dimethylepyrazole phosphate (DMPP)) and the urease inhibitor N-(n-butyl) thiophosphoric triamide (NBPT) were selected for analysis as they are generally considered the best available options. Our results show that their use can be recommended in order to increase both crop yields and NUE (grand mean increase of 7.5% and 12.9%, respectively). However, their effectiveness was dependent on the environmental and management factors of the studies evaluated. Larger responses were found in coarse-textured soils, irrigated systems and/or crops receiving high nitrogen fertilizer rates. In alkaline soils (pH ≥ 8), the urease inhibitor NBPT produced the largest effect size. Given that their use represents an additional cost for farmers, understanding the best management practices to maximize their effectiveness is paramount to allow effective comparison with other practices that increase crop productivity and NUE. Based on the meta-analysis results, NBPT was identified as a mitigation option with large potential. Urease inhibitors (UIs) have shown to promote high N use efficiency by reducing ammonia (NH3) volatilization. In the last few years, however, some field researches have shown an effective mitigation of UIs over N2O losses from fertilized soils under conditions of low soil moisture. Given the inherent high variability of field experiments where soil moisture content changes rapidly, it has been impossible to mechanistically understand the potential of UIs to reduce N2O emissions and its dependency on the soil water-filled pore space (WFPS). An incubation experiment was carried out aiming to assess what is the main biotic mechanism behind N2O emission when UIs are applied under different soil moisture conditions (40, 60 and 80% WFPS), and to analyze to what extent the soil WFPS regulates the effect of the inhibitor over N2O emissions. A second UI (i.e. PPDA) was also used aiming to compare the effect of NBPT with that of another commercially available urease inhibitor; this allowed us to see if the effect of NBPT was inhibitor-specific or not. The N2O emissions at 40% WFPS were almost negligible, being significantly lower from all fertilized treatments than that produced at 60 and 80% WFPS. Compared to urea alone, NBPT+U reduced the N2O emissions at 60% WFPS but had no effect at 80% WFPS. The application of PPDA significantly increased the emissions with respect to U at 80% WFPS whereas no significant effect was found at 60% WFPS. At 80% WFPS denitrification was the main source of N2O emissions for all treatments. Both nitrification and denitrification had a determinant role on these emissions at 60% WFPS. These results suggest that adequate management of the UI NBPT can provide, under certain soil conditions, an opportunity for N2O mitigation. We translated our previous results to realistic field conditions by means of a field experiment with a barley crop (Hordeum vulgare L.) under rainfed Mediterranean conditions in which we evaluated the effectiveness of NBPT to reduce N losses and increase crop yields. Crop yield, soil mineral N concentrations, dissolved organic carbon (DOC), denitrification potential, NH3, N2O and nitric oxide (NO) fluxes were measured during the growing season. The inclusion of the inhibitor reduced NH3 emissions in the 30 d following urea application by 58% and net N2O and NO emissions in the 95 d following urea application by 86 and 88%, respectively. NBPT addition also increased grain yield by 5% and N uptake by 6%, although neither increase was statistically significant. Under the experimental conditions presented here, these results demonstrate the potential of the urease inhibitor NBPT in abating NH3, N2O and NO emissions from arable soils fertilized with urea, slowing urea hydrolysis and releasing lower concentrations of NH4 + to the upper soil layer. Drip irrigation combined with split application of N fertilizer dissolved in the irrigation water (i.e. drip fertigation) is commonly considered best management practice for water and nutrient efficiency. Some of the main factors (WFPS, NH4 + and NO3 -) regulating the emissions of GHGs (i.e. N2O, carbon dioxide (CO2) and methane (CH4)) and NO can easily be manipulated by drip fertigation without yield penalties. In this study, we tested management options to reduce these emissions in a field experiment with a melon (Cucumis melo L.) crop. Treatments included drip irrigation frequency (weekly/daily) and type of N fertilizer (urea/calcium nitrate) applied by fertigation. Crop yield, environmental parameters, soil mineral N concentrations, N2O, NO, CH4, and CO2 fluxes were measured during the growing season. Fertigation with urea instead of calcium nitrate increased N2O and NO emissions by a factor of 2.4 and 2.9, respectively (P < 0.005). Daily irrigation reduced NO emissions by 42% (P < 0.005) but increased CO2 emissions by 21% (P < 0.05) compared with weekly irrigation. Based on yield-scaled Global Warming Potential as well as NO emission factors, we conclude that weekly fertigation with a NO3 --based fertilizer is the best option to combine agronomic productivity with environmental sustainability. Agricultural soils in semiarid Mediterranean areas are characterized by low organic matter contents and low fertility levels. Application of crop residues and/or manures as amendments is a cost-effective and sustainable alternative to overcome this problem. However, these management practices may induce important changes in the nitrogen oxide emissions from these agroecosystems, with additional impacts on CO2 emissions. In this context, a field experiment was carried out with a barley (Hordeum vulgare L.) crop under Mediterranean conditions to evaluate the effect of combining maize (Zea mays L.) residues and N fertilizer inputs (organic and/or mineral) on these emissions. Crop yield and N uptake, soil mineral N concentrations, dissolved organic carbon (DOC), denitrification capacity, N2O, NO and CO2 fluxes were measured during the growing season. The incorporation of maize stover increased N2O emissions during the experimental period by c. 105 %. Conversely, NO emissions were significantly reduced in the plots amended with crop residues. The partial substitution of urea by pig slurry reduced net N2O emissions by 46 and 39 %, with and without the incorporation of crop residues respectively. Net emissions of NO were reduced 38 and 17 % for the same treatments. Molar DOC:NO3 - ratio was found to be a robust predictor of N2O and NO fluxes. The main effect of the interaction between crop residue and N fertilizer application occurred in the medium term (4-6 month after application), enhancing N2O emissions and decreasing NO emissions as consequence of residue incorporation. The substitution of urea by pig slurry can be considered a good management strategy since N2O and NO emissions were reduced by the use of the organic residue. Grassland ecosystems worldwide provide many important ecosystem services but they also function as a major source of N2O, especially in response to N deposition by grazing animals. In order to explore the role of plants as mediators of these emissions, we tested whether and how N2O emissions are dependent on grass species richness and/or specific grass species composition in the absence and presence of urine deposition. We hypothesized that: 1) N2O emissions relate negatively to plant productivity; 2) four-species mixtures have lower emissions than monocultures (as they are expected to be more productive); 3) emissions are lowest in combinations of species with diverging root morphology and high root biomass; and 4) the identity of the key species that reduce N2O emissions is dependent on urine deposition. We established monocultures and two- and four-species mixtures of common grass species with diverging functional traits: Lolium perenne L. (Lp), Festuca arundinacea Schreb. (Fa), Phleum pratense L. (Php) and Poa trivialis L. (Pt), and quantified N2O emissions for 42 days. We found no relation between plant species richness and N2O emissions. However, N2O emissions were significantly reduced in specific plant species combinations. In the absence of urine, plant communities of Fa+Php acted as a sink for N2O, whereas the monocultures of these species constituted a N2O source. With urine application Lp+Pt plant communities reduced (P < 0.001) N2O emissions by 44% compared to monocultures of Lp. Reductions in N2O emissions by species mixtures could be explained by total biomass productivity and by complementarity in root morphology. Our study shows that plant species composition is a key component underlying N2O emissions from grassland ecosystems. Selection of specific grass species combinations in the context of the expected nitrogen deposition regimes may therefore provide a key management practice for mitigation of N2O emissions.
Resumo:
La Ingeniería del Software Empírico (ISE) utiliza como herramientas los estudios empíricos para conseguir evidencias que ayuden a conocer bajo qué circunstancias es mejor usar una tecnología software en lugar de otra. La investigación en la que se enmarca este TFM explora si las intuiciones y/o preferencias de las personas que realizan las pruebas de software, son capaces de predecir la efectividad de tres técnicas de evaluación de código: lectura por abstracciones sucesivas, cobertura de decisión y partición en clases de equivalencia. Para conseguir dicho objetivo, se analizan los datos recogidos en un estudio empírico, realizado por las tutoras de este TFM. En el estudio empírico distintos sujetos aplican las tres técnicas de evaluación de código a tres programas distintos, a los que se les habían introducido una serie de faltas artificialmente. Los sujetos deben reportar los fallos encontrados en los programas, así como, contestar a una serie de preguntas sobre sus intuiciones y preferencias. A la hora de analizar los datos del estudio, se ha comprobado: 1) cuáles son sus intuiciones y preferencias (mediante el test estadístico X2 de Pearson); 2) si los sujetos cambian de opinión después de aplicar las técnicas (para ello se ha utilizado índice de Kappa, el Test de McNemar-Bowker y el Test de Stuart-Maxwell); 3) la consistencia de las distintas preguntas (mediante el índice de Kappa), comparando: intuiciones con intuiciones, preferencias con preferencias e intuiciones con preferencias; 4) Por último, si hay coincidencia entre las intuiciones y preferencias con la efectividad real obtenida (para ello se ha utilizado, el Modelo Lineal General con medidas repetidas). Los resultados muestran que, no hay una intuición clara ni tampoco una preferencia concreta, con respecto a los programas. Además aunque existen cambios de opinión después de aplicar las técnicas, no se encuentran evidencias claras para afirmar que la intuición y preferencias influyen en su efectividad. Finalmente, existen relaciones entre las intuiciones con intuiciones, preferencias con preferencias e intuiciones con preferencias, además esta relación es más notoria después de aplicar las técnicas. ----ABSTRACT----Empirical Software Engineering (ESE) uses empirical studies as a mean to generate evidences to help determine under what circumstances it is convenient to use a given software technology. This Master Thesis is part of a research that explores whether intuitions and/or preferences of testers, can be used to predict the effectiveness of three code evaluation techniques: reading by stepwise abstractions, decision coverage and equivalence partitioning. To achieve this goal, this Master Thesis analyzes the data collected in an empirical study run by the tutors. In the empirical study, different subjects apply three code evaluation techniques to three different programs. A series of faults were artificially introduced to the programs. Subjects are required to report the defects found in the programs, as well as answer a series of questions about their intuitions and preferences. The data analyses test: 1) what are the intuitions and preferences of the subjects (using the Pearson X2 test); 2) whether subjects change their minds after applying the techniques (using the Kappa coefficient, McNemar-Bowker test, and Stuart-Maxwell test); 3) the consistency of the different questions, comparing: intuitions versus intuitions, preferences versus preferences and preferences versus intuitions (using the Kappa coefficient); 4) finally, if intuitions and/or preferences predict the actual effectiveness obtained (using the General Linear Model, repeated measures). The results show that there is not clear intuition or particular preference with respect to the programs. Moreover, although there are changes of mind after applying the techniques, there are not clear evidences to claim that intuition and preferences influence their effectiveness. Finally, there is a relationship between the intuitions versus intuitions, preferences versus preferences and intuitions versus preferences; this relationship is more noticeable after applying the techniques.
Resumo:
The Empiric k·p Hamiltonian method is usually applied to nanostructured semiconductors. In this paper, it is applied to a homogeneous semiconductor in order to check the adequacy of the method. In this case, the solutions of the diagonalized Hamiltonian, as well as the envelope functions, are plane waves. The procedure is applied to the GaAs and the interband absorption coefficients are calculated. They result in reasonable agreement with the measured values, further supporting the adequacy of the Empiric k·p Hamiltonian method.
Resumo:
La gestión del tráfico aéreo (Air Traffic Management, ATM) está experimentando un cambio de paradigma hacia las denominadas operaciones basadas trayectoria. Bajo dicho paradigma se modifica el papel de los controladores de tráfico aéreo desde una operativa basada su intervención táctica continuada hacia una labor de supervisión a más largo plazo. Esto se apoya en la creciente confianza en las soluciones aportadas por las herramientas automatizadas de soporte a la decisión más modernas. Para dar soporte a este concepto, se precisa una importante inversión para el desarrollo, junto con la adquisición de nuevos equipos en tierra y embarcados, que permitan la sincronización precisa de la visión de la trayectoria, basada en el intercambio de información entre ambos actores. Durante los últimos 30 a 40 años las aerolíneas han generado uno de los menores retornos de la inversión de entre todas las industrias. Sin beneficios tangibles, la industria aérea tiene dificultades para atraer el capital requerido para su modernización, lo que retrasa la implantación de dichas mejoras. Esta tesis tiene como objetivo responder a la pregunta de si las capacidades actualmente instaladas en las aeronaves comerciales se pueden aplicar para lograr la sincronización de la trayectoria con el nivel de calidad requerido. Además, se analiza en ella si, conjuntamente con mejoras en las herramientas de predicción trayectorias instaladas en tierra en para facilitar la gestión de las arribadas, dichas capacidades permiten obtener los beneficios esperados en el marco de las operaciones basadas en trayectoria. Esto podría proporcionar un incentivo para futuras actualizaciones de la aviónica que podrían llevar a mejoras adicionales. El concepto operacional propuesto en esta tesis tiene como objetivo permitir que los aviones sean pilotados de una manera consistente con las técnicas actuales de vuelo optimizado. Se permite a las aeronaves que desciendan en el denominado “modo de ángulo de descenso gestionado” (path-managed mode), que es el preferido por la mayoría de las compañías aéreas, debido a que conlleva un reducido consumo de combustible. El problema de este modo es que en él no se controla de forma activa el tiempo de llegada al punto de interés. En nuestro concepto operacional, la incertidumbre temporal se gestiona en mediante de la medición del tiempo en puntos estratégicamente escogidos a lo largo de la trayectoria de la aeronave, y permitiendo la modificación por el control de tierra de la velocidad de la aeronave. Aunque la base del concepto es la gestión de las ordenes de velocidad que se proporcionan al piloto, para ser capaces de operar con los niveles de equipamiento típicos actualmente, dicho concepto también constituye un marco en el que la aviónica más avanzada (por ejemplo, que permita el control por el FMS del tiempo de llegada) puede integrarse de forma natural, una vez que esta tecnología este instalada. Además de gestionar la incertidumbre temporal a través de la medición en múltiples puntos, se intenta reducir dicha incertidumbre al mínimo mediante la mejora de las herramienta de predicción de la trayectoria en tierra. En esta tesis se presenta una novedosa descomposición del proceso de predicción de trayectorias en dos etapas. Dicha descomposición permite integrar adecuadamente los datos de la trayectoria de referencia calculada por el Flight Management System (FMS), disponibles usando Futuro Sistema de Navegación Aérea (FANS), en el sistema de predicción de trayectorias en tierra. FANS es un equipo presente en los aviones comerciales de fuselaje ancho actualmente en la producción, e incluso algunos aviones de fuselaje estrecho pueden tener instalada avionica FANS. Además de informar automáticamente de la posición de la aeronave, FANS permite proporcionar (parte de) la trayectoria de referencia en poder de los FMS, pero la explotación de esta capacidad para la mejora de la predicción de trayectorias no se ha estudiado en profundidad en el pasado. La predicción en dos etapas proporciona una solución adecuada al problema de sincronización de trayectorias aire-tierra dado que permite la sincronización de las dimensiones controladas por el sistema de guiado utilizando la información de la trayectoria de referencia proporcionada mediante FANS, y también facilita la mejora en la predicción de las dimensiones abiertas restantes usado un modelo del guiado que explota los modelos meteorológicos mejorados disponibles en tierra. Este proceso de predicción de la trayectoria de dos etapas se aplicó a una muestra de 438 vuelos reales que realizaron un descenso continuo (sin intervención del controlador) con destino Melbourne. Dichos vuelos son de aeronaves del modelo Boeing 737-800, si bien la metodología descrita es extrapolable a otros tipos de aeronave. El método propuesto de predicción de trayectorias permite una mejora en la desviación estándar del error de la estimación del tiempo de llegada al punto de interés, que es un 30% menor que la que obtiene el FMS. Dicha trayectoria prevista mejorada se puede utilizar para establecer la secuencia de arribadas y para la asignación de las franjas horarias para cada aterrizaje (slots). Sobre la base del slot asignado, se determina un perfil de velocidades que permita cumplir con dicho slot con un impacto mínimo en la eficiencia del vuelo. En la tesis se propone un nuevo algoritmo que determina las velocidades requeridas sin necesidad de un proceso iterativo de búsqueda sobre el sistema de predicción de trayectorias. El algoritmo se basa en una parametrización inteligente del proceso de predicción de la trayectoria, que permite relacionar el tiempo estimado de llegada con una función polinómica. Resolviendo dicho polinomio para el tiempo de llegada deseado, se obtiene de forma natural el perfil de velocidades optimo para cumplir con dicho tiempo de llegada sin comprometer la eficiencia. El diseño de los sistemas de gestión de arribadas propuesto en esta tesis aprovecha la aviónica y los sistemas de comunicación instalados de un modo mucho más eficiente, proporcionando valor añadido para la industria. Por tanto, la solución es compatible con la transición hacia los sistemas de aviónica avanzados que están desarrollándose actualmente. Los beneficios que se obtengan a lo largo de dicha transición son un incentivo para inversiones subsiguientes en la aviónica y en los sistemas de control de tráfico en tierra. ABSTRACT Air traffic management (ATM) is undergoing a paradigm shift towards trajectory based operations where the role of an air traffic controller evolves from that of continuous intervention towards supervision, as decision making is improved based on increased confidence in the solutions provided by advanced automation. To support this concept, significant investment for the development and acquisition of new equipment is required on the ground as well as in the air, to facilitate the high degree of trajectory synchronisation and information exchange required. Over the past 30-40 years the airline industry has generated one of the lowest returns on invested capital among all industries. Without tangible benefits realised, the airline industry may find it difficult to attract the required investment capital and delay acquiring equipment needed to realise the concept of trajectory based operations. In response to these challenges facing the modernisation of ATM, this thesis aims to answer the question whether existing aircraft capabilities can be applied to achieve sufficient trajectory synchronisation and improvements to ground-based trajectory prediction in support of the arrival management process, to realise some of the benefits envisioned under trajectory based operations, and to provide an incentive for further avionics upgrades. The proposed operational concept aims to permit aircraft to operate in a manner consistent with current optimal aircraft operating techniques. It allows aircraft to descend in the fuel efficient path managed mode as preferred by a majority of airlines, with arrival time not actively controlled by the airborne automation. The temporal uncertainty is managed through metering at strategically chosen points along the aircraft’s trajectory with primary use of speed advisories. While the focus is on speed advisories to support all aircraft and different levels of equipage, the concept also constitutes a framework in which advanced avionics as airborne time-of-arrival control can be integrated once this technology is widely available. In addition to managing temporal uncertainty through metering at multiple points, this temporal uncertainty is minimised by improving the supporting trajectory prediction capability. A novel two-stage trajectory prediction process is presented to adequately integrate aircraft trajectory data available through Future Air Navigation Systems (FANS) into the ground-based trajectory predictor. FANS is standard equipment on any wide-body aircraft in production today, and some single-aisle aircraft are easily capable of being fitted with FANS. In addition to automatic position reporting, FANS provides the ability to provide (part of) the reference trajectory held by the aircraft’s Flight Management System (FMS), but this capability has yet been widely overlooked. The two-stage process provides a ‘best of both world’s’ solution to the air-ground synchronisation problem by synchronising with the FMS reference trajectory those dimensions controlled by the guidance mode, and improving on the prediction of the remaining open dimensions by exploiting the high resolution meteorological forecast available to a ground-based system. The two-stage trajectory prediction process was applied to a sample of 438 FANS-equipped Boeing 737-800 flights into Melbourne conducting a continuous descent free from ATC intervention, and can be extrapolated to other types of aircraft. Trajectories predicted through the two-stage approach provided estimated time of arrivals with a 30% reduction in standard deviation of the error compared to estimated time of arrival calculated by the FMS. This improved predicted trajectory can subsequently be used to set the sequence and allocate landing slots. Based on the allocated landing slot, the proposed system calculates a speed schedule for the aircraft to meet this landing slot at minimal flight efficiency impact. A novel algorithm is presented that determines this speed schedule without requiring an iterative process in which multiple calls to a trajectory predictor need to be made. The algorithm is based on parameterisation of the trajectory prediction process, allowing the estimate time of arrival to be represented by a polynomial function of the speed schedule, providing an analytical solution to the speed schedule required to meet a set arrival time. The arrival management solution proposed in this thesis leverages the use of existing avionics and communications systems resulting in new value for industry for current investment. The solution therefore supports a transition concept from mixed equipage towards advanced avionics currently under development. Benefits realised under this transition may provide an incentive for ongoing investment in avionics.
Resumo:
El objetivo del presente Proyecto Fin de Grado es la realización de una comparativa de los resultados obtenidos en las medidas de SAR (tasa de absorción específica) y potencia utilizando la normativa europea CENELEC (basada en la del IEC) y la americana FCC (basada en la del IEEE) para distintos dispositivos móviles duales. En primer lugar se ha realizado el estudio de sus características de potencia y de SAR, viendo la variación que hay con respecto a las distintas normativas y rangos de frecuencias. En algunos casos, aunque funcionan sin problema alguno en las diferentes bandas, la diferencia de niveles de emisiones obtenidos en las diferentes bandas puede ser notable. Como se ha comentado al comienzo, se han utilizado diferentes dispositivos duales y se realizaron en ellos las medidas pertinentes utilizando las diferentes normativas y el procedimiento indicado en cada una de ellas. Para observar las diferencias concretas que pudieran existir al utilizar las diferentes normativas, las medidas se han realizado en todas las bandas de funcionamiento del dispositivo y para cada una de ellas se han aplicado las diferentes normativas. Con esto se pretende evaluar si pudiera existir alguna discrepancia en los dispositivos que tienen el certificado de conformidad para una norma concreta cuando se utiliza en otra banda que no es exactamente la banda de utilización de esa norma. En resumen, se quería comprobar que un dispositivo que está certificado con la norma de una región, por ejemplo Europa (900 y 1800 MHz), también cumple si se utiliza en otra región, por ejemplo América (850 y 1900 MHz). La realización práctica del presente PFG se ha hecho en las instalaciones del Laboratorio de Radiofrecuencia de la Secretaría de Estado de Telecomunicación y para la Sociedad de la Información ubicado en El Casar (Guadalajara). En concreto se utilizó el robot articulado movible DASY4 y el software para su control DASY 52.8, disponible en el “banco de medida de Campos Electromagnéticos (Sala de SAR)”. La duración estimada del presente PFG ha sido aproximadamente de cuatro meses. Para llevar a cabo el presente PFG, se dispuso de todo tipo de material y recursos puestos a disposición por el Ministerio de Industria, Turismo y Comercio en el propio laboratorio, así como de los distintos terminales móviles duales con los que se realizaron las medidas pertinentes. Como bibliografía básica se han utilizado las diferentes normas indicadas anteriormente, es decir la norma europea CENELEC (basada en la del IEC) y la americana FCC (basada en la del IEEE), así como manuales de los equipos implicados en el bando de medida de SAR: analizadores de redes, robot articulado y software de control, así como el resto de dispositivos utilizados en las medidas. ABSTRACT. The goal of this Final Degree Project is to perform a comparison of the results obtained in SAR measurements (specific absorption rate) and power using the European standards CENELEC (based on IEC Regulation) and the American FCC (based on IEEE Regulation) to different mobile dual devices. If first place it was made the study of its power and SAR features, seeing that there is shift with respect to the different standards and frequency ranges. In some cases, although they work without any problem in different bands, the difference in levels of emissions obtained in the different bands can be significant. As mentioned at the beginning, different dual devices were used and relevant measurements were taken from them using the different standards and the procedure in each one of them. To see the specific differences that may exist when using the different standards, the measurements were made in all bands of the device operation and to each one it has been applied in the different standards. This attempted to assess whether there could be some discrepancy in the devices that have the certificate of compliance to a specify standard when used in another band that is not exactly the used band of this standard. To sum up, it was required to verify that a device which is certified to the standard of a region, for example (900 and 1800 MHz), also verifies if it is used in another region, for example America (850 and 1900 MHz). The practical realization of this Final Degree Project was made in the facilities of the Radio Frequency Laboratory of the Ministry of State for Telecommunications and the Information Society located in El Casar (Guadalajara). Specifically, the movable articulated robot DASY4 was used and the control software DASY 52.8, available in the “Measure Electromagnetic Field testbench (SAR room)”. The duration of this Final Degree Project has benn about four months. To carry out the present project, all kinds of materials and resources were provided by the Ministry of Industry, Tourism and Trade in its own laboratory, as well as the different mobile dual terminals with which relevant measurements were made. As basic references the different standards indicated above has been used, that is to say the European standard CENELEC (based on IEC standard) and the American FCC (based on IEEE standard), as well as the equipment manuals involved in the SAR measure testbench: network analyzers, articulated robot and control software, as well as the rest of the devices used in the measurements.
Resumo:
Since the Digital Agenda for Europe released the Europe2020 flagship, Member States are looking for ways of fulfilling their agreed commitments to fast and ultrafast internet deployment. However, Europe is not a homogenous reality. The economic, geographic, social and demographic features of each country make it a highly diverse region to develop best practices over Next Generation Access Networks (NGAN) deployments. There are special concerns about NGAN deployments for “the final third”, as referred to the last 25% of the country’s population who, usually, live in rural areas. This paper assesses, through a techno-economic analysis, the access cost of providing over 30 Mbps broadband for the final third of Spain`s population in municipalities, which are classified into area types, referred to as geotypes. Fixed and mobile technologies are compared in order to determine which is the most cost-effective technology for each geotype. The demographic limit for fixed networks (cable, fibre and copper) is also discussed. The assessment focuses on the supply side and the results show the access network cost only. The research completes a previous published assessment (Techno-economic analysis of next generation access networks roll-out. The case of platform competition, regulation and public policy in Spain) by including the LTE scenario. The LTE scenario is dimensioned to provide 30 Mbps (best effort) broadband, considering a network take-up of 25%. The Rocket techno-economic model is used to assess a ten-year study period deployment. Nevertheless, the deployment must start in 2014 and be completed by 2020, in order to fulfil the Digital Agenda’s goals. The feasibility of the deployment is defined as the ability to recoup the investment at the end of the study period. This ability is highly related to network take-up and, therefore, to service adoption. Network deployment in each geotype is compared with the cost of the deployment in the Urban geotype and broadband expected penetration rates for clarity and simplicity. Debating the cost-effective deployments for each geotype, while addressing the Digital Agenda’s goals regarding fast and ultrafast internet, is the main purpose of this paper. At the end of the last year, the independent Spanish regulation agency released the Spain broadband coverage report at the first half of 2013. This document claimed that 59% and 52% of Spain’s population was already covered by NGAN capable of providing 30 Mbps and 100 Mbps broadband respectively. HFC, with 47% of population coverage, and FTTH, with 14%, were considered as a 100 Mbps capable NGAN. Meanwhile VDSL, with 12% of the population covered, was the only NGAN network considered for the 30 Mbps segment. Despite not being an NGAN, the 99% population coverage of HSPA networks was also noted in the report. Since mobile operators are also required to provide 30 Mbps broadband to 90% of the population in rural areas by the end of 2020, mobile networks will play a significant role on the achievement of the 30 Mbps goal in Spain’s final third. The assessment indicates the cost of the deployment per cumulative households coverage with 4 different NGANs: FTTH, HFC, VDSL and LTE. Research shows that an investment ranging from €2,700 (VDSL) to €5,400 (HFC) million will be needed to cover the first half of the population with any fixed technology assessed. The results state that at least €3,000 million will be required to cover these areas with the least expensive technology (LTE). However, if we consider the throughput that fixed networks could provide and achievement of the Digital Agenda’s objectives, fixed network deployments are recommended for up to 90% of the population. Fibre and cable deployments could cover up to a maximum of 88% of the Spanish population cost efficiently. As there are some concerns about the service adoption, we recommend VDSL and mobile network deployments for the final third of the population. Despite LTE being able to provide the most economical roll-out, VDSL could also provide 50 Mbps from 75% to 90% of the Spanish population cost efficiently. For this population gap, facility based competition between VDSL providers and LTE providers must be encouraged. Regarding 90% to 98.5% of the Spanish population, LTE deployment is the most appropriate. Since costumers in less populated the municipalities are more sensitive to the cost of the service, we consider that a single network deployment could be most appropriate. Finally, it has become clear that it is not possible to deliver 30Mbps to the final 1.5% of the population cost-efficiently and adoption predictions are not optimistic either. As there are other broadband alternatives able to deliver up to 20 Mbps, in the authors’ opinion, it is not necessary to cover the extreme rural areas, where public financing would be required.
Resumo:
La presente Tesis plantea una metodología de análisis estadístico de roturas de tubería en redes de distribución de agua, que analiza la relación entre las roturas y la presión de agua y que propone la implantación de una gestión de presiones que reduzca el número de roturas que se producen en dichas redes. Las redes de distribución de agua se deterioran y una de sus graves consecuencias es la aparición de roturas frecuentes en sus tuberías. Las roturas llevan asociados elevados costes sociales, económicos y medioambientales y es por ello por lo que las compañías gestoras del agua tratan de reducirlas en la medida de lo posible. Las redes de distribución de agua se pueden dividir en zonas o sectores que facilitan su control y que pueden ser independientes o aislarse mediante válvulas, como ocurre en las redes de países más desarrollados, o pueden estar intercomunicados hidráulicamente. La implantación de una gestión de presiones suele llevarse a cabo a través de las válvulas reductoras de presión (VPR), que se instalan en las cabeceras de estos sectores y que controlan la presión aguas abajo de la misma, aunque varíe su caudal de entrada. Los métodos más conocidos de la gestión de presiones son la reducción de presiones, que es el control más habitual, el mantenimiento de la presión, la prevención y/o alivio de los aumentos repentinos de presión y el establecimiento de un control por alturas. A partir del año 2005 se empezó a reconocer el efecto de la gestión de presiones sobre la disminución de las roturas. En esta Tesis, se sugiere una gestión de presiones que controle los rangos de los indicadores de la presión de cabecera que más influyan en la probabilidad de roturas de tubería. Así, la presión del agua se caracteriza a través de indicadores obtenidos de la presión registrada en la cabecera de los sectores, debido a que se asume que esta presión es representativa de la presión de operación de todas las tuberías porque las pérdidas de carga son relativamente bajas y las diferencias topográficas se tienen en cuenta en el diseño de los sectores. Y los indicadores de presión, que se pueden definir como el estadístico calculado a partir de las series de la presión de cabecera sobre una ventana de tiempo, pueden proveer la información necesaria para ayudar a la toma de decisiones a los gestores del agua con el fin de reducir las roturas de tubería en las redes de distribución de agua. La primera parte de la metodología que se propone en esta Tesis trata de encontrar los indicadores de presión que influyen más en la probabilidad de roturas de tuberías. Para conocer si un indicador es influyente en la probabilidad de las roturas se comparan las estimaciones de las funciones de distribución acumulada (FDAs) de los indicadores de presiones, considerando dos situaciones: cuando se condicionan a la ocurrencia de una rotura (suceso raro) y cuando se calculan en la situación normal de operación (normal operación). Por lo general, las compañías gestoras cuentan con registros de roturas de los años más recientes y al encontrarse las tuberías enterradas se complica el acceso a la información. Por ello, se propone el uso de funciones de probabilidad que permiten reducir la incertidumbre asociada a los datos registrados. De esta forma, se determinan las funciones de distribución acumuladas (FDAs) de los valores del indicador de la serie de presión (situación normal de operación) y las FDAs de los valores del indicador en el momento de ocurrencia de las roturas (condicionado a las roturas). Si las funciones de distribución provienen de la misma población, no se puede deducir que el indicador claramente influya en la probabilidad de roturas. Sin embargo, si se prueba estadísticamente que las funciones proceden de la misma población, se puede concluir que existe una relación entre el indicador analizado y la ocurrencia de las roturas. Debido a que el número de valores del indicador de la FDA condicionada a las roturas es mucho menor que el número de valores del indicador de la FDA incondicional a las roturas, se generan series aleatorias a partir de los valores de los indicadores con el mismo número de valores que roturas registradas hay. De esta forma, se comparan las FDAs de series aleatorias del indicador con la FDA condicionada a las roturas del mismo indicador y se deduce si el indicador es influyente en la probabilidad de las roturas. Los indicadores de presión pueden depender de unos parámetros. A través de un análisis de sensibilidad y aplicando un test estadístico robusto se determina la situación en la que estos parámetros dan lugar a que el indicador sea más influyente en la probabilidad de las roturas. Al mismo tiempo, los indicadores se pueden calcular en función de dos parámetros de cálculo que se denominan el tiempo de anticipación y el ancho de ventana. El tiempo de anticipación es el tiempo (en horas) entre el final del periodo de computación del indicador de presión y la rotura, y el ancho de ventana es el número de valores de presión que se requieren para calcular el indicador de presión y que es múltiplo de 24 horas debido al comportamiento cíclico diario de la presión. Un análisis de sensibilidad de los parámetros de cálculo explica cuándo los indicadores de presión influyen más en la probabilidad de roturas. En la segunda parte de la metodología se presenta un modelo de diagnóstico bayesiano. Este tipo de modelo forma parte de los modelos estadísticos de prevención de roturas, parten de los datos registrados para establecer patrones de fallo y utilizan el teorema de Bayes para determinar la probabilidad de fallo cuando se condiciona la red a unas determinadas características. Así, a través del teorema de Bayes se comparan la FDA genérica del indicador con la FDA condicionada a las roturas y se determina cuándo la probabilidad de roturas aumenta para ciertos rangos del indicador que se ha inferido como influyente en las roturas. Se determina un ratio de probabilidad (RP) que cuando es superior a la unidad permite distinguir cuándo la probabilidad de roturas incrementa para determinados intervalos del indicador. La primera parte de la metodología se aplica a la red de distribución de la Comunidad de Madrid (España) y a la red de distribución de Ciudad de Panamá (Panamá). Tras el filtrado de datos se deduce que se puede aplicar la metodología en 15 sectores en la Comunidad de Madrid y en dos sectores, llamados corregimientos, en Ciudad de Panamá. Los resultados demuestran que en las dos redes los indicadores más influyentes en la probabilidad de las roturas son el rango de la presión, que supone la diferencia entre la presión máxima y la presión mínima, y la variabilidad de la presión, que considera la propiedad estadística de la desviación típica. Se trata, por tanto, de indicadores que hacen referencia a la dispersión de los datos, a la persistencia de la variación de la presión y que se puede asimilar en resistencia de materiales a la fatiga. La segunda parte de la metodología se ha aplicado a los indicadores influyentes en la probabilidad de las roturas de la Comunidad de Madrid y se ha deducido que la probabilidad de roturas aumenta para valores extremos del indicador del rango de la presión y del indicador de la variabilidad de la presión. Finalmente, se recomienda una gestión de presiones que limite los intervalos de los indicadores influyentes en la probabilidad de roturas que incrementen dicha probabilidad. La metodología propuesta puede aplicarse a otras redes de distribución y puede ayudar a las compañías gestoras a reducir el número de fallos en el sistema a través de la gestión de presiones. This Thesis presents a methodology for the statistical analysis of pipe breaks in water distribution networks. The methodology studies the relationship between pipe breaks and water pressure, and proposes a pressure management procedure to reduce the number of breaks that occur in such networks. One of the manifestations of the deterioration of water supply systems is frequent pipe breaks. System failures are one of the major challenges faced by water utilities, due to their associated social, economic and environmental costs. For all these reasons, water utilities aim at reducing the problem of break occurrence to as great an extent as possible. Water distribution networks can be divided into areas or sectors, which facilitates the control of the network. These areas may be independent or isolated by valves, as it usually happens in developing countries. Alternatively, they can be hydraulically interconnected. The implementation of pressure management strategies is usually carried out through pressure-reducing valves (PRV). These valves are installed at the head of the sectors and, although the inflow may vary significantly, they control the downstream pressure. The most popular methods of pressure management consist of pressure reduction, which is the common form of control, pressure sustaining, prevention and/or alleviation of pressure surges or large variations in pressure, and level/altitude control. From 2005 onwards, the effects of pressure management on burst frequencies have become more widely recognized in the technical literature. This thesis suggests a pressure management that controls the pressure indicator ranges most influential on the probability of pipe breaks. Operating pressure in a sector is characterized by means of a pressure indicator at the head of the DMA, as head losses are relatively small and topographical differences were accounted for at the design stage. The pressure indicator, which may be defined as the calculated statistic from the time series of pressure head over a specific time window, may provide necessary information to help water utilities to make decisions to reduce pipe breaks in water distribution networks. The first part of the methodology presented in this Thesis provides the pressure indicators which have the greatest impact on the probability of pipe breaks to be determined. In order to know whether a pressure indicator influences the probability of pipe breaks, the proposed methodology compares estimates of cumulative distribution functions (CDFs) of a pressure indicator through consideration of two situations: when they are conditioned to the occurrence of a pipe break (a rare event), and when they are not (a normal operation). Water utilities usually have a history of failures limited to recent periods of time, and it is difficult to have access to precise information in an underground network. Therefore, the use of distribution functions to address such imprecision of recorded data is proposed. Cumulative distribution functions (CDFs) derived from the time series of pressure indicators (normal operation) and CDFs of indicator values at times coincident with a reported pipe break (conditioned to breaks) are compared. If all estimated CDFs are drawn from the same population, there is no reason to infer that the studied indicator clearly influences the probability of the rare event. However, when it is statistically proven that the estimated CDFs do not come from the same population, the analysed indicator may have an influence on the occurrence of pipe breaks. Due to the fact that the number of indicator values used to estimate the CDF conditioned to breaks is much lower in comparison with the number of indicator values to estimate the CDF of the unconditional pressure series, and that the obtained results depend on the size of the compared samples, CDFs from random sets of the same size sampled from the unconditional indicator values are estimated. Therefore, the comparison between the estimated CDFs of random sets of the indicator and the estimated CDF conditioned to breaks allows knowledge of if the indicator is influential on the probability of pipe breaks. Pressure indicators depend on various parameters. Sensitivity analysis and a robust statistical test allow determining the indicator for which these parameters result most influential on the probability of pipe breaks. At the same time, indicators can be calculated according to two model parameters, named as the anticipation time and the window width. The anticipation time refers to the time (hours) between the end of the period for the computation of the pressure indicator and the break. The window width is the number of instantaneous pressure values required to calculate the pressure indicator and is multiple of 24 hours, as water pressure has a cyclical behaviour which lasts one day. A sensitivity analysis of the model parameters explains when the pressure indicator is more influential on the probability of pipe breaks. The second part of the methodology presents a Bayesian diagnostic model. This kind of model belongs to the class of statistical predictive models, which are based on historical data, represent break behavior and patterns in water mains, and use the Bayes’ theorem to condition the probability of failure to specific system characteristics. The Bayes’ theorem allows comparing the break-conditioned FDA and the unconditional FDA of the indicators and determining when the probability of pipe breaks increases for certain pressure indicator ranges. A defined probability ratio provides a measure to establish whether the probability of breaks increases for certain ranges of the pressure indicator. The first part of the methodology is applied to the water distribution network of Madrid (Spain) and to the water distribution network of Panama City (Panama). The data filtering method suggests that the methodology can be applied to 15 sectors in Madrid and to two areas in Panama City. The results show that, in both systems, the most influential indicators on the probability of pipe breaks are the pressure range, which is the difference between the maximum pressure and the minimum pressure, and pressure variability, referred to the statistical property of the standard deviation. Therefore, they represent the dispersion of the data, the persistence of the variation in pressure and may be related to the fatigue in material resistance. The second part of the methodology has been applied to the influential indicators on the probability of pipe breaks in the water distribution network of Madrid. The main conclusion is that the probability of pipe breaks increases for the extreme values of the pressure range indicator and of the pressure variability indicator. Finally, a pressure management which limits the ranges of the pressure indicators influential on the probability of pipe breaks that increase such probability is recommended. The methodology presented here is general, may be applied to other water distribution networks, and could help water utilities reduce the number of system failures through pressure management.
Resumo:
La modelización es un proceso por el que se obtienen modelos de los procesos del ´mundo real´ mediante la utilización de simplificaciones. Sin embargo, las estimaciones obtenidas con el modelo llevan implícitas incertidumbre que se debe evaluar. Mediante un análisis de sensibilidad se puede mejorar la confianza en los resultados, sin embargo, este paso a veces no se realiza debido básicamente al trabajo que lleva consigo este tipo de análisis. Además, al crear un modelo, hay que mantener un equilibrio entre la obtención de resultados lo más exactos posible mediante un modelo lo más sencillo posible. Por ello, una vez creado un modelo, es imprescindible comprobar si es necesario o no incluir más procesos que en un principio no se habían incluido. Los servicios ecosistémicos son los procesos mediante los cuales los ecosistemas mantienen y satisfacen el bienestar humano. La importancia que los servicios ecosistémicos y sus beneficios asociados tienen, junto con la necesidad de realizar una buena gestión de los mismos, han estimulado la aparición de modelos y herramientas para cuantificarlos. InVEST (Integrated Valuation of Ecosystem Services and Tradoffs) es una de estas herramientas específicas para calcular servicios eco-sistémicos, desarrollada por Natural Capital Project (Universidad de Stanford, EEUU). Como resultado del creciente interés en calcular los servicios eco-sistémicos, se prevé un incremento en la aplicación del InVEST. La investigación desarrollada en esta Tesis pretende ayudar en esas otras importantes fases necesarias después de la creación de un modelo, abarcando los dos siguientes trabajos. El primero es la aplicación de un análisis de sensibilidad al modelo en una cuenca concreta mediante la metodología más adecuada. El segundo es relativo a los procesos dentro de la corriente fluvial que actualmente no se incluyen en el modelo mediante la creación y aplicación de una metodología que estudiara el papel que juegan estos procesos en el modelo InVEST de retención de nutrientes en el área de estudio. Los resultados de esta Tesis contribuirán a comprender la incertidumbre involucrada en el proceso de modelado. También pondrá de manifiesto la necesidad de comprobar el comportamiento de un modelo antes de utilizarlo y en el momento de interpretar los resultados obtenidos. El trabajo en esta Tesis contribuirá a mejorar la plataforma InVEST, que es una herramienta importante en el ámbito de los servicios de los ecosistemas. Dicho trabajo beneficiará a los futuros usuarios de la herramienta, ya sean investigadores (en investigaciones futuras), o técnicos (en futuros trabajos de toma de decisiones o gestión ecosistemas). ABSTRACT Modeling is the process to idealize real-world situations through simplifications in order to obtain a model. However, model estimations lead to uncertainties that have to be evaluated formally. The role of the sensitivity analysis (SA) is to assign model output uncertainty based on the inputs and can increase confidence in model, however, it is often omitted in modelling, usually as a result of the growing effort it involves. In addition, the balance between accuracy and simplicity is not easy to assess. For this reason, when a model is developed, it is necessary to test it in order to understand its behavior and to include, if necessary, more complexity to get a better response. Ecosystem services are the conditions and processes through which natural ecosystems, and their constituent species, sustain and fulfill human life. The relevance of ecosystem services and the need to better manage them and their associated benefits have stimulated the emergence of models and tools to measure them. InVEST, Integrated Valuation of Ecosystem Services and Tradoffs, is one of these ecosystem services-specific tools developed by the Natural Capital Project (Stanford University, USA). As a result of the growing interest in measuring ecosystem services, the use of InVEST is anticipated to grow exponentially in the coming years. However, apart from model development, making a model involves other crucial stages such as its evaluation and application in order to validate estimations. The work developed in this thesis tries to help in this relevant and imperative phase of the modeling process, and does so in two different ways. The first one is to conduct a sensitivity analysis of the model, which consists in choosing and applying a methodology in an area and analyzing the results obtained. The second is related to the in-stream processes that are not modeled in the current model, and consists in creating and applying a methodology for testing the streams role in the InVEST nutrient retention model in a case study, analyzing the results obtained. The results of this Thesis will contribute to the understanding of the uncertainties involved in the modeling process. It will also illustrate the need to check the behavior of every model developed before putting them in production and illustrate the importance of understanding their behavior in terms of correctly interpreting the results obtained in light of uncertainty. The work in this thesis will contribute to improve the InVEST platform, which is an important tool in the field of ecosystem services. Such work will benefit future users, whether they are researchers (in their future research), or technicians (in their future work in ecosystem conservation or management decisions).
Resumo:
In order to reduce costs and time while improving quality, durability and sustainability in structural concrete constructions, a widely used material nowadays, special care must be taken in some crucial phases of the project and execution, including the structure design and calculation, the dosage, dumping and curing of concrete: another important aspect is the proper design and execution of assembly plans and construction details. The framework, a name designating the whole reinforcement bars cage already assembled as shown in the drawings, can be made up of several components and implies higher or lower industrialization degree. The framework costs constitute about one third of the price per cubic meter placed in concrete works. The best solutions from all points of view are clearly those involving an easier processing to achieve the same goal, and consequently carrying a high degree of industrialization, meaning quality and safety in the work. This thesis aims to provide an indepth analysis of a relatively new type of anchoring by plate known as headed reinforcement bars, which can potentially replace standard or L-shaped hooks, improving the cleaning of construction details and enabling a faster, more flexible, and therefore a more economical assembly. A literature review on the topic and an overview of typical applications is provided, followed by some examples of specific applications in real projects. Since a strict theoretical formulation used to provide the design plate dimensions has not yet been put forward, an equation is proposed for the side-face blowout strength of the anchorage, based on the capacity of concrete to carry concentrated loads in cases in which no transverse reinforcement is provided. The correlation of the calculated ultimate load with experimental results available in the literature is given. Besides, the proposed formulation can be expanded to cases in which a certain development length is available: using a software for nonlinear finite element analysis oriented to the study of reinforced concrete, numerical tests on the bond-bearing interaction are performed. The thesis ends with a testing of eight corner joints subjected to a closing moment, held in the Structures Laboratory of the Polytechnic University of Madrid, aiming to check whether the design of such plates as stated is adequate for these elements and whether an element with plate-anchored reinforcement is equivalent to one with a traditional construction detail.
Resumo:
Esta tesis pretende contribuir al fomento y utilización de la energía solar como alternativa para la producción de agua caliente en el sector agroindustrial. La demanda de agua caliente es un aspecto clave en un gran número de agroindustrias y explotaciones agrarias. Esta demanda presenta una gran variabilidad, tanto en los horarios en que se solicita como en la temperatura del agua del depósito requerida (TADr), difiriendo del perfil de demanda habitual para uso doméstico. Existe una necesidad de profundizar en la influencia que tiene la variación de la TADr en la eficiencia y viabilidad de estos sistemas. El objetivo principal de esta tesis es caracterizar el funcionamiento de un sistema solar térmico (SST) con captador de tubos de vacío (CTV) para producir agua a temperaturas superiores a las habituales en estos sistemas. Se pretende determinar la influencia que la TADr tiene sobre la eficiencia energética del sistema, cuantificar el volumen de agua caliente que es capaz de suministrar en función de la TADr y determinar la rentabilidad del SST como sistema complementario de suministro. Para ello, se ha diseñado, instalado y puesto a punto un sistema experimental de calentamiento de agua, monitorizando su funcionamiento a diferentes TADr bajo condiciones ambientales reales. Los resultados cuantifican cómo el aumento de la TADr provoca una disminución de la energía suministrada al depósito, pudiendo superar diferencias de 1000 Wh m-2 d-1 entre 40 ºC y 80 ºC, para valores de irradiación solar próximos a 8000 Wh m-2 d-1 (la eficiencia del sistema oscila entre 73% y 56%). Esta reducción es consecuencia de la disminución de la eficiencia del captador y del aumento de las pérdidas de calor en las tuberías del circuito. En cuanto al agua suministrada, cuanto mayor es la TADr, mayor es la irradiación solar requerida para que tenga lugar la primera descarga de agua, aumentando el tiempo entre descargas y disminuyendo el número de éstas a lo largo del día. A medida que se incrementa la TADr, se produce una reducción del volumen de agua suministrado a la TADr, por factores como la pérdida de eficiencia del captador, las pérdidas en las tuberías, la energía acumulada en el agua que no alcanza la TADr y la mayor energía extraída del sistema en el agua producida. Para una TADr de 80 ºC, una parte importante de la energía permanece acumulada en el depósito sin alcanzar la TADr al final del día. Para aprovechar esta energía sería necesario disponer de un sistema complementario de suministro, ya que las pérdidas de calor nocturnas en el depósito pueden reducir considerablemente la energía útil disponible al día siguiente. La utilización del sistema solar como sistema único de suministro es inviable en la mayoría de los casos, especialmente a TADr elevadas, al no ajustarse la demanda de agua caliente a la estacionalidad de la producción del sistema solar, y al existir muchos días sin producción de agua caliente por la ausencia de irradiación mínima. Por el contrario, la inversión del sistema solar como sistema complementario para suministrar parte de la demanda térmica de una instalación es altamente recomendable. La energía útil anual del sistema solar estimada oscila entre 1322 kWh m-2 y 1084 kWh m-2. La mayor rentabilidad se obtendría suponiendo la existencia de una caldera eléctrica, donde la inversión se recuperaría en pocos años -entre 5.7 años a 40 ºC y 7.2 años a 80 ºC -. La rentabilidad también es elevada suponiendo la existencia de una caldera de gasóleo, con periodos de recuperación inferiores a 10 años. En una industria ficticia con demanda de 100 kWh d-1 y caldera de gasóleo existente, la inversión en una instalación solar optimizada sería rentable a cualquier TADr, con valores de VAN cercanos a la inversión realizada -12000 € a 80 ºC y 15000€ a 40 ºC- y un plazo de recuperación de la inversión entre 8 y 10 años. Los resultados de este estudio pueden ser de gran utilidad a la hora de determinar la viabilidad de utilización de sistemas similares para suministrar la demanda de agua caliente de agroindustrias y explotaciones agropecuarias, o para otras aplicaciones en las que se demande agua a temperaturas distintas de la habitual en uso doméstico (60 ºC). En cada caso, los rendimientos y la rentabilidad vendrán determinados por la irradiación de la zona, la temperatura del agua requerida y la curva de demanda de los procesos específicos. ABSTRACT The aim of this thesis is to contribute to the development and use of solar energy as an alternative for producing hot water in the agribusiness sector. Hot water supply is a key issue for a great many agribusinesses and agricultural holdings. Both hot water demand times and required tank water temperature (rTWT) are highly variable, where the demand profile tends to differ from domestic use. Further research is needed on how differences in rTWT influence the performance and feasibility of these systems. The main objective of this thesis is to characterize the performance and test the feasibility of an evacuated tube collector (ETC) solar water heating (SWH) system providing water at a higher temperature than is usual for such systems. The aim is to determine what influence the rTWT has on the system’s energy efficiency, quantify the volume of hot water that the system is capable of supplying at the respective rTWT and establish whether SWH is feasible as a booster supply system for the different analysed rTWTs. To do this, a prototype water heating system has been designed, installed and commissioned and its performance monitored at different rTWTs under real operating conditions. The quantitative results show that a higher rTWT results in a lower energy supply to the tank, where the differences may be greater than 1000 Wh m-2 d-1 from 40 ºC to 80 ºC for insolation values of around 8000 Wh m-2 d-1 (system efficiency ranges from 73% to 56%). The drop in supply is due to lower collector efficiency and greater heat losses from the pipe system. As regards water supplied at the rTWT, the insolation required for the first withdrawal of water to take place is greater at higher rTWTs, where the time between withdrawals increases and the number of withdrawals decreases throughout the day. As rTWT increases, the volume of water supplied at the rTWT decreases due to factors such as lower collector efficiency, pipe system heat losses, energy stored in the water at below the rTWT and more energy being extracted from the system by water heating. For a rTWT of 80 ºC, much of the energy is stored in the tank at below the rTWT at the end of the day. A booster supply system would be required to take advantage of this energy, as overnight tank heat losses may significantly reduce the usable energy available on the following day. It is often not feasible to use the solar system as a single supply system, especially at high rTWTs, as, unlike the supply from the solar heating system which does not produce hot water on many days of the year because insolation is below the required minimum, hot water demand is not seasonal. On the other hand, investment in a solar system as a booster system to meet part of a plant’s heat energy demand is highly recommended. The solar system’s estimated annual usable energy ranges from 1322 kWh m-2 to 1084 kWh m-2. Cost efficiency would be greatest if there were an existing electric boiler, where the payback period would be just a few years —from 5.7 years at 40 ºC to 7.2 years at 80 ºC—. Cost efficiency is also high if there is an existing diesel boiler with payback periods of under 10 years. In a fictitious industry with a demand of 100 kWh day-1 and an existing diesel boiler, the investment in the solar plant would be highly recommended at any rTWT, with a net present value similar to investment costs —12000 € at 80 ºC and 15000 € at 40 ºC— and a payback period of 10 years. The results of this study are potentially very useful for determining the feasibility of using similar systems for meeting the hot water demand of agribusinesses and arable and livestock farms or for other applications demanding water at temperatures not typical of domestic demand (60ºC). Performance and cost efficiency will be determined by the regional insolation, the required water temperature and the demand curve of the specific processes in each case.
Resumo:
The Iberian pig valued natural resources of the pasture when fattened in mountain. The variability of acorn production is not contained in any line of Spanish agricultural insurance. However, the production of arable pasture is covered by line insurance number 133 for loss of pasture compensation. This scenario is only contemplated for breeding cows and brave bulls, sheep, goats and horses, although pigs are not included. This insurance is established by monitoring ten-day composites Normalized Difference Vegetation Index (NDVI) measured by satellite over treeless pastures, using MODIS TERRA satellite. The aim of this work is to check if we can use a satellite vegetation index to estimate the production of acorns.
Resumo:
La modelización es un proceso por el que se obtienen modelos de los procesos del ´mundo real´ mediante la utilización de simplificaciones. Sin embargo, las estimaciones obtenidas con el modelo llevan implícitas incertidumbre que se debe evaluar. Mediante un análisis de sensibilidad se puede mejorar la confianza en los resultados, sin embargo, este paso a veces no se realiza debido básicamente al trabajo que lleva consigo este tipo de análisis. Además, al crear un modelo, hay que mantener un equilibrio entre la obtención de resultados lo más exactos posible mediante un modelo lo más sencillo posible. Por ello, una vez creado un modelo, es imprescindible comprobar si es necesario o no incluir más procesos que en un principio no se habían incluido. Los servicios ecosistémicos son los procesos mediante los cuales los ecosistemas mantienen y satisfacen el bienestar humano. La importancia que los servicios ecosistémicos y sus beneficios asociados tienen, junto con la necesidad de realizar una buena gestión de los mismos, han estimulado la aparición de modelos y herramientas para cuantificarlos. InVEST (Integrated Valuation of Ecosystem Services and Tradoffs) es una de estas herramientas específicas para calcular servicios eco-sistémicos, desarrollada por Natural Capital Project (Universidad de Stanford, EEUU). Como resultado del creciente interés en calcular los servicios eco-sistémicos, se prevé un incremento en la aplicación del InVEST. La investigación desarrollada en esta Tesis pretende ayudar en esas otras importantes fases necesarias después de la creación de un modelo, abarcando los dos siguientes trabajos. El primero es la aplicación de un análisis de sensibilidad al modelo en una cuenca concreta mediante la metodología más adecuada. El segundo es relativo a los procesos dentro de la corriente fluvial que actualmente no se incluyen en el modelo mediante la creación y aplicación de una metodología que estudiara el papel que juegan estos procesos en el modelo InVEST de retención de nutrientes en el área de estudio. Los resultados de esta Tesis contribuirán a comprender la incertidumbre involucrada en el proceso de modelado. También pondrá de manifiesto la necesidad de comprobar el comportamiento de un modelo antes de utilizarlo y en el momento de interpretar los resultados obtenidos. El trabajo en esta Tesis contribuirá a mejorar la plataforma InVEST, que es una herramienta importante en el ámbito de los servicios de los ecosistemas. Dicho trabajo beneficiará a los futuros usuarios de la herramienta, ya sean investigadores (en investigaciones futuras), o técnicos (en futuros trabajos de toma de decisiones o gestión ecosistemas). ABSTRACT Modeling is the process to idealize real-world situations through simplifications in order to obtain a model. However, model estimations lead to uncertainties that have to be evaluated formally. The role of the sensitivity analysis (SA) is to assign model output uncertainty based on the inputs and can increase confidence in model, however, it is often omitted in modelling, usually as a result of the growing effort it involves. In addition, the balance between accuracy and simplicity is not easy to assess. For this reason, when a model is developed, it is necessary to test it in order to understand its behavior and to include, if necessary, more complexity to get a better response. Ecosystem services are the conditions and processes through which natural ecosystems, and their constituent species, sustain and fulfill human life. The relevance of ecosystem services and the need to better manage them and their associated benefits have stimulated the emergence of models and tools to measure them. InVEST, Integrated Valuation of Ecosystem Services and Tradoffs, is one of these ecosystem services-specific tools developed by the Natural Capital Project (Stanford University, USA). As a result of the growing interest in measuring ecosystem services, the use of InVEST is anticipated to grow exponentially in the coming years. However, apart from model development, making a model involves other crucial stages such as its evaluation and application in order to validate estimations. The work developed in this thesis tries to help in this relevant and imperative phase of the modeling process, and does so in two different ways. The first one is to conduct a sensitivity analysis of the model, which consists in choosing and applying a methodology in an area and analyzing the results obtained. The second is related to the in-stream processes that are not modeled in the current model, and consists in creating and applying a methodology for testing the streams role in the InVEST nutrient retention model in a case study, analyzing the results obtained. The results of this Thesis will contribute to the understanding of the uncertainties involved in the modeling process. It will also illustrate the need to check the behavior of every model developed before putting them in production and illustrate the importance of understanding their behavior in terms of correctly interpreting the results obtained in light of uncertainty. The work in this thesis will contribute to improve the InVEST platform, which is an important tool in the field of ecosystem services. Such work will benefit future users, whether they are researchers (in their future research), or technicians (in their future work in ecosystem conservation or management decisions).