999 resultados para lineare Programmierung, zertifizierte Lösbarkeit, sichere Zielfunktionswertschranke, SMT Löser, ICP


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se presentan las mejoras introducidas en un código de transporte de radiación acoplada a la hidrodinámica llamado ARWEN para el estudio de sistemas en el rango de física de alta densidad de energía (High Energy Density Physics). Los desarrollos introducidos se basan en las siguientes áreas: ít>,~ Ecuaciones de estado: se desarrolla una nueva metodología mediante la cual es posible ajustar los resultados de un modelo simple de ecuaciones de estado como QEOS a datos experimentales y resultados de AIMD. Esta metodología tiene carácter general para poder ser aplicada en gran cantidad de materuales de interés y amplia la flexibilidad de ajuste de los métodos de los que ha partido como base este trabajo. En segundo lugar, se ha desarrollado una librería para la gestión de tablas de datos de ecuaciones de estado que también incluye la gestión de tablas con datos de opacidades y de ionización. Esta nueva librería extiende las capacidades de la anterior al tener llamadas más específicas que aceleran los cálculos, y posibilidad de uso de varias tablas a la vez. Solver de difusión: se ha desarrollado un nuevo paquete para resolver la ecuación de difusión que se aplicará a la conducción de calor dentro del plasma. El método anterior no podía ser ejecutado en paralelo y producía resultados dependientes de la resolución de la malla, mientras que este método es paralelizable y además obtiene una solución con mejor convergencia, lo que supone una solución que no depende del refinamiento del mallado. Revisión del paquete de radiación: en primer lugar se ha realizado una revisión de la implementación del modelo de radiación descubriendo varios errores que han sido depurados. También se ha incluido la nueva librería de gestión de tablas de opacidades que permiten la obtención de las propiedades ópticas del plasma en multigrupos de energía. Por otra parte se ha extendido el cálculo de los coeficientes de transporte al esquema multimaterial que ha introducido David Portillo García en el paquete hidrodinámico del código de simulación. Por último se ha revisado el esquema de resolución del transporte y se ha modificado para hacerlo paralelizable. • Se ha implementado un paquete de trazado de rayos para deposición láser que extiende la utilidad del anterior al ser en 3D y poder utilizar entonces diferentes configuraciones. • Una vez realizadas todas estas tareas se ha aplicado el código ARWEN al estudio de la astrofísica de laboratorio simulando los experimentos llevados a cabo en la instalación PALS por Chantal Stehlé acerca de ondas de choque radiativas. Se han comparado los resultados experimentales frente a las predicciones del código ARWEN obteniéndose una gran concordancia en la velocidad de la onda de choque generada y en las dimensiones del precursor. El código de simulación sobre el que se ha trabajado, junto con los desarrollos aportados por otros investigadores durante la realización de esta tesis, ha permitido participar en colaboraciones con laboratorios de Francia o Japón y se han producido resultados científicos publicados basados en el trabajo descrito en esta tesis. ABSTRACT Improvements in radiation hydrodynamic code ARWEN for the study of systems in the range of physics high energy density (High Energy Density Physics) are presented. The developments introduced are based on the following áreas: • Equations of state: a new methodology was developed to adjust the results of a simple Equation of State model like QEOS to experimental data and results of AIMD. This methodology can be applied to a large amount of materials and it increases the flexibility and range of the previous methods used as basis for this work. Also a new computer library has been developed to manage data tables of thermodynamic properties as well as includes the management of opacity and ionization data tables. This new library extends the capabilities of the previous one with more specific routines, and the possibility of using múltiple tables for several materials. • Diffusion solver: a new package has been developed to solve the diffusion equation applied to the heat conduction of the plasma. The previous method is not parallelizable and it produced mesh dependent results, while this new package can be executed in parallel and achieves a more converged solution that does not depend on the refinement of the mesh. • Radiation package: the check of the radiation model rose several bugs in the implementation that had been removed. The new computer library for EOS managing includes capabilities to store opacity tables for multigroups of energy. Moreover the transport coefficients calculations have been extended for the new multimaterial hydrodynamic package developed by David Portillo García. Also the solving methodology for the transport equation has been modified to make the code run in parallel. • A new ray tracing package has been introduced to extend the previous one to 3D. Once all these tasks has been implemented, the ARWEN code has been applied to study laboratory astrophysics systems. Simulations have been done in order to reproduce the results of the experiments carried out in PALS facility by Chantal Stehlé in radiative shock production. Experimental results are in cióse agreement to the ARWEN estimations of the speed of the shock wave and the length of the precursor. The simulation code used in this thesis, including the work done in ARWEN by other colleagues at the time of this research, allowed the collaboration with other research institution in France and Japan and some of the results presented in this thesis have been published in scientific journals.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente estudio, se realizó en las instalaciones del CSD con los velocistas del Centro de Alto Rendimiento, se analizó en él una carrera de velocidad de 100m utilizando instrumentos novedosos como son el láser para la obtención de la velocidad instantánea y plantillas podológicas instrumentadas para la medición de la fuerza vertical de los apoyos. Estos instrumentos nos aportan una información imposible de conseguir hasta la fecha fuera de un contexto de laboratorio permitiendo que podamos analizar con detalle en cada fase de la carrera de velocidad tanto la cinemática como la cinética de la misma. Además, a partir de los resultados que nos aportan estos instrumentos y de su posterior análisis, nos encontramos en disposición de entregar a los entrenadores con los que colaboramos un informe detallado acerca de las características específicas de sus corredores en cada tramo de la carrera que les permitirá hacer los ajustes necesarios en su entrenamiento con los que optimizar el rendimiento de sus atletas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La investigación del flujo aerodinámico sobre helipuertos embarcados se encuentra estrechamente relacionada con la operación segura de las aeronaves, pues las condiciones del flujo que tiene lugar en ese entorno pueden exceder los límites para los que están certificadas dichas aeronaves. El ambiente aerodinámico en las inmediaciones de un barco es altamente complejo y se encuentra influenciado por gran número de factores (chimeneas, antenas, mástiles, etc.) relacionados con la configuración específica del propio barco. El flujo objeto de investigación corresponde a la estela que se desarrolla sobre la cubierta de vuelo de una fragata, el cual está fuertemente influenciado por la superestructura de la misma, y que cualitativamente es similar al flujo que tiene lugar entre edificios altos o helipuertos situados en áreas urbanas, pues comprende estructuras tipo caja, con bordes afilados, que generan flujos tridimensionales altamente turbulentos. En esta Tesis se aborda el estudio del problema desde el punto de vista experimental, mediante simulación en túnel aerodinámico y medida de las variables del campo fluido sobre maquetas de fragatas a escala reducida. Las herramientas empleadas para tal cometido, han sido técnicas experimentales, tales como la visualización del flujo, la velocimetría láser por imágenes de partículas, la anemometría láser Doppler y los scanners electrónicos de presión, que han permitido investigar el flujo problema con objeto de obtener información, y adquirir así, un conocimiento más profundo de dicho flujo. La explotación de este conocimiento, ha dado lugar al diseño de una nueva solución, basada en la modificación de geometría básica de la fragata, por medio del cambio de la curvatura del techo del hangar, permitiendo suavizar el escalón descendente que se produce aguas abajo del mismo. Las geometrías modificadas han sido ensayada en túnel mediante la misma metodología empleada para la fragata original, de modo que, ha podido establecerse un análisis comparativo, para valorar la efectividad de la solución propuesta, el cual ha mostrado resultados satisfactorios, retirando el flujo adverso de la zona de operación de helicópteros y desplazándolo hacia el hangar, donde resulta menos peligroso, de modo que se reduce la carga del piloto y los riesgos de accidente durante las operaciones a bordo de embarcaciones. ABSTRACT The investigation of aerodynamic flow above the ship’s heliports is directly related to the aircraft safe operation, because the environment flow conditions may exceed the aircraft certification limits. Aerodynamic ship’s environment is highly complex and it is influenced by a large number of factors (stacks, antennae, masts, …) related to each specific ship configuration. The flow under investigation occurs into the wake produced above the flight deck of a frigate, that is strongly influenced by the superstructure. This flow is similar to one produced around tall buildings or heliports located in urban areas, thus in both of them, the air is flowing around sharp-edges box-like structures, producing three-dimensional and highly turbulent flows. This Thesis studies the problem from an experimental point of view, by means of wind tunnel simulations and measurements of the flow field around reduced scale frigates models. Tools used in this work are the experimental techniques, as flow visualization, particle image velocimetry, laser Doppler anemometry and pressure electronic scanners. These techniques provide information about the flow in order to obtain a more complete insight of this kind of flows. The exploitation of this insight is used for the design of a new flow control concept, based on the modification of the basic frigate geometry. This new design consists in the hangar roof curvature modification that produces a smoothing of the descendent step located downstream the hangar. Modified geometries are tested in wind tunnel by means of the same methodology as the original frigate, thus a comparative analysis is established in order to perform an assessment of effectiveness. This analysis has shown good results in displacing the adverse flow from the helicopter operation path to the nearest hangar region, reducing the pilot load and the accident risks during on board operations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Previous work of the research group [1-4] demonstrated the viability of using periodic lattices of micro and nanopillars, called Bio-photonic sensing Cells (BICELLs), as an optical biosensor vertically characterized by visible spectrometry. Also we have studied theoretically [5] the performance of the BICELLs by 2D and 3D simulation in orde r to optimize the biosensing response. In this work we present the fabrication and biosensing comparison of different geometrical parameters on periodic lattices of pillars in order to discuss theoretical conclusions with these results. In this way, we have explored the biosensing response of other patter ns such as crosses, stars, cylinders, concentrical cylinders (Figure 1). Also we introduced a novel method to test the BICELLs in a cost-effective way by using an ultra-thin film of SU-8 spin-coated onto the patterns to reproduce the effect of a biofilm attached to the biosensor surface. Finally we have tested the biosensing response of the different geometries by the well-known Bovine Serum Albumin (BSA) immunoassay and compared with the theoretical simulation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Desde el año 2004 el código ARWEN ha sido utilizado con éxito para simular y diseñar experimentos relacionados con blancos para fusión por confinamiento inercial [146], astrofísica de laboratorio [145], plasmas como amplificadores de láseres de rayos X [107] o plasmas creados por láser para la medición de espectros de transmisión. Para la realización de estas simulaciones es necesario, además de métodos de alto orden precisos y que presenten buenas propiedades conservativas, conocer ciertas propiedades de los plasmas. En el caso de la fluidodinámica y la conducción electrónica necesitaremos conocer la ecuación de estado [94, 49, 36], y para el transporte de la radiación será preciso disponer de los datos de absorción y emisión [104, 95, 40]. Hasta el año 2009 ARWEN dependía de códigos externos para la generación de estas tablas de opacidad, careciendo de control sobre los métodos empleados para su generación. Además estos códigos asumían equilibrio local termodinámico (LTE), limitando su validez a rangos de alta densidad y baja temperatura. En el marco de esta tesis se ha desarrollado el código BIGBART para la generación de tablas detalladas de opacidad y emisividad para su uso en el módulo de transporte de radiación. De esta forma el grupo dispondrá de su propia herramienta de generación de propiedades radiativas. El código desarrollado es capaz de tratar plasmas en estado fuera de equilibrio (non-LTE) mediante el modelo colisional-radiativo, extendiendo así el rango de validez de las tablas generadas. El trabajo desarrollado para implementar un código LTE/non-LTE estacionario es el siguiente Cálculo de estructura y datos atómicos. Se ha acoplado en código FAC a BIGBART, incorporando la capacidad para generar potenciales atómicos para una configuración y el cálculo de funciones de onda de electrones en orbitales ligados y libres. Aproximaciones y métodos para la obtención de tasas y secciones eficaces de procesos. Se han incluido y programado los modelos implementados en FAC para el cálculo de secciones eficaces de fotoionización, y tasas de decaimiento de emisión espontánea y autoionización. Además se ha incluido el modelo Plane-Wave Born (PWBA) para el cálculo de las secciones eficaces de ionización y excitación colisional. Modelos para la obtención de la distribución de estados iónicos dentro del plasma. Se ha programado un solver LTE basado en la ecuación de Saha-Boltzmann con efectos de ionización por presión debida a los iones adyacentes. También se ha implementado un modelo non-LTE colisionalradiativo para la resolución del sistema de ecuaciones que nos permite obtener la densidad de estados iónicos fuera de equilibrio. Modelo non-LTE RADIOM. Se ha implementado el modelo RADIOM para aproximar efectos de no-equilibrio mediante cálculos LTE a una temperatura equivalente, menor o igual que la temperatura electrónica real. Cálculo de las propiedades espectrales de absorción y emisión. Se han implementado los modelos para el cálculo de los perfiles espectrales de absorción y emisión para procesos entre niveles ligados, ligado-libre y librelibre. Aprovechando el trabajo realizado en este sentido, durante el transcurso de esta tesis se amplió el código BIGBART para tratar problemas con dependencia temporal. La extensión para tratar este tipo de problemas se orientó a la simulación numérica de la interacción de láseres ultra intensos en el rango XUV/rayos X. Para ello, además de adaptar el modelo non-LTE colisionalradiativo se incluyeron procesos adicionales asociados a la interacción de la materia con fotones altamente energéticos. También se han incluido modelos para el cálculo de las propiedades ópticas, y por ende las propiedades dieléctricas de la materia irradiada, de gran interés en algunas aplicaciones novedosas de estos láseres intensos. Debido a la naturaleza fuertemente fuera de equilibrio en la interacción de fotones de alta energía con la materia, se incluyó el tratamiento de la distribución de electrones libres fuera de equilibrio en la aproximación de Fokker-Planck, tanto para condiciones degeneradas como no degeneradas. El trabajo desarrollado en el código non-LTE con dependencia temporal es el siguiente Procesos asociados a láseres intensos XUV/rayos X. Se ha implementado el cálculo de procesos radiativos estimulados de absorción y emisión por el láser. También se han incluido procesos asociados a la creación de vacantes en capas internas electrónicas (Shake), además de doble autoionización y doble fotoionización. Cálculo de propiedades ópticas y dieléctricas en blancos sólidos. Se ha implementado un modelo para la absorción por bremsstrahlung inverso en blancos en estado sólido. Con el coeficiente de extinción debido a procesos de fotoabsorción resonante, fotoionización y bremsstrahlung inverso se obtiene el ´ındice de refracción mediante la relación de Kronig-Kramers. Electrones fuera de equilibrio. Se ha tratado la evolución de la distribución de electrones, cuando no está justificado asumir que es Maxwelliana o de Fermi-Dirac, mediante la aproximación de Fokker-Planck para la colisión entre electrones libres. En la resolución de la ecuación de Fokker-Planck se han incluido los procesos inelásticos por colisiones con iones y términos fuente por interacción con el láser y otros procesos. ABSTRACT Since 2004 the ARWEN code has been successfully used to simulate and design targets for inertial confinement fusion experiments [146], laboratory astrophysics [145], plasmas as X-ray lasers amplifiers [107] or laser created plasmas for measuring transmission spectra. To perform these simulations it is necessary, in addition to high order precise methods with good conservative properties, to know certain properties of plasmas. For fluid dynamic and electronic conduction we need to know the equation of state [94, 49, 36], and for radiation transport it will be necessary to have the data of the absorption and emission [104, 95, 40]. Until 2009 ARWEN depended on external codes to generate these opacity tables, lacking of control over the methods used for their generation. Besides, these codes assumed local thermodynamic equilibrium (LTE), limiting their validity ranges to high densities and low temperatures. As part of this thesis it has been developed the BIGBART code for generating detailed opacity and emissivity tables for use in the radiation transport module. This group will have its own tool for the generation of radiative properties. The developed code is capable of treating plasmas out of equilibrium (non-LTE) by means of a collisional-radiative model, extending the range of validity of the generated tables. The work to implement an LTE/non-LTE steady-state code is as follows Calculation of structure and atomic data. the FAC code was coupled to BIGBART, incorporating the ability to generate atomic potentials for calculating configuration wave functions for bound and free electrons. Approaches and methods for obtaining cross sections and processes rates. We have included and reprogrammed in Fortran the models implemented in FAC for calculation of photoionization cross sections and decay rates of spontaneous emission and autoionization. We also included the Plane- Wave Born (PWBA) model to calculate the cross sections of ionization and collisional excitation. Models for the obtention of the distribution of ionic states within the plasma. We programmed a LTE solver based on the Saha-Boltzmann equation with pressure ionization effects due to adjacent ions. It has also been implemented a non-LTE collisional-radiative model for solving the system of equations that allows us to obtain the density of ionic states out of equilibrium. Non-LTE RADIOM model. We have implemented the non-LTE RADIOM model to approximate non-equilibrium effects with LTE data at an equivalent temperature, lower or equal to the actual electronic temperature. Calculation of the spectral absorption and emission properties. Models have been implemented for the calculation of the spectral profiles of absorption and emission processes between bound levels, free-bound and free-free. Taking advantage of the work done in this direction throughout the course of this thesis the code BIGBART was extended to treat time-dependent problems. The extension to treat such problems is oriented to the numerical simulation of the interaction of ultra intense lasers in the XUV/X-ray range. For this range, in addition to adapting the non-LTE collisional-radiative model, additional processes associated with the interaction of matter with high energy photons. We also included models for calculation of the optical properties, and therefore the dielectric properties of the irradiated material, of great interest in some novel applications of these intense lasers. Due to the strong non-equilibrium nature of the interaction of high energy photons with matter, we included the treatment of the distribution of free electrons out of equilibrium in the Fokker-Planck approximation for both degenerate and non-degenerate conditions. The work in the non-LTE time-dependent code is as follows Processes associated with intense XUV/X-ray lasers. We have implemented the calculation of stimulated radiative processes in absorption and emission. Also we included processes associated with the creation of electronic vacancies in inner shells (Shake), double autoionization and double photoionization. Calculation of optical and dielectric properties in solid targets. We have implemented a model for inverse bremsstrahlung absorption in solid targets. With the extinction coefficient from resonant photoabsorption, photoionization and inverse bremsstrahlung the refractive index is obtained by the Kramers-Kronig relation. Electrons out of equilibrium. We treat the evolution of the electron distribution, when it is not justified to assume a Maxwellian or Fermi-Dirac distribution, by the Fokker-Planck approximation for collisions between electrons. When solving the Fokker-Planck equation we included inelastic collision processes with ions and source terms by interaction with the laser and other processes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este trabajo, se han llevado a cabo distintos experimentos en laboratorio, con el objetivo de estudiar el efecto de la aplicación de residuos orgánicos como fuentes de P en las pérdidas de este elemento, que se producen en suelo, tanto por escorrentía superficial como por lixiviación. El interés por evaluar las pérdidas de P se debe a la necesidad de conocer mejor los factores que influyen en los procesos de pérdidas de este elemento y así, poder reducir los problemas de eutrofización de aguas, tanto superficiales como subterráneas, provocadas por un exceso de este nutriente, junto con otros como el nitrógeno. Los trabajos experimentales que se han llevado a cabo se detallan a continuación: Se ha realizado el estudio de las formas de P contenidas en una serie de 14 residuos orgánicos, de distinto origen y tratamiento (compost, lodos, purines y digestato), comparando la información aportada por tres protocolos de fraccionamientos de P diferentes, seleccionados entre los principales métodos utilizados: protocolo de fraccionamiento de Ruttemberg (1992), protocolo de Normas, medidas y ensayos (Ruban et al., 2001a) y protocolo de Huang et al. (2008). Todos los métodos de fraccionamiento empleados aportaron información útil para conocer las formas de P de los residuos, a pesar de que alguno de ellos fue descrito para sedimentos o suelos. Sin embargo, resulta difícil comparar los resultados entre unos y otros, ya que cada uno emplea extractantes y tiempos de ensayos diferentes. Las cantidades de P total determinadas por cada método mantienen una relación lineal, aunque el método SMT, por ser más directo, obtiene las cantidades más elevadas para todos los residuos. Los métodos secuenciales (métodos de Huang y Ruttemberg), a pesar de ser más largos y tediosos, aportan información más detallada de la disponibilidad de las formas de P, y con ello, permiten obtener una mejor estimación de las pérdidas potenciales de este elemento tras su aplicación en suelo. Se han encontrado relaciones positivas entre las fracciones determinadas por estos dos métodos. Así mismo, se encuentra una correlación entre las formas solubles de P y la concentración de los iones [Ca + Fe + Al] de los residuos, útiles como indicadores de la disponibilidad de este elemento. Sin embargo, el protocolo SMT, no obtiene información de la solubilidad o disponibilidad de las formas de P contenidas, ni las formas determinadas mantienen relaciones directas con las de los otros métodos, con excepción del P total. Para el estudio del comportamiento de los residuos aplicados en suelos, se pusieron a punto sistemas de lluvia simulada, con el objetivo de caracterizar las pérdidas de P en la escorrentía superficial generada. Por otra parte, se emplearon columnas de suelos enmendados con residuos orgánicos, para el estudio de las pérdidas de P por lixiviación. Los ensayos de simulación de lluvia se llevaron a cabo de acuerdo al “National Phosphorus Research proyect“ (2001), que consigue simular eventos sucesivos de lluvia en unas condiciones semejantes a la realidad, empleando cajas llenas de suelo del horizonte superficial, con residuos aplicados tanto superficialmente como mediante mezcla con el propio suelo. Los ensayos se realizaron con seis residuos de diferente naturaleza y sometidos a distintos tratamientos. Se encontraron diferencias significativas en las pérdidas de las formas de P analizadas, tanto disueltas como particuladas, en las aguas de escorrentía generadas. En general, las pérdidas en el primer evento de lluvia tras la aplicación de los residuos fueron mayores a las generadas en el segundo evento, predominando las formas de P particuladas respecto a las disueltas en ambos. Se encontró una relación positiva entre las pérdidas de P en las aguas de escorrentía generadas en cada ensayo, con los contenidos de P soluble en agua y fácilmente disponible de los residuos empleados, determinados por los protocolos de fraccionamientos secuenciales. Además, se emplearon los modelos matemáticos desarrollados por Vadas et al. (2005, 2007), de evaluación de las pérdidas de P por escorrentía para fertilizantes y estiércoles. La predicción de estos modelos no se cumple en el caso de todos los residuos. Las distintas propiedades físicas de los residuos pueden afectar a las diferencias entre las pérdidas experimentales y las esperadas. Los ensayos de simulación del proceso de lixiviación se llevaron a cabo en columnas de percolación, con suelos enmendados con residuos orgánicos, de acuerdo a la norma “CEN/TS 14405–2004: Caracterización de los residuos – Test de comportamiento de lixiviación – Test de flujo ascendente”. Las pérdidas de P por procesos de lixiviación de agua, han sido despreciadas durante mucho tiempo respecto a las pérdidas por escorrentía. Sin embargo, se ha demostrado que deben tenerse en consideración, principalmente en algunos tipos de suelos o zonas cercanas a acuíferos. Se utilizaron tres suelos de distinta procedencia para los ensayos, de manera que se pudo estudiar la influencia del tipo de suelo en las pérdidas de P para cada tipo de residuo (purín, compost, digestato y lodo de EDAR). Los índices de adsorción de P determinados para cada suelo permiten evaluar aquellos que presentarán más riesgo de producir pérdidas de este elemento al aplicarse fuentes externas de P, encontrando una relación positiva entre ambos. Las pérdidas de P en los lixiviados varían en función tanto del residuo como del suelo empleado. Para el compost, el purín y el lodo, se encontró una relación entre las pérdidas generadas en el agua lixiviada de las columnas y las formas de P soluble contenidas en los residuos. Sin embargo, en el caso del digestato, no existía esta correlación. Las pérdidas para este residuo fueron en todos los casos menores a las estimadas, considerando las formas de P contenido. El estudio de la mojabilidad, propiedad física del residuo que evalúa la capacidad de interacción residuo-agua, permitió explicar el comportamiento anómalo de este residuo, con una mayor resistencia a que el agua entrara en su estructura y por tanto, una mayor dificultad de solubilizar el P contenido en el propio residuo, que en el caso de otros residuos. En general, podemos considerar que el estudio de las formas de P más disponibles o solubles en agua, aporta información útil de las pérdidas potenciales de P. Sin embargo, es necesario estudiar las propiedades físicas de los residuos orgánicos aplicados y la capacidad de adsorción de P de los suelos, para estimar las pérdidas de P y con ello, colaborar a controlar los procesos de eutrofización en aguas. ABSTRACT This dissertation explores the effect of organic wastes application as sources of P in losses of this element that occur by both surface runoff and leaching in soil. To do so, diverse laboratory experiments are conducted and presented here. Evaluating P losses is necessary to better understand the factors that influence the processes behind the loss of this element. Reducing P losses reduces eutrophication problems of both surface water and groundwater caused by an excess of this nutrient, along with other as nitrogen. Details of the experiments are presented below: The first experiment studies the forms of P contained in a series of 14 organic wastes of different origin and treatment (compost, sludge, slurry and digestate), comparing the information provided by three methods of P fractionation. The methods selected were: Ruttemberg protocol (1992); Standards, Measurements and Testing protocol (Ruban et al., 2001a); and Huang protocol (Huang et al., 2008). All fractionation methods employed successfully contribute to our knowledge of P forms in wastes, even though one of them was originally described for sediments or soils information. However, it is difficult to compare results among each other, as each protocol employs different extractants and time in the trials. Total amounts of P obtained by each method show a linear relationship, although the SMT method, which is more direct, obtains the highest amounts for all residues. Sequential methods (Huang and Ruttemberg’s protocols), despite being longer and more tedious, provide more detailed information on the availability of the forms of P. Therefore, allow the estimation of the potential losses of P after application in soil. Furthermore, positive relationships have been found among fractions obtained by these methods. Positive relationship has been found also among soluble forms of P and the concentration of ions Fe + Ca + Al, which is useful as an indicator of the availability of this element. However, the SMT protocol does not collect information about solubility or availability of forms of P contained; neither do certain forms maintain direct relations with the forms from other methods, with the exception of total P methods. To study the behavior of wastes applied to soils two experiments were conducted. Simulated rain systems were prepared to characterize P losses in the surface runoff generated. In addition, columns of soils amended with organic waste were developed for the study of P leaching losses. Simulated rain systems were carried out according to the ’National Phosphorus Research Project’ (2001), which manages to simulate successive rainfall events in conditions resembling reality. The experiment uses boxes filled with soil from the surface horizon amended with residues, both superficially and by mixing with the soil. Tests were conducted with six residues of different type and subjected to diverse treatments. Findings show significant differences in losses of the P forms analyzed in the generated runoff water, in both solution and particulate forms. In general, losses in the first rainfall event after application of waste were higher than the losses generated in the second event, predominating particulate forms of P over dissolved forms in both events. In all trials, a positive relationship was found between various P forms determined by sequential fractionation protocols (water soluble P and readily available P forms) and P losses in runoff. Furthermore, results from Vadas´s mathematical models (Vadas et al., 2005; 2007) to assess P losses by runoff fertilizers and manures indicate that the prediction of this model is not fulfilled in the case of all residues. The diverse physical properties of wastes may affect the differences between experimental and expected losses. Finally, leaching simulation processes were carried out in percolation columns, filled with soils amended with organic wastes, following the ‘CEN/TS 14405-2004 standard: Characterization of waste - Leaching behavior test - Test Flow ascending ’. P losses by leaching have been neglected for a long time with respect to runoff losses. However, findings corroborate previous studies showing that these P losses have to be taken into account, especially in certain types of soils and in zones near aquifers. To study the influence of soil type on P losses, experiments were carried out with three different soils and for each type of waste (manure, compost, digestate and sludge WWTP). Each soil’s P adsorption rates allow assessing which soils imply a higher risk of P losses when external sources of P are applied. P losses in leachate vary according to the type of soil employed and according to the specific residue. In the case of compost, manure and sludge, there is a relationship between leaching losses and residues’ soluble forms of P. The exception being the digestate, where there was no such correlation. Digestate P losses by leaching were lower than expected in all cases considering the forms of P contained. Moreover, examining digestate wettability -- that is, the physical property of the residue that assesses the capacity of waste-water interaction -- allowed explaining the anomalous behavior of this residue. Digestate has a high resistance to water entering its structure and thus higher difficulty to solubilize the P contained. Overall, studying the more available or soluble P forms provides useful information about the potential loss of P. However, this dissertation shows that it is necessary to examine the physical properties of organic residues applied as well as the P adsorption capacity of soils to estimate P losses, and thus to control eutrophication in water.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Gestión Forestal Sostenible se define como “la administración y uso de los bosques y tierras forestales de forma e intensidad tales que mantengan su biodiversidad, productividad, capacidad de regeneración, vitalidad y su potencial para atender, ahora y en el futuro, las funciones ecológicas, económicas y sociales relevantes a escala local, nacional y global, y que no causan daño a otros ecosistemas” (MCPFE Conference, 1993). Dentro del proceso los procesos de planificación, en cualquier escala, es necesario establecer cuál será la situación a la que se quiere llegar mediante la gestión. Igualmente, será necesario conocer la situación actual, pues marcará la situación de partida y condicionará el tipo de actuaciones a realizar para alcanzar los objetivos fijados. Dado que, los Proyectos de Ordenación de Montes y sus respectivas revisiones son herramientas de planificación, durante la redacción de los mismos, será necesario establecer una serie de objetivos cuya consecución pueda verificarse de forma objetiva y disponer de una caracterización de la masa forestal que permita conocer la situación de partida. Esta tesis se centra en problemas prácticos, propios de una escala de planificación local o de Proyecto de Ordenación de Montes. El primer objetivo de la tesis es determinar distribuciones diamétricas y de alturas de referencia para masas regulares por bosquetes, empleando para ello el modelo conceptual propuesto por García-Abril et al., (1999) y datos procedentes de las Tablas de producción de Rojo y Montero (1996). Las distribuciones de referencia obtenidas permitirán guiar la gestión de masas irregulares y regulares por bosquetes. Ambos tipos de masas aparecen como una alternativa deseable en aquellos casos en los que se quiere potenciar la biodiversidad, la estabilidad, la multifuncionalidad del bosque y/o como alternativa productiva, especialmente indicada para la producción de madera de calidad. El segundo objetivo de la Tesis está relacionado con la necesidad de disponer de una caracterización adecuada de la masa forestal durante la redacción de los Proyectos de Ordenación de Montes y de sus respectivas revisiones. Con el fin de obtener estimaciones de variables forestales en distintas unidades territoriales de potencial interés para la Ordenación de Montes, así como medidas de la incertidumbre en asociada dichas estimaciones, se extienden ciertos resultados de la literatura de Estimación en Áreas Pequeñas. Mediante un caso de estudio, se demuestra el potencial de aplicación de estas técnicas en inventario forestales asistidos con información auxiliar procedente de sensores láser aerotransportados (ALS). Los casos de estudio se realizan empleando datos ALS similares a los recopilados en el marco del Plan Nacional de Ortofotografía Aérea (PNOA). Los resultados obtenidos muestran que es posible aumentar la eficiencia de los inventarios forestales tradicionales a escala de proyecto de Ordenación de Montes, mediante la aplicación de estimadores EBLUP (Empirical Best Linear Unbiased Predictor) con modelos a nivel de elemento poblacional e información auxiliar ALS similar a la recopilada por el PNOA. ABSTRACT According to MCPFE (1993) Sustainable Forest Management is “the stewardship and use of forests and forest lands in a way, and at a rate, that maintains their biodiversity, productivity, regeneration capacity, vitality and their potential to fulfill, now and in the future, relevant ecological, economic and social functions, at local, national, and global levels, and that does not cause damage to other ecosystems”. For forest management planning, at any scale, we must determine what situation is hoped to be achieved through management. It is also necessary to know the current situation, as this will mark the starting point and condition the type of actions to be performed in order to meet the desired objectives. Forest management at a local scale is no exception. This Thesis focuses on typical problems of forest management planning at a local scale. The first objective of this Thesis is to determine management objectives for group shelterwood management systems in terms of tree height and tree diameter reference distributions. For this purpose, the conceptual model proposed by García-Abril et al., (1999) is applied to the yield tables for Pinus sylvestris in Sierra de Guadrrama (Rojo y Montero, 1996). The resulting reference distributions will act as a guide in the management of forests treated under the group shelterwood management systems or as an approximated reference for the management of uneven aged forests. Both types of management systems are desirable in those cases where forest biodiversity, stability and multifunctionality are pursued goals. These management systems are also recommended as alternatives for the production of high quality wood. The second objective focuses on the need to adequately characterize the forest during the decision process that leads to local management. In order to obtain estimates of forest variables for different management units of potential interest for forest planning, as well as the associated measures of uncertainty in these estimates, certain results from Small Area Estimation Literature are extended to accommodate for the need of estimates and reliability measures in very small subpopulations containing a reduced number of pixels. A case study shows the potential of Small Area Estimation (SAE) techniques in forest inventories assisted with remotely sensed auxiliary information. The influence of the laser pulse density in the quality of estimates in different aggregation levels is analyzed. This study considers low laser pulse densities (0.5 returns/m2) similar to, those provided by large-scale Airborne Laser Scanner (ALS) surveys, such as the one conducted by the Spanish National Geographic Institute for about 80% of the Spanish territory. The results obtained show that it is possible to improve the efficiency of traditional forest inventories at local scale using EBLUP (Empirical Best Linear Unbiased Predictor) estimators based on unit level models and low density ALS auxiliary information.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las técnicas de speckle tienen un gran interés científico e ingenieril, ya que son métodos de ejecución rápida y no destructiva, con base en el análisis de las fluctuaciones de intensidad de la radiación producida cuando la luz coherente de un haz láser es esparcida por un material dado. En este caso se produce un patrón aleatorio de interferencia y difracción donde la suma de las componentes desfasadas dará lugar a máximos y mínimos de intensidad en distintos puntos del espacio. Éste, pese a tratarse de un ruido nocivo en multitud de áreas tales como la transmisión de señales o la holografía, tiene importantes propiedades físicas que lo caracterizan y lo hacen útil como medio para analizar sistemas reales de muy diversa índole. En el presente estudio, se ha llevado a cabo un análisis polarimétrico de la radiación aleatoria esparcida por una serie de muestras metálicas y dieléctricas con el objetivo de establecer una base comparativa que nos permita poder distinguir unas de otras. Para este fin se han comparado los parámetros de polarización de Stokes, el grado de polarización de la luz, las distribuciones de intensidad y el tamaño medio del speckle registrado en los distintos patrones de intensidad. Además, se analizará la dependencia de la rugosidad en el grado de polarización de la luz para los distintos medios sometidos a estudio. Abstract Speckle techniques have a great scientific and engineering interest as they are methods of rapid and non-destructive execution, based on the analysis of the fluctuations of intensity of the radiation produced when coherent light of a laser beam is scattered by a material given. In this case, a random pattern of interference and diffraction occurs where the sum of phase shifted components will result in maximum or minimum of intensity at different points in space. This, despite being a harmful noise in many areas such as signal transmission or holography, has important physical properties that characterize it and make it useful as a means to analyze real systems of various kinds. In the present study, we have conducted a polarimetric analysis of the random radiation scattered by a series of metal and dielectric samples in order to establish a comparative basis to allow us to distinguish one from another. To this end we have compared, the stokes polarization parameters, the degree of polarization (DOP), the intensity distributions and the average size of the speckle registered in the different intensity patterns. Furthermore, dependence of roughness in the DOP of light for the different means under study will be analyzed.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El 7 de julio de 1960, la Hughes Aircraft Company convocó una Conferencia de Prensa en el Hotel Delmonico, de Nueva York, para anunciar la realización del primer láser. En ella, su artífice, T. Maiman señaló las cinco aplicaciones para las que se estimaba que el nuevo descubrimiento podía ser una herramienta formidable. Una de las más significativas era la de lograr “un incremento significativo en el número de canales disponibles en comunicaciones”.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente tesis se centra en el estudio de los fenómenos de transporte de los isótopos de hidrógeno, y más concretamente del tritio, en materiales de interés para los reactores de fusión nuclear. Los futuros reactores de fusión nuclear necesitarán una Planta de Tritio, con una envoltura regeneradora (breeding blanket) y unos sistemas auxiliares claves para su diseño. Por lo tanto su desarrollo y cualificación son cruciales para demostrar que los reactores de fusión son una opción viable como futura fuente de energía. Se han resaltado los diferentes retos de la difusión y retención de estas especies ligeras para cada sistema de la Planta de Tritio, y se han identificado las necesidades experimentales y paramétricas para abordar las simulaciones de difusión, como factores de transporte como la difusividad, absorción/desorción, solubilidad y atrapamiento. Se han estudiado los fenómenos de transporte y parámetros del T en el metal líquido LiPb, componente del breeding blanket tanto para una planta de fusión magnética como inercial. Para ello se han utilizado dos experimentos con características diversas, uno de ellos se ha llevado a cabo en un reactor de alto flujo, y por lo tanto, en condiciones de irradiación, y el otro sin irradiación. Los métodos de simulación numérica aplicados se han adaptado a los experimentos para las mediciones y para estudiar el régimen de transporte. En el estudio de estos experimentos se ha obtenido un valor para algunos de los parámetros claves en el transporte y gestión del tritio en el reactor. Finalmente se realiza un cálculo de la acumulación y difusión de tritio en una primera pared de tungsteno para un reactor de fusión inercial. En concreto para el proyecto de fusión por láser europeo, HiPER (para sus fases 4a y 4b). Se ha estudiado: la implantación de los isótopos de H y He en la pared de W tras una reacción de fusión por iluminación directa con un láser de 48MJ; el efecto en el transporte de T de los picos de temperatura en el W debido a la frecuencia de los eventos de fusión; el régimen de transporte en la primera pared. Se han identificado la naturaleza de las trampas más importantes para el T y se ha propuesto un modelo avanzado para la difusión con trampas. ABSTRACT The present thesis focuses into study the transport phenomenons of hydrogen isotopes, more specifically tritium, in materials of interest for nuclear fusion reactors. The future nuclear reactors will be provided of a Tritium Plant, with its breeding blanket and its auxiliary systems, all of them essential components for the plant. Therefore a reliable development and coalification are key issues to prove the viability of the nuclear fusion reactors as an energy source. The currently challenges for the diffusion and accumulation of these light species for each system of the TP has been studied. Experimental and theoretical needs have been identified and analyzed, specially from the viewpoint of the parameters. To achieve reliable simulations of tritium transport, parameters as diffusivity, absorption/desorption, solubility and trapping must be reliables. Transport phenomenon and parameters of T in liquid metal have been studied. Lead lithium is a key component of the breeding blanket, either in magnetic or inertial fusion confinement. Having this aim in mind, two experiments with different characteristics have been used; one of them has been realized in a high flux reactor, and hence, under irradiation conditions. The other one has been realized without radiation. The mathematical methods for the simulation have been adapted to the experiments, for the measures and also to study the transport behavior. A value for some key parameters for tritium management has been obtained in these studies. Finally, tritium accumulation and diffusion in a W first wall of an inertial nuclear fusion reactor has been assessed. A diffusion model of the implanted H, D, T and He species for the two initial phases of the proposed European laser fusion Project HiPER (namely, phase 4a and phase 4b) has been implemented using Tritium Migration Analysis Program, TMAP7. The effect of the prompt and working temperatures and the operational pulsing modes on the diffusion are studied. The nature of tritium traps in W and their performance has been analyzed and discussed.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este artículo se presenta un avance más en el proceso de aplicación de las últimas técnicas de adquisición de datos para la documentación del archivo de planos del IETcc, en el año en el que se celebra el 80 aniversario de su construcción. En este trabajo se expone la realización del levantamiento del comedor de personal, elemento singular del edificio, que ha sufrido modificaciones a través del tiempo. En una etapa posterior se editarán los datos, para realizar los planos que permitan la comparación con los que se conservan en el archivo del IETcc. Se ha utilizado el escáner láser, que ha pasado de ser una tecnología emergente a ser una técnica presente, útil y una alternativa real a la fotogrametría terrestre en las labores de reconocimiento y análisis del patrimonio arquitectónico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo de este Proyecto Fin de Carrera (PFC) es obtener la representación tridimensional de la fachada principal del Monasterio de Santiago de Uclés, monumento de interés histórico y artístico. En concreto se ha elegido la fachada principal construida por Pedro de Ribera por ser representativa del Monasterio y del estilo churrigueresco. Con la tecnología láser escáner, se va a obtener un modelo 3D sobre el que se pueden realizar las medidas necesarias para proyectos de conservación, así como obtener productos con una función divulgativa. El día 14 de Octubre de 2014, se realizó la toma de datos. El levantamiento se llevó a cabo con el equipo de laser escáner Trimble TX5, con la pre-señalización necesaria para realizar una posterior fusión de los mismos (dianas esféricas y cuadradas) y utilizando equipos GNSS Trimble modelos R10, R8 y R6 para la geo-referenciación del proyecto. La técnica utilizada es la que denominamos levantamiento de alta precisión mediante Laser Escáner, que nos permite obtener resultados que aportan una representación fiel del objeto y un levantamiento de los puntos necesarios mediante tecnología GNSS en estático y postproceso, para obtener las coordenadas en el sistema ETRS89 proyección UTM Huso 30 que permitan geo-referenciar el proyecto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los sistemas LIDAR (Light Detection and Ranging) permiten medir la distancia entre dos puntos, evaluando el tiempo que tarda una señal óptica (generalmente procedente de un Láser) en hacer un recorrido de ida y vuelta entre dichos puntos. En los sistemas CW-RM (Continuous Wave - Random Modulated) esta evaluación se hace calculando la correlación entre la señal emitida (pseudoaleatoria) y la recibida (cuyo retardo depender de la distancia entre los puntos). Este sistema CW-RM tiene la ventaja sobre los TOF (Time Of Flight) de que funcionan bien ún con señales recibidas de reducida relación señal a ruido. La precisión de la medida, depende, entre otros parámetros, del tiempo de bit de la secuencia pseudoaleatoria y de la frecuencia de muestreo del sistema que capta las señales y posteriormente las correla. El objetivo del presente trabajo es realizar un sistema de gran precisión, utilizando señales pseudoaleatorias de tiempo de bit de centenas de pico segundo y frecuencia de muestreo de Gs/s, para lo que deberemos utilizar equipamiento disponible en laboratorio, as mismo deberemos seleccionar y con guiar los láseres emisores para que puedan trabajar a estas velocidades. La primera etapa del proyecto será el conocimiento del instrumental de laboratorio que vamos a utilizar en el set-up. La segunda etapa será la realización de un primer montaje en el que se conectará emisor y receptor a través de una fibra óptica de longitud conocida. Esto nos permitir á el desarrollo de algoritmos para extraer información de la medida y para una calibración del instrumental para posteriores medidas. La tercera etapa es el diseño definitivo con emisor al aire para el que tendremos que ajustar todos los elementos ópticos del sistema, de modo que se pueda detectar la luz reflejada y además se pueda reducir parte de la luz de background.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los tipos de datos concurrentes son implementaciones concurrentes de las abstracciones de datos clásicas, con la diferencia de que han sido específicamente diseñados para aprovechar el gran paralelismo disponible en las modernas arquitecturas multiprocesador y multinúcleo. La correcta manipulación de los tipos de datos concurrentes resulta esencial para demostrar la completa corrección de los sistemas de software que los utilizan. Una de las mayores dificultades a la hora de diseñar y verificar tipos de datos concurrentes surge de la necesidad de tener que razonar acerca de un número arbitrario de procesos que invocan estos tipos de datos de manera concurrente. Esto requiere considerar sistemas parametrizados. En este trabajo estudiamos la verificación formal de propiedades temporales de sistemas concurrentes parametrizados, poniendo especial énfasis en programas que manipulan estructuras de datos concurrentes. La principal dificultad a la hora de razonar acerca de sistemas concurrentes parametrizados proviene de la interacción entre el gran nivel de concurrencia que éstos poseen y la necesidad de razonar al mismo tiempo acerca de la memoria dinámica. La verificación de sistemas parametrizados resulta en sí un problema desafiante debido a que requiere razonar acerca de estructuras de datos complejas que son accedidas y modificadas por un numero ilimitado de procesos que manipulan de manera simultánea el contenido de la memoria dinámica empleando métodos de sincronización poco estructurados. En este trabajo, presentamos un marco formal basado en métodos deductivos capaz de ocuparse de la verificación de propiedades de safety y liveness de sistemas concurrentes parametrizados que manejan estructuras de datos complejas. Nuestro marco formal incluye reglas de prueba y técnicas especialmente adaptadas para sistemas parametrizados, las cuales trabajan en colaboración con procedimientos de decisión especialmente diseñados para analizar complejas estructuras de datos concurrentes. Un aspecto novedoso de nuestro marco formal es que efectúa una clara diferenciación entre el análisis del flujo de control del programa y el análisis de los datos que se manejan. El flujo de control del programa se analiza utilizando reglas de prueba y técnicas de verificación deductivas especialmente diseñadas para lidiar con sistemas parametrizados. Comenzando a partir de un programa concurrente y la especificación de una propiedad temporal, nuestras técnicas deductivas son capaces de generar un conjunto finito de condiciones de verificación cuya validez implican la satisfacción de dicha especificación temporal por parte de cualquier sistema, sin importar el número de procesos que formen parte del sistema. Las condiciones de verificación generadas se corresponden con los datos manipulados. Estudiamos el diseño de procedimientos de decisión especializados capaces de lidiar con estas condiciones de verificación de manera completamente automática. Investigamos teorías decidibles capaces de describir propiedades de tipos de datos complejos que manipulan punteros, tales como implementaciones imperativas de pilas, colas, listas y skiplists. Para cada una de estas teorías presentamos un procedimiento de decisión y una implementación práctica construida sobre SMT solvers. Estos procedimientos de decisión son finalmente utilizados para verificar de manera automática las condiciones de verificación generadas por nuestras técnicas de verificación parametrizada. Para concluir, demostramos como utilizando nuestro marco formal es posible probar no solo propiedades de safety sino además de liveness en algunas versiones de protocolos de exclusión mutua y programas que manipulan estructuras de datos concurrentes. El enfoque que presentamos en este trabajo resulta ser muy general y puede ser aplicado para verificar un amplio rango de tipos de datos concurrentes similares. Abstract Concurrent data types are concurrent implementations of classical data abstractions, specifically designed to exploit the great deal of parallelism available in modern multiprocessor and multi-core architectures. The correct manipulation of concurrent data types is essential for the overall correctness of the software system built using them. A major difficulty in designing and verifying concurrent data types arises by the need to reason about any number of threads invoking the data type simultaneously, which requires considering parametrized systems. In this work we study the formal verification of temporal properties of parametrized concurrent systems, with a special focus on programs that manipulate concurrent data structures. The main difficulty to reason about concurrent parametrized systems comes from the combination of their inherently high concurrency and the manipulation of dynamic memory. This parametrized verification problem is very challenging, because it requires to reason about complex concurrent data structures being accessed and modified by threads which simultaneously manipulate the heap using unstructured synchronization methods. In this work, we present a formal framework based on deductive methods which is capable of dealing with the verification of safety and liveness properties of concurrent parametrized systems that manipulate complex data structures. Our framework includes special proof rules and techniques adapted for parametrized systems which work in collaboration with specialized decision procedures for complex data structures. A novel aspect of our framework is that it cleanly differentiates the analysis of the program control flow from the analysis of the data being manipulated. The program control flow is analyzed using deductive proof rules and verification techniques specifically designed for coping with parametrized systems. Starting from a concurrent program and a temporal specification, our techniques generate a finite collection of verification conditions whose validity entails the satisfaction of the temporal specification by any client system, in spite of the number of threads. The verification conditions correspond to the data manipulation. We study the design of specialized decision procedures to deal with these verification conditions fully automatically. We investigate decidable theories capable of describing rich properties of complex pointer based data types such as stacks, queues, lists and skiplists. For each of these theories we present a decision procedure, and its practical implementation on top of existing SMT solvers. These decision procedures are ultimately used for automatically verifying the verification conditions generated by our specialized parametrized verification techniques. Finally, we show how using our framework it is possible to prove not only safety but also liveness properties of concurrent versions of some mutual exclusion protocols and programs that manipulate concurrent data structures. The approach we present in this work is very general, and can be applied to verify a wide range of similar concurrent data types.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La utilización de sensores láser desde plataformas aéreas (LiDAR) ofrece nuevas posibilidades en el cartografiado de sistemas fluviales, tanto en áreas densamente cubiertas por vegetación, como en aquellas que presentan una escasa cubierta. La información topográfica de alta resolución que se obtiene a partir de las medidas láser puede ser utilizada en el análisis y estimación de diversas variables hidrológicas, y en el estudio de diferentes componentes del medio fluvial. Entre éstas, cabe citar la vegetación riparia, la morfología fluvial, el régimen hidrológico o el grado de alteración de los ecosistemas debido a las presiones de origen antrópico. La gestión del medio fluvial puede ser mejorada en gran medida gracias a la precisión y fiabilidad de esta información. En muchas ocasiones, el escaso relieve de los valles fluviales y la densa cubierta vegetal que existe en ellos han dificultado la aplicación de otras técnicas de teledetección. Sin embargo, los datos obtenidos mediante altimetría láser son especialmente aconsejables para estos trabajos, mediante análisis numéricos o a través de la simple interpretación de las imágenes obtenidas. Este artículo muestra las posibilidades de uso de los datos LiDAR en hidrología forestal y en la gestión de zonas húmedas, a lo largo de tramos con condiciones climáticas bien diferenciadas. En todas ellas, se comparan los resultados obtenidos mediante la aplicación de distinto software, con el fin de mostrar la mejor metodología de tratamiento de la información láser. Asimismo, se muestra la diferencia con otras técnicas de teledetección, y se muestra la fácil integración de los datos LiDAR con otras herramientas y metodologías de estudio de las variables citadas.