987 resultados para Densidad
Resumo:
El objeto el presente Proyecto es definir la alternativa seleccionada para la construcción de un nuevo Puerto Deportivo en la Bahía de Pasajes, que proporcione una solución a la demanda de amarres recreativos existente. Además, se resolverá la situación de degradación ambiental existente en su emplazamiento, debida tanto a la intensa actividad industrial desarrollada durante más de 100 años, como a su alta densidad demográfica y el consiguiente volumen de tráfico rodado.
Resumo:
Numerosos estudios (Brickett et al., 2007; Serrano et al., 2012) han demostrado que la granulación del pienso mejora el consumo, los IC y el PV en broilers. La granulación podría aumentar la digestibilidad de algunos de los componentes de la dieta (Abdollahi et al., 2011) y reducir las pérdidas de alimento en animales no rumiantes (Serrano et al., 2012; Berrocoso et al., 2013). Sin embargo, la información disponible sobre el efecto de la presentación del pienso sobre la productividad en pollitas es escasa. Debido a su menor consumo y menor velocidad de crecimiento, es de esperar que los beneficios de la granulación sean inferiores, en valores absolutos, en pollitas que en broilers. La densidad energética del pienso afecta al crecimiento y al IC en avicultura. Las aves comen para satisfacer sus necesidades energéticas (Nahashon et al, 2006) y por tanto, aumentan la ingesta voluntaria de pienso al disminuir el contenido de energía del mismo (Veldkamp et al, 2005). Sin embargo, las pollitas podrían no ser capaces de mantener constante la ingesta de energía con dietas muy diluidas (Pérez-Bonilla et al., 2012). Por otra parte, piensos muy energéticos son más palatables y tienden a aumentar el consumo voluntario, lo que podría resultar en mejoras de las GMD y de los IC (Frikha et al., 2009a; Perez-Bonilla et al., 2012). El objetivo del presente estudio fue comparar los efectos de la presentación del pienso y la concentración energética del mismo sobre los rendimientos productivos en pollitas de 1 a 35 d de edad.
Resumo:
Habitualmente se considera que en los inventarios forestales realizados con tecnología LiDAR no existe error de muestreo. El error en la estimación de las variables se asimila a la bondad de ajuste obtenida en la regresión que se usa para la predicción de dichas variables. Sin embargo el inventario LiDAR puede ser considerado como un muestreo en dos fases con estimador de regresión, por lo que es posible calcular el error que se comete en dicho inventario. Se presenta como aplicación el inventario de los montes de Utilidad Pública números 193 y 194 de la provincia de Soria, poblados principalmente con masas de repoblación de Pinus sylvestris. Se ha trabajado con una muestra de 50 parcelas circulares de 11 metros de radio y una densidad media de datos LiDAR de 2 puntos/m2. Para la estimación del volumen maderable (V) se ha ajustado una regresión lineal con un coeficiente de determinación R2=0,8985. Los resultados muestran que los errores obtenidos en un inventario LiDAR son sustancialmente menores que los obtenidos en un muestreo sistemático por parcelas (5,1% frente a 14.9% en el caso analizado). También se observa que se consigue un error de muestreo mínimo para la estimación del volumen cuando la regresión se realiza pixeles de tamaño igual al de la parcela de muestreo en campo y que para minimizar el error a nivel de rodal es necesario maximizar el rango de aplicación de la regresión.
Resumo:
La gestión forestal de masas mixtas cobra un creciente interés debido a los potenciales beneficios que presentan frente a las masas monoespecíficas, como mayor diversidad, resiliencia, etc. La interacción entre especies es frecuentemente de complementariedad y/o facilitación, lo que conlleva un aumento de la productividad en masas mixtas. Sin embargo, esta relación depende de la composición específica, la estación, edad y densidad de la masa. A partir de datos del Inventario Forestal Nacional se han comparado los crecimientos en volumen de Pinus sylvestris, Fagus sylvatica y Quercus robur / petraea en masas puras y mixtas y bajo distintas densidades. Los resultados mostraron que la eficiencia de crecimiento del pino y del haya aumenta con la presencia de las otras especies, mientras que la del roble no se ve afectada por la presencia de pino y disminuye con la proporción de haya. El efecto de la mezcla varía con la densidad, pero con distinto patrón entre especies. Estos resultados implican que la diversificación de masas monoespecíficas con vocación productiva, además de generar beneficios ecológicos, puede conllevar una mayor producción.
Resumo:
El sistema capitalista ha generado dos de los modelos espaciales de indiferencia funcional más extremos: por un lado, el espacio tecnificado y repetido del edificio de oficinas en altura, encarnado por la ?planta tipo? y, por otro, el espacio diáfano y extenso del gran contendor, que responde a la lógica de lo que llamaremos ?planta única?. En los edificios construidos para la industria automovilística y bélica americana se encuentra el germen de un tipo que servirá de modelo para los nuevos espacios de consumo de bienes y servicios de la ciudad post-industrial. En ella, la identificación del rascacielos con el centro y del contenedor con la periferia sigue vigente, porque la densidad necesaria del primero y la ocupación extensiva del segundo hacen que resulte imposible invertir los términos. Sin embargo, ambos representan el desarrollo estrictamente pragmático de los principios de la ?planta libre? como sistema operativo genérico, dando lugar a construcciones de gran tamaño que ponen a prueba la resistencia a la escala del propio tipo. Tomando como referencia la neutralidad característica de la ?planta única? el texto analiza el comportamiento frente al cambio de tamaño de sus dos configuraciones complementarias: la gran sala hipóstila y la gran sala diáfana.
Resumo:
En esta tesis se aborda el estudio del proceso de isomerización del sistema molecular LiNC/LiCN tanto aislado como en presencia de un pulso láser aplicando la teoría del estado de transición (TST). Esta teoría tiene como pilar fundamental el hecho de que el conocimiento de la dinámica en las proximidades de un punto de silla de la superficie de energía potencial permite determinar los parámetros cinéticos de la reacción objeto de estudio. Históricamente, existen dos formulaciones de la teoría del estado de transición, la versión termodinámica de Eyring (Eyr38) y la visión dinámica de Wigner (Wig38). Ésta última ha sufrido recientemente un amplio desarrollo, paralelo a los avances en sistemas dinámicos que ha dado lugar a una formulación geométrica en el espacio de fases que sirve como base al trabajo desarrollado en esta tesis. Nos hemos centrado en abordar el problema desde una visión fundamentalmente práctica, ya que la teoría del estado de transición presenta una desventaja: su elevado coste computacional y de tiempo de cálculo. Dos han sido los principales objetivos de este trabajo. El primero de ellos ha sido sentar las bases teóricas y computacionales de un algoritmo eficiente que permita obtener las magnitudes fundamentales de la TST. Así, hemos adaptado con éxito un algoritmo computacional desarrollado en el ámbito de la mecánica celeste (Jor99), obteniendo un método rápido y eficiente para la obtención de los objetos geométricos que rigen la dinámica en el espacio de fases y que ha permitido calcular magnitudes cinéticas tales como el flujo reactivo, la densidad de estados de reactivos y productos y en última instancia la constante de velocidad. Dichos cálculos han sido comparados con resultados estadísticos (presentados en (Mül07)) lo cual nos ha permitido demostrar la eficacia del método empleado. El segundo objetivo de esta tesis, ha sido la evaluación de la influencia de los parámetros de un pulso electromagnético sobre la dinámica de reacción. Para ello se ha generalizado la metodología de obtención de la forma normal del hamiltoniano cuando el sistema químico es alterado mediante una perturbación temporal periódica. En este caso el punto fijo inestable en cuya vecindad se calculan los objetos geométricos de interés para la aplicación de la TST, se transforma en una órbita periódica del mismo periodo que la perturbación. Esto ha permitido la simulación de la reactividad en presencia de un pulso láser. Conocer el efecto de esta perturbación posibilita el control de la reactividad química. Además de obtener los objetos geométricos que rigen la dinámica en una cierta vecindad de la órbita periódica y que son la clave de la TST, se ha estudiado el efecto de los parámetros del pulso sobre la reactividad en el espacio de fases global así como sobre el flujo reactivo que atraviesa la superficie divisoria que separa reactivos de productos. Así, se ha puesto de manifiesto, que la amplitud del pulso es el parámetro más influyente sobre la reactividad química, pudiendo producir la aparición de flujos reactivos a energías inferiores a las de aparición del sistema aislado y el aumento del flujo reactivo a valores constantes de energía inicial. ABSTRACT We have studied the isomerization reaction LiNC/LiCN isolated and perturbed by a laser pulse. Transition State theory (TST) is the main tool we have used. The basis of this theory is knowing the dynamics close to a fixed point of the potential energy surface. It is possible to calculate kinetic magnitudes by knowing the dynamics in a neighbourhood of the fixed point. TST was first formulated in the 30's and there were 2 points of view, one thermodynamical by Eyring (Eyr38) and another dynamical one by Wigner (Wig38). The latter one has grown lately due to the growth of the dynamical systems leading to a geometrical view of the TST. This is the basis of the work shown in this thesis. As the TST has one main handicap: the high computational cost, one of the main goals of this work is to find an efficient method. We have adapted a methodology developed in the field of celestial mechanics (Jor99). The result: an efficient, fast and accurate algorithm that allows us to obtain the geometric objects that lead the dynamics close to the fixed point. Flux across the dividing surface, density of states and reaction rate coefficient have been calculated and compared with previous statistical results, (Mül07), leading to the conclusion that the method is accurate and good enough. We have widen the methodology to include a time dependent perturbation. If the perturbation is periodic in time, the fixed point becomes a periodic orbit whose period is the same as the period of the perturbation. This way we have been able to simulate the isomerization reaction when the system has been perturbed by a laser pulse. By knowing the effect of that perturbation we will be able to control the chemical reactivity. We have also studied the effect of the parameters on the global phase space dynamics and on the flux across the dividing surface. It has been prove that amplitude is the most influent parameter on the reaction dynamics. Increasing amplitude leads to greater fluxes and to some flux at energies it would not if the systems would not have been perturbed.
Resumo:
La República de El Salvador está localizada al norte de Centroamérica, limita al norte con Honduras, al este con Honduras y Nicaragua en el Golfo de Fonseca, al oeste con Guatemala y al sur con el Océano Pacífico. Con una población de casi 6.3 millones de habitantes (2012) y una extensión territorial de algo más de 21.000 km2, es el país más pequeño de toda Centroamérica, con la densidad de población más alta (292 habitantes por km2) y una tasa de pobreza que supera el 34%. Actualmente el 63.2% de la población del país se concentra en las ciudades, y más de la cuarta parte de la población se asienta en el Área Metropolitana de El Salvador (AMSS), lo que supone un área de alrededor del 2.6% del territorio salvadoreño. Según el Banco Mundial, el país tiene un PIB per cápita de 3790 dólares (2012). Asimismo, desde hace ya varios años el elemento clave en la economía salvadoreña ha sido las remesas del exterior, las cuales en el 2006 representaron el 15% del PIB, manteniéndose por varios años consecutivos como la más importante fuente de ingresos externos con que cuenta el país (Comisión Económica para América Latina‐CEPAL, 2007). La inestabilidad económica, la desigual distribución de la riqueza, así como la brecha entre los ámbitos urbano y rural, son las principales causas que limitan las capacidades de desarrollo social del país. El Salvador es uno de los países ecológicamente más devastado de América Latina. Más del 95% de sus bosques tropicales de hojas caducas han sido destruidos y más del 70% de la tierra sufre una severa erosión. Según la FAO el país se encuentra en un franco proceso de desertificación. Como consecuencia de ello, casi todas las especies de animales salvajes se han extinguido o están al borde de la extinción, sin que hasta ahora haya indicios de revertir tal proceso. Por otra parte, en el AMSS el 13% de la población habita sobre terrenos en riesgo por derrumbes o demasiado próximos a fuentes de contaminación (Mansilla, 2009). Por su ubicación geográfica, dinámica natural y territorial, El Salvador ha estado sometido históricamente a diferentes amenazas de origen natural, como terremotos, tormentas tropicales, sequías, actividad volcánica, inundaciones y deslizamientos, los que, sumados a los procesos sociales de transformación (la deforestación, los cambios de uso del suelo y la modificación de los cauces naturales), propician condiciones de riesgo y plantean altas posibilidades de que ocurran desastres. Es evidente que la suma del deterioro económico, social y ambiental, combinado con la multiplicidad de amenazas a las que puede verse sometido el territorio, hacen al país sumamente vulnerable a la ocurrencia de desastres de distintas magnitudes e impactos. En la historia reciente de El Salvador se han producido numerosos eventos de gran magnitud, tales como los terremotos de enero y febrero de 2001. El 13 de enero de 2001 El Salvador sufrió un terremoto de magnitud Mw 7.7 relacionado con la zona de subducción de la placa del Coco bajo la placa Caribe, dejando alrededor de 900 muertos y numerosos daños materiales. A este terremoto le siguió un mes después, el 13 de febrero de 2001, otro de magnitud Mw 6.6 de origen continental que sumó más de 300 víctimas mortales y terminó de derribar gran cantidad de casas ya dañadas por el terremoto anterior. Ambos eventos dispararon enormes deslizamientos de tierra, que fueron los responsables de la mayoría de las muertes. Como se observó durante el terremoto de 2001, este tipo de sismicidad implica un alto riesgo para la sociedad salvadoreña debido a la gran concentración de población en zonas con fuertes pendientes y muy deforestadas susceptibles de sufrir deslizamientos, y debido también a la escasez de planes urbanísticos. La complicada evolución sociopolítica del país durante los últimos 50 años, con una larga guerra civil, ha influido que hayan sido escasas las investigaciones científicas relacionadas con la sismotectónica y el riesgo sísmico asociada a la geología local. La ocurrencia de los terremotos citados disparó un interés a nivel internacional en la adquisición e interpretación de nuevos datos de tectónica activa que con los años han dado lugar a diferentes trabajos. Fue precisamente a partir del interés en estos eventos del 2001 cuando comenzó la colaboración de la Dra. Benito y el Dr. Martínez‐Díaz (directores de esta tesis) en El Salvador (Benito et al. 2004), lo que dio lugar a distintos proyectos de cooperación e investigación que han tenido lugar hasta la actualidad, y que se han centrado en el desarrollo de estudios geológicos, sismológicos para mejorar el cálculo de la amenaza sísmica en El Salvador. Según Martínez‐Díaz et al. (2004) la responsable del terremoto de febrero de 2001 fue la que se denomina como Zona de Falla de El Salvador (ZFES), una zona de falla que atraviesa el país de este a oeste que no había sido descrita con anterioridad. Con el fin de estudiar y caracterizar el comportamiento de este sistema de fallas para su introducción en la evaluación de la amenaza sísmica de la zona se plantean diferentes estudios sismotectónicos y paleosísmicos, y, entre ellos, esta tesis que surge de la necesidad de estudiar el comportamiento cinemático actual de la ZFES, mediante la aplicación de técnicas geodésicas (GNSS) y su integración con datos geológicos y sismológicos. Con el objetivo de reconocer la ZFES y estudiar la viabilidad de la aplicación de estas técnicas en la zona de estudio, realicé mi primer viaje a El Salvador en septiembre de 2006. A raíz de este viaje, en 2007, comienza el proyecto ZFESNet (Staller et al., 2008) estableciendo las primeras estaciones y realizando la primera campaña de observación en la ZFES. Han sido 6 años de mediciones e intenso trabajo de lo que hoy se obtienen los primeros resultados. El interés que despiertan los terremotos y sus efectos, así como la vulnerabilidad que tiene El Salvador a estos eventos, ha sido para la autora un aliciente añadido a su trabajo, animándola a perseverar en el desarrollo de su tesis, a pesar de la multitud de imprevistos y problemas que han surgido durante su transcurso. La aportación de esta tesis al conocimiento actual de la ZFES se espera que sea un germen para futuras investigaciones y en particular para mejorar la evaluación de la amenaza sísmica de la zona. No obstante, se hace hincapié en que tan importante como el conocimiento de las fuentes sísmicas es su uso en la planificación urbanística del terreno y en la elaboración de normas sismoresistentes y su aplicación por parte de los responsables, lo cual ayudaría a paliar los efectos de fenómenos naturales como el terremoto, el cual no podemos evitar. El proyecto ZFESNet ha sido financiado fundamentalmente por tres proyectos de las convocatorias anuales de Ayudas para la realización de actividades con Latinoamérica de la UPM, de los que la autora de esta tesis ha sido la responsable, estos son: “Establecimiento de una Red de Control GPS en la Zona de Falla de El Salvador”, “Determinación de deformaciones y desplazamientos en la Zona de Falla de El Salvador” y “Determinación de deformaciones y desplazamientos en la Zona de Falla de El Salvador II”, y parcialmente por el proyecto de la Agencia Española de Cooperación y Desarrollo (AECID); “Desarrollo de estudios geológicos y sismológicos en El Salvador dirigidos a la mitigación del riesgo sísmico”, y el Proyecto Nacional I+D+i SISMOCAES: “Estudios geológicos y sísmicos en Centroamérica y lecciones hacia la evaluación del riesgo sísmico en el sur de España”.
Resumo:
El geoide, definido como la superficie equipotencial que mejor se ajusta (en el sentido de los mínimos cuadrados) al nivel medio del mar en una determinada época, es la superficie que utilizamos como referencia para determinar las altitudes ortométricas. Si disponemos de una superficie equipotencial de referencia como dátum altimétrico preciso o geoide local, podemos entonces determinar las altitudes ortométricas de forma eficiente a partir de las altitudes elipsoidales proporcionadas por el Sistema Global de Navegación por Satélite (Global Navigation Satellite System, GNSS ). Como es sabido uno de los problemas no resueltos de la geodesia (quizás el más importante de los mismos en la actualidad) es la carencia de un dátum altimétrico global (Sjoberg, 2011) con las precisiones adecuadas. Al no existir un dátum altimétrico global que nos permita obtener los valores absolutos de la ondulación del geoide con la precisión requerida, es necesario emplear modelos geopotenciales como alternativa. Recientemente fue publicado el modelo EGM2008 en el que ha habido una notable mejoría de sus tres fuentes de datos, por lo que este modelo contiene coeficientes adicionales hasta el grado 2190 y orden 2159 y supone una sustancial mejora en la precisión (Pavlis et al., 2008). Cuando en una región determinada se dispone de valores de gravedad y Modelos Digitales del Terreno (MDT) de calidad, es posible obtener modelos de superficies geopotenciales más precisos y de mayor resolución que los modelos globales. Si bien es cierto que el Servicio Nacional Geodésico de los Estados Unidos de América (National Geodetic Survey, NGS) ha estado desarrollando modelos del geoide para la región de los Estados Unidos de América continentales y todos sus territorios desde la década de los noventa, también es cierto que las zonas de Puerto Rico y las Islas Vírgenes Estadounidenses han quedado un poco rezagadas al momento de poder aplicar y obtener resultados de mayor precisión con estos modelos regionales del geoide. En la actualidad, el modelo geopotencial regional vigente para la zona de Puerto Rico y las Islas Vírgenes Estadounidenses es el GEOID12A (Roman y Weston, 2012). Dada la necesidad y ante la incertidumbre de saber cuál sería el comportamiento de un modelo del geoide desarrollado única y exclusivamente con datos de gravedad locales, nos hemos dado a la tarea de desarrollar un modelo de geoide gravimétrico como sistema de referencia para las altitudes ortométricas. Para desarrollar un modelo del geoide gravimétrico en la isla de Puerto Rico, fue necesario implementar una metodología que nos permitiera analizar y validar los datos de gravedad terrestre existentes. Utilizando validación por altimetría con sistemas de información geográfica y validación matemática por colocación con el programa Gravsoft (Tscherning et al., 1994) en su modalidad en Python (Nielsen et al., 2012), fue posible validar 1673 datos de anomalías aire libre de un total de 1894 observaciones obtenidas de la base de datos del Bureau Gravimétrico Internacional (BGI). El aplicar estas metodologías nos permitió obtener una base de datos anomalías de la gravedad fiable la cual puede ser utilizada para una gran cantidad de aplicaciones en ciencia e ingeniería. Ante la poca densidad de datos de gravedad existentes, fue necesario emplear un método alternativo para densificar los valores de anomalías aire libre existentes. Empleando una metodología propuesta por Jekeli et al. (2009b) se procedió a determinar anomalías aire libre a partir de los datos de un MDT. Estas anomalías fueron ajustadas utilizando las anomalías aire libre validadas y tras aplicar un ajuste de mínimos cuadrados por zonas geográficas, fue posible obtener una malla de datos de anomalías aire libre uniforme a partir de un MDT. Tras realizar las correcciones topográficas, determinar el efecto indirecto de la topografía del terreno y la contribución del modelo geopotencial EGM2008, se obtuvo una malla de anomalías residuales. Estas anomalías residuales fueron utilizadas para determinar el geoide gravimétrico utilizando varias técnicas entre las que se encuentran la aproximación plana de la función de Stokes y las modificaciones al núcleo de Stokes, propuestas por Wong y Gore (1969), Vanicek y Kleusberg (1987) y Featherstone et al. (1998). Ya determinados los distintos modelos del geoide gravimétrico, fue necesario validar los mismos y para eso se utilizaron una serie de estaciones permanentes de la red de nivelación del Datum Vertical de Puerto Rico de 2002 (Puerto Rico Vertical Datum 2002, PRVD02 ), las cuales tenían publicados sus valores de altitud elipsoidal y elevación. Ante la ausencia de altitudes ortométricas en las estaciones permanentes de la red de nivelación, se utilizaron las elevaciones obtenidas a partir de nivelación de primer orden para determinar los valores de la ondulación del geoide geométrico (Roman et al., 2013). Tras establecer un total de 990 líneas base, se realizaron dos análisis para determinar la 'precisión' de los modelos del geoide. En el primer análisis, que consistió en analizar las diferencias entre los incrementos de la ondulación del geoide geométrico y los incrementos de la ondulación del geoide de los distintos modelos (modelos gravimétricos, EGM2008 y GEOID12A) en función de las distancias entre las estaciones de validación, se encontró que el modelo con la modificación del núcleo de Stokes propuesta por Wong y Gore presentó la mejor 'precisión' en un 91,1% de los tramos analizados. En un segundo análisis, en el que se consideraron las 990 líneas base, se determinaron las diferencias entre los incrementos de la ondulación del geoide geométrico y los incrementos de la ondulación del geoide de los distintos modelos (modelos gravimétricos, EGM2008 y GEOID12A), encontrando que el modelo que presenta la mayor 'precisión' también era el geoide con la modificación del núcleo de Stokes propuesta por Wong y Gore. En este análisis, el modelo del geoide gravimétrico de Wong y Gore presento una 'precisión' de 0,027 metros en comparación con la 'precisión' del modelo EGM2008 que fue de 0,031 metros mientras que la 'precisión' del modelo regional GEOID12A fue de 0,057 metros. Finalmente podemos decir que la metodología aquí presentada es una adecuada ya que fue posible obtener un modelo del geoide gravimétrico que presenta una mayor 'precisión' que los modelos geopotenciales disponibles, incluso superando la precisión del modelo geopotencial global EGM2008. ABSTRACT The geoid, defined as the equipotential surface that best fits (in the least squares sense) to the mean sea level at a particular time, is the surface used as a reference to determine the orthometric heights. If we have an equipotential reference surface or a precise local geoid, we can then determine the orthometric heights efficiently from the ellipsoidal heights, provided by the Global Navigation Satellite System (GNSS). One of the most common and important an unsolved problem in geodesy is the lack of a global altimetric datum (Sjoberg, 2011)) with the appropriate precision. In the absence of one which allows us to obtain the absolute values of the geoid undulation with the required precision, it is necessary to use alternative geopotential models. The EGM2008 was recently published, in which there has been a marked improvement of its three data sources, so this model contains additional coefficients of degree up to 2190 and order 2159, and there is a substantial improvement in accuracy (Pavlis et al., 2008). When a given region has gravity values and high quality digital terrain models (DTM), it is possible to obtain more accurate regional geopotential models, with a higher resolution and precision, than global geopotential models. It is true that the National Geodetic Survey of the United States of America (NGS) has been developing geoid models for the region of the continental United States of America and its territories from the nineties, but which is also true is that areas such as Puerto Rico and the U.S. Virgin Islands have lagged behind when to apply and get more accurate results with these regional geopotential models. Right now, the available geopotential model for Puerto Rico and the U.S. Virgin Islands is the GEOID12A (Roman y Weston, 2012). Given this need and given the uncertainty of knowing the behavior of a regional geoid model developed exclusively with data from local gravity, we have taken on the task of developing a gravimetric geoid model to use as a reference system for orthometric heights. To develop a gravimetric geoid model in the island of Puerto Rico, implementing a methodology that allows us to analyze and validate the existing terrestrial gravity data is a must. Using altimetry validation with GIS and mathematical validation by collocation with the Gravsoft suite programs (Tscherning et al., 1994) in its Python version (Nielsen et al., 2012), it was possible to validate 1673 observations with gravity anomalies values out of a total of 1894 observations obtained from the International Bureau Gravimetric (BGI ) database. Applying these methodologies allowed us to obtain a database of reliable gravity anomalies, which can be used for many applications in science and engineering. Given the low density of existing gravity data, it was necessary to employ an alternative method for densifying the existing gravity anomalies set. Employing the methodology proposed by Jekeli et al. (2009b) we proceeded to determine gravity anomaly data from a DTM. These anomalies were adjusted by using the validated free-air gravity anomalies and, after that, applying the best fit in the least-square sense by geographical area, it was possible to obtain a uniform grid of free-air anomalies obtained from a DTM. After applying the topographic corrections, determining the indirect effect of topography and the contribution of the global geopotential model EGM2008, a grid of residual anomalies was obtained. These residual anomalies were used to determine the gravimetric geoid by using various techniques, among which are the planar approximation of the Stokes function and the modifications of the Stokes kernel, proposed by Wong y Gore (1969), Vanicek y Kleusberg (1987) and Featherstone et al. (1998). After determining the different gravimetric geoid models, it was necessary to validate them by using a series of stations of the Puerto Rico Vertical Datum of 2002 (PRVD02) leveling network. These stations had published its values of ellipsoidal height and elevation, and in the absence of orthometric heights, we use the elevations obtained from first - order leveling to determine the geometric geoid undulation (Roman et al., 2013). After determine a total of 990 baselines, two analyzes were performed to determine the ' accuracy ' of the geoid models. The first analysis was to analyze the differences between the increments of the geometric geoid undulation with the increments of the geoid undulation of the different geoid models (gravimetric models, EGM2008 and GEOID12A) in function of the distance between the validation stations. Through this analysis, it was determined that the model with the modified Stokes kernel given by Wong and Gore had the best 'accuracy' in 91,1% for the analyzed baselines. In the second analysis, in which we considered the 990 baselines, we analyze the differences between the increments of the geometric geoid undulation with the increments of the geoid undulation of the different geoid models (gravimetric models, EGM2008 and GEOID12A) finding that the model with the highest 'accuracy' was also the model with modifying Stokes kernel given by Wong and Gore. In this analysis, the Wong and Gore gravimetric geoid model presented an 'accuracy' of 0,027 meters in comparison with the 'accuracy' of global geopotential model EGM2008, which gave us an 'accuracy' of 0,031 meters, while the 'accuracy ' of the GEOID12A regional model was 0,057 meters. Finally we can say that the methodology presented here is adequate as it was possible to obtain a gravimetric geoid model that has a greater 'accuracy' than the geopotential models available, even surpassing the accuracy of global geopotential model EGM2008.
Resumo:
En la construcción se puede almacenar calor a través de calor sensible y calor latente. El almacenamiento por calor latente es menos utilizado en aplicaciones arquitectónicas que el calor sensible, pero su capacidad de acumulación es mucho mayor. L a utilización de calor latente a través de materiales de cambio de fase (PCM), puede producir mejoras en el acondicionamiento térmico y reducir el consumo de energía por calefacción en los edificios. Por su posibilidad de uso en morteros de cemento, las pa rafinas microencapsuladas aparecen como una buena alternativa tecnológica dentro de los materiales de construcción. Existe un grupo de problemas relacionados con el cambio de comportamiento que experimenta el mortero dependiendo de las cantidades incorpora das de PCM microencapsulado. En el presente trabajo se expone su aplicación a morteros de cemento en cantidades de 5, 10 y 20 %, y relaciones agua/cemento de 0,50 ; 0,70 y 0,90. Los resultados permiten ver los efectos en las propiedades del mortero, observá ndose disminución de resistencia y densidad, así como también cambios en el comportamiento de mezclas en estado fresco de mortero con PCM. Agregado en la mezcla, permite acumular mayores cantidades de energía sin aumentar el espesor de la capa de mortero.
Resumo:
Twenty production blasts in two open pit mines were monitored, in rocks with medium to very high strength. Three different blasting agents (ANFO, watergel and emulsion blend) were used, with powder factors ranging between 0.88 and 1.45 kg/m3 . Excavators were front loaders and rope shovels. Mechanical properties of the rock, blasting characteristics and mucking rates were carefully measured. A model for the calculation of the productivity of excavators is developed thereof, in which the production rate results as a product of an ideal, maximum, productivity rate times an operating efficiency. The maximum rate is a function of the dipper capacity and the efficiency is a function of rock density, strength, and explosive energy concentration in the rock. The model is statistically significant and explains up to 92 % of the variance of the production rate measurements. RESUMEN Se han analizado veinte voladuras de producción en dos minas a cielo abierto, en rocas con resistencia entre media y muy alta. Se usaron tres agentes de voladura diferentes (ANFO, hidrogel y emulsión mezcla), con consumos específicos entre 0.88 y 1.45 kg/m3 . Las excavadoras eran cargadoras frontales y palas de cables. Se midió cuidadosamente las propiedades de la roca, las características de las voladuras y las velocidades de carga, a partir de las cuales se desarrolla un modelo para el cálculo de la productividad de las excavadoras en el que ésta es función de una productividad máxima o ideal multiplicada por una eficacia operativa. La producción máxima es función de la capacidad del cazo y la eficiencia es función de la densidad y resistencia de la roca, y de la concentración energética del explosivo en la roca. El modelo tiene significación estadística y explica un 92 % de la varianza de las medidas de velocidad.
Resumo:
Rhizobium leguminosarum bv viciae (Rlv) es una alfa-proteobacteria capaz de establecer una simbiosis diazotrófica con distintas leguminosas. Uno de los factores implicados en el establecimiento de la simbiosis es el sistema de comunicación intercelular conocido como Quorum Sensing (QS). Mediante este sistema, las bacterias actúan de manera coordinada en respuesta a cambios en la densidad de población a través de la producción y detección de señales extracelulares. El genoma de Rlv UPM791 contiene dos sistemas tipo luxRI mediados por señales de tipo N-acyl-homoserina lactonas (AHLs): el sistema rhiRI, codificado en el plásmido simbiótico, produce C6-HSL, C7-HSL y C8-HSL; y el sistema cinRI, localizado en el cromosoma, produce 3-OH-C14:1-HSL. Con el fin de analizar el significado y la regulación de los sistemas de QS en esta bacteria endosimbiótica se generaron mutantes defectivos en cada uno de los sistemas de QS, y se llevó a cabo un análisis detallado sobre la producción de AHLs y la simbiosis con plantas de guisante, veza y lenteja. El sistema rhiRI se necesita para un comportamiento simbiótico normal, dado que la mutación en rhiI reduce considerablemente la eficiencia simbiótica. rhiR es esencial para la fijación de nitrógeno en ausencia del plásmido pUPM791d. Asimismo, mutaciones en el sistema cinRIS mostraron también un importante efecto en simbiosis. El mutante ?cinRIS no produce la señal 3-OH-C14:1-HSL, y da lugar a nódulos blancos e inefectivos, carentes de bacteroides. El mutante ?cinI, incapaz de producir AHLs, no forma nódulos en ninguna de las leguminosas utilizadas. El análisis genético reveló que dicha mutación origina la inestabilización del plásmido simbiótico por un mecanismo dependiente de cinI que no ha sido aclarado. Los resultados obtenidos sugieren un papel relevante de los sistemas de Quorum Sensing de Rlv UPM791 en los primeros estadíos de la simbiosis, e indican la existencia de un modelo de regulación dependiente de QS significativamente distinto a los que se han descrito previamente en otras cepas de R. leguminosarum.
Resumo:
Este trabajo esta orientado a resolver el problema de la caracterización de la copa de arboles frutales para la aplicacion localizada de fitosanitarios. Esta propuesta utiliza un mapa de profundidad (Depth image) y una imagen RGB combinadas (RGB-D), proporcionados por el sensor Kinect de Microsoft, para aplicar pesticidas de forma localizada. A través del mapa de profundidad se puede estimar la densidad de la copa y a partir de esta información determinar qué boquillas se deben abrir en cada momento. Se desarrollaron algoritmos implementados en Matlab que permiten además de la adquisición de las imágenes RGB-D, aplicar plaguicidas sólo a hojas y/o frutos según se desee. Estos algoritmos fueron implementados en un software que se comunica con el entorno de desarrollo "Kinect Windows SDK", encargado de extraer las imágenes desde el sensor Kinect. Por otra parte, para identificar hojas, se implementaron algoritmos de clasificación e identificación. Los algoritmos de clasificación utilizados fueron "Fuzzy C-Means con Gustafson Kessel" (FCM-GK) y "K-Means". Los centroides o prototipos de cada clase generados por FCM-GK fueron usados como semilla para K-Means, para acelerar la convergencia del algoritmo y mantener la coherencia temporal en los grupos generados por K-Means. Los algoritmos de clasificación fueron aplicados sobre las imágenes transformadas al espacio de color L*a*b*; específicamente se emplearon los canales a*, b* (canales cromáticos) con el fin de reducir el efecto de la luz sobre los colores. Los algoritmos de clasificación fueron configurados para buscar cuatro grupos: hojas, porosidad, frutas y tronco. Una vez que el clasificador genera los prototipos de los grupos, un clasificador denominado Máquina de Soporte Vectorial, que utiliza como núcleo una función Gaussiana base radial, identifica la clase de interés (hojas). La combinación de estos algoritmos ha mostrado bajos errores de clasificación, rendimiento del 4% de error en la identificación de hojas. Además, estos algoritmos de procesamiento de hasta 8.4 imágenes por segundo, lo que permite su aplicación en tiempo real. Los resultados demuestran la viabilidad de utilizar el sensor "Kinect" para determinar dónde y cuándo aplicar pesticidas. Por otra parte, también muestran que existen limitaciones en su uso, impuesta por las condiciones de luz. En otras palabras, es posible usar "Kinect" en exteriores, pero durante días nublados, temprano en la mañana o en la noche con iluminación artificial, o añadiendo un parasol en condiciones de luz intensa.
Resumo:
La imagen de resonancia magnética nuclear (RMN) aplicada en el análisis de alimentos permite evaluar y cuantificar la humedad o grasa en un material entre otros. En el caso del análisis de productos deshidratados y el estudio evolutivo de la pérdida de agua a lo largo de la operación de secado, puede proporcionar información espacio temporal, importante para definir y mejorar las características del proceso orientado hacia la mejora de la calidad en el producto final. En el presente trabajo se evaluaron 9 muestras de zanahorias sin piel, quedando una fresca como referencia y las otras 8 se secaron en estufa con circulación de aire forzado a 50ºC. Las muestras se ensayaron por duplicado según 4 tiempos de secado diferentes 6, 12, 24 y 30 horas, con porcentajes finales de humedad desde el 90% (zanahoria fresca), hasta el 18%. Se obtuvo para cada muestra mapas de densidad protónica (DP) utilizando el equipo de RMN Bruker BIOSPEC 47/40 (de 4.7T, 200MHz y gradientes de 6cm de diámetro), al escanearlas se obtuvo un total de 10 cortes transversales cada 5 mm. Se construyó una matriz de 10 cortes x 9 muestras incluyendo todas las imágenes de DP, la imagen resultante se segmentó para establecer parámetros cuantitativos sobre cada corte, mediante técnicas de análisis de imagen. Los valores de DP representan la cantidad de protones H+ que han sido excitados proporcionales a la cantidad de agua en el alimento, a menores niveles de DP menor cantidad de agua en el alimento: se generaron histogramas representando el número de pixeles de la imagen que pertenecen a una clase de valores de DP por corte. Algunos de los histogramas presentaron un patrón bimodal, que puede asociarse a los distintos tejidos presentes en la zanahoria principalmente córtex y cilindro vascular, lo que indica, es que contiene diferentes coeficientes de difusividad efectiva, velocidades de secado y contenido final de humedad diferenciadas para cada tejido (Sriakatden y Roberts, 2008). La utilización de la RMN proporciona información acerca de la desigualdad en la distribución del agua en las diferentes estructuras de una misma matriz sólida. A la par del estudio en DP, se realizó un análisis para cuantificar la evolución de la contracción del tejido, parámetro de calidad importante, que aumenta con la pérdida de agua durante el proceso. Se obtuvieron los gráficos que muestran la relación perímetro/área sobre las imágenes de DP por corte, indicando una agrupación de las muestras según cuatro niveles de humedad correspondientes a diferentes tiempos de secado: 90% (fresca), 60% (6 h), 50%(12 h) y 18% (24 h y 30 h).
Resumo:
El empleo de nuevas adiciones en el cemento se plantea como una vía para que éste sea un material más sostenible. En este contexto, las cenizas de fondo o cenicero de las centrales termoeléctricas de carbón actualmente se están llevando a vertederos creando un problema medioambiental o se están empleando con usos minoritarios. Sin embargo, la presente Tesis doctoral demuestra cómo este material puede ser empleado como un componente principal de los cementos portland mezclado en una proporción optimizada con las cenizas volantes o solo. Por tanto, este estudio se puede considerar como un trabajo prenormativo que cubre las demandas de la sociedad tanto económicas como ambientales. Se han estudiado las propiedades químicas, físicas y mecánicas de las cenizas de fondo o cenicero de las centrales termoeléctricas de carbón como una adición potencial de los cementos portland (con adiciones) en comparación con los cementos portland con cenizas volantes. En consecuencia, el objeto de la presente Tesis Doctoral es el análisis de las prestaciones de morteros elaborados con clínkeres de cemento portland y cenizas de fondo o cenicero con cenizas volantes de las centrales termoeléctricas de carbón en unos porcentajes similares a los correspondientes a los CEM II/A-V, CEM II/B-V y CEM IV/A (V) de la UNE-EN 197-1:2011. La caracterización de las cenizas de fondo o cenicero y de las cenizas volantes de las centrales termoeléctricas de carbón se ha realizado mediante las técnicas analíticas de FRX, ICP, análisis químicos, DRX, densidad, granulometría láser, superficie específica Blaine, ATD, TG, puzolanicidad, MEB y EDX; mientras que la caracterización de las mezclas se ha realizado mediante análisis químico (análisis químico, FRX e ICP y), DRX, MIP, granulometría láser, puzolanicidad, MEB y EDX, agua de consistencia normal, inicio y final de fraguado, estabilidad de volumen, colorimetría, calor de hidratación, DTA y TG, asícomo ensayos de resistencia; resistencia a flexión y compresión y ensayos de durabilidad (carbonatación natural, resistencia al hielo-deshielo, resistencia a la acción de los sulfatos y resistencia a la reacción árido-álcali). Finalmente, se han comprobado las propiedades de las cenizas de cenicero y cenizas volantes en hormigones, realizando ensayos de resistencia a compresión y resistividad. Los resultados obtenidos indican que la sustitución parcial o completa de las cenizas volantes por las de cenicero no tiene un efecto tecnológicamente importante en las propiedades ni mecánicas ni durables, incluso los mejora en determinados aspectos. Por tanto, se recomienda la normalización de las cenizas de fondo o cenicero de las centrales termoeléctricas de carbón como componente principal de los cementos portland comunes de la UNE-EN 197-1:2011. Actualmente, la mayoría de las cenizas de fondo se consideran como un residuo que no tiene un posible uso. Sólo se han encontrado algunos datos relativos a la aplicación de este material combinado con cenizas volantes como un componente principal de los cementos portland. Por tanto, la realización de un estudio integrado considerando aspectos que van desde la caracterización de las cenizas hasta las mezclas de conglomerante y la hidratación de éstas, desarrollo de resistencias y demás prestaciones y durabilidad (carbonatación natural, resistencia al hielo-deshielo, resistencia a la acción de los sulfatos y resistencia a la reacción árido-álcali), así como los ensayos de resistencia en hormigón es totalmente novedoso. Como resultado final se propone incorporar estas nuevas adiciones en aplicaciones particulares y en la norma más apropiada para ello. Los resultados han demostrado que la sustitución completa o parcial de las cenizas volantes por cenizas de fondo o cenicero de las centrales termoeléctricas de carbón en cementos de los tipos CEM II/A-V, CEM II/B-V y CEM IV/A no afecta de forma significativa en la resistencia a compresión a 1, 3 ,7, 28 ni 90 días ni a la durabilidad. En parte esto se debe a que la composición química de ambas cenizas es muy similar en la mayoría de los elementos tales como Fe2O3, TiO2, P2O5, SrO2, aunque en algún caso, como en el ZnO, se encuentra alguna ligera diferencia. Por tanto, se pueden esperar unas ligeras diferencias en el mecanismo de hidratación de las diferentes mezclas estudiadas. La presencia de los óxidos mencionados afectará a la composición de la fase acuosa y, en consecuencia, podrían ser elementos lixiviables. Asimismo, influyen de distinta manera en propiedades tales como los tiempos de fraguado y en la durabilidad. New additions to the cement are needed to achieve a more sustainable construction material. Within this context, bottom ashes produced in coal-fired power stations are currently wastes which are dumped provoking an environmental problem. Only in few cases are being used in minor applications. However, the present PhD Thesis shows how this material can be used as a main constituent of Portland cement when it is mixed in an optimised proportion with fly ashes or added to the Portland clinker alone. Therefore, this study may also be considered as a pre-standardization work which covers both the environmental and economic demands of society. Chemical, physical and mechanical characteristics of pulverized coal combustion bottom ash used as a potential constituent of Portland cements (with additions) are studied in comparison to Portland cements with fly ashes. Therefore, the aim of this experimental PhD Thesis is the analysis of the performance of mortars made of clinker of Portland cement and bottom and/or fly ashes in similar proportions to those of CEM II/A-V, CEM II/B-V and CEM IV/A (V) according to EN 197-1:2011. Characterisation of bottom and fly ashes has been done by XRF, ICP, chemical analyses, XRD, density, laser granulometry, Blaine, ATD, TG, pozzolanity, SEM and EDS. Characterisation of bottom and fly ashes mixes has been perform by chemical analyses, XRF, ICP, XRD, MIP, laser granulometry, pozzolanity, SEM, EDS, setting time, soundness, colorimetric test, heat of hydration, ATD, TG, compressive strength, and durability tests (natural carbonation, frost-thaw resistance, sulphate resistance and silica-alkali resistance). In conclusion, it can be established that partial or complete replacement of fly ash by bottom ash has neither significant effect on mechanical nor durability properties. Even, they are improved in several aspects. Therefore, it is recommended to standardise the bottom ash as a main cement constituent of the European standard EN 197-1:2011. Nowadays, most bottom ashes are considered as waste without any potential re-use. Only a few papers deal with the study of this material and its use mixed with fly ashes to be employed as a main constituent of Portland cement. Therefore, the execution of an integrated study considering together aspects from the initial characterization of the ashes and blinder mixes to the hydration steps, strength achievement, leading behaviour and durability (natural carbonation, sulphate attack, aggregate-alcali reaction and freeze-thaw resistance) is totally new. As result, it is proposed to include this new addition for particular applications in the appropriate cement standard. The results have shown that with regard to the compressive strength at 1, 3, 7, 28 and 90 days, partial or complete replacement of fly ash by bottom ash in CEM II/A-V, CEM II/B-V and CEM IV/A has no more significant effects. Partially, this can be explained because the bottom ash contains a similar amount of most of the elements, Fe2O3, TiO2, P2O5, SrO2, and so on, instead of ZnO. Therefore, slight hydration differences are expected. The presence of such oxides might have a significant effect on pore solution concentration and so will be leachable constituents. They will also play an important role in the cement properties such as setting times and durability.
Resumo:
La caracterización de los cultivos cubierta (cover crops) puede permitir comparar la idoneidad de diferentes especies para proporcionar servicios ecológicos como el control de la erosión, el reciclado de nutrientes o la producción de forrajes. En este trabajo se estudiaron bajo condiciones de campo diferentes técnicas para caracterizar el dosel vegetal con objeto de establecer una metodología para medir y comparar las arquitecturas de los cultivos cubierta más comunes. Se estableció un ensayo de campo en Madrid (España central) para determinar la relación entre el índice de área foliar (LAI) y la cobertura del suelo (GC) para un cultivo de gramínea, uno de leguminosa y uno de crucífera. Para ello se sembraron doce parcelas con cebada (Hordeum vulgare L.), veza (Vicia sativa L.), y colza (Brassica napus L.). En 10 fechas de muestreo se midieron el LAI (con estimaciones directas y del LAI-2000), la fracción interceptada de la radiación fotosintéticamente activa (FIPAR) y la GC. Un experimento de campo de dos años (Octubre-Abril) se estableció en la misma localización para evaluar diferentes especies (Hordeum vulgare L., Secale cereale L., x Triticosecale Whim, Sinapis alba L., Vicia sativa L.) y cultivares (20) en relación con su idoneidad para ser usadas como cultivos cubierta. La GC se monitorizó mediante análisis de imágenes digitales con 21 y 22 muestreos, y la biomasa se midió 8 y 10 veces, respectivamente para cada año. Un modelo de Gompertz caracterizó la cobertura del suelo hasta el decaimiento observado tras las heladas, mientras que la biomasa se ajustó a ecuaciones de Gompertz, logísticas y lineales-exponenciales. Al final del experimento se determinaron el C, el N y el contenido en fibra (neutrodetergente, ácidodetergente y lignina), así como el N fijado por las leguminosas. Se aplicó el análisis de decisión multicriterio (MCDA) con objeto de obtener un ranking de especies y cultivares de acuerdo con su idoneidad para actuar como cultivos cubierta en cuatro modalidades diferentes: cultivo de cobertura, cultivo captura, abono verde y forraje. Las asociaciones de cultivos leguminosas con no leguminosas pueden afectar al crecimiento radicular y a la absorción de N de ambos componentes de la mezcla. El conocimiento de cómo los sistemas radiculares específicos afectan al crecimiento individual de las especies es útil para entender las interacciones en las asociaciones, así como para planificar estrategias de cultivos cubierta. En un tercer ensayo se combinaron estudios en rhizotrones con extracción de raíces e identificación de especies por microscopía, así como con estudios de crecimiento, absorción de N y 15N en capas profundas del suelo. Las interacciones entre raíces en su crecimiento y en el aprovisionamiento de N se estudiaron para dos de los cultivares mejor valorados en el estudio previo: uno de cebada (Hordeum vulgare L. cv. Hispanic) y otro de veza (Vicia sativa L. cv. Aitana). Se añadió N en dosis de 0 (N0), 50 (N1) y 150 (N2) kg N ha-1. Como resultados del primer estudio, se ajustaron correctamente modelos lineales y cuadráticos a la relación entre la GC y el LAI para todos los cultivos, pero en la gramínea alcanzaron una meseta para un LAI>4. Antes de alcanzar la cobertura total, la pendiente de la relación lineal entre ambas variables se situó en un rango entre 0.025 y 0.030. Las lecturas del LAI-2000 estuvieron correlacionadas linealmente con el LAI, aunque con tendencia a la sobreestimación. Las correcciones basadas en el efecto de aglutinación redujeron el error cuadrático medio del LAI estimado por el LAI-2000 desde 1.2 hasta 0.5 para la crucífera y la leguminosa, no siendo efectivas para la cebada. Esto determinó que para los siguientes estudios se midieran únicamente la GC y la biomasa. En el segundo experimento, las gramíneas alcanzaron la mayor cobertura del suelo (83-99%) y la mayor biomasa (1226-1928 g m-2) al final del mismo. Con la mayor relación C/N (27-39) y contenido en fibra digestible (53-60%) y la menor calidad de residuo (~68%). La mostaza presentó elevadas GC, biomasa y absorción de N en el año más templado en similitud con las gramíneas, aunque escasa calidad como forraje en ambos años. La veza presentó la menor absorción de N (2.4-0.7 g N m-2) debido a la fijación de N (9.8-1.6 g N m-2) y escasa acumulación de N. El tiempo térmico hasta alcanzar el 30% de GC constituyó un buen indicador de especies de rápida cubrición. La cuantificación de las variables permitió hallar variabilidad entre las especies y proporcionó información para posteriores decisiones sobre la selección y manejo de los cultivos cubierta. La agregación de dichas variables a través de funciones de utilidad permitió confeccionar rankings de especies y cultivares para cada uso. Las gramíneas fueron las más indicadas para los usos de cultivo de cobertura, cultivo captura y forraje, mientras que las vezas fueron las mejor como abono verde. La mostaza alcanzó altos valores como cultivo de cobertura y captura en el primer año, pero el segundo decayó debido a su pobre actuación en los inviernos fríos. Hispanic fue el mejor cultivar de cebada como cultivo de cobertura y captura, mientras que Albacete como forraje. El triticale Titania alcanzó la posición más alta como cultiva de cobertura, captura y forraje. Las vezas Aitana y BGE014897 mostraron buenas aptitudes como abono verde y cultivo captura. El MCDA permitió la comparación entre especies y cultivares proporcionando información relevante para la selección y manejo de cultivos cubierta. En el estudio en rhizotrones tanto la mezcla de especies como la cebada alcanzaron mayor intensidad de raíces (RI) y profundidad (RD) que la veza, con valores alrededor de 150 cruces m-1 y 1.4 m respectivamente, comparados con 50 cruces m-1 y 0.9 m para la veza. En las capas más profundas del suelo, la asociación de cultivos mostró valores de RI ligeramente mayores que la cebada en monocultivo. La cebada y la asociación obtuvieron mayores valores de densidad de raíces (RLD) (200-600 m m-3) que la veza (25-130) entre 0.8 y 1.2 m de profundidad. Los niveles de N no mostraron efectos claros en RI, RD ó RLD, sin embargo, el incremento de N favoreció la proliferación de raíces de veza en la asociación en capas profundas del suelo, con un ratio cebada/veza situado entre 25 a N0 y 5 a N2. La absorción de N de la cebada se incrementó en la asociación a expensas de la veza (de ~100 a 200 mg planta-1). Las raíces de cebada en la asociación absorbieron también más nitrógeno marcado de las capas profundas del suelo (0.6 mg 15N planta-1) que en el monocultivo (0.3 mg 15N planta-1). ABSTRACT Cover crop characterization may allow comparing the suitability of different species to provide ecological services such as erosion control, nutrient recycling or fodder production. Different techniques to characterize plant canopy were studied under field conditions in order to establish a methodology for measuring and comparing cover crops canopies. A field trial was established in Madrid (central Spain) to determine the relationship between leaf area index (LAI) and ground cover (GC) in a grass, a legume and a crucifer crop. Twelve plots were sown with either barley (Hordeum vulgare L.), vetch (Vicia sativa L.), or rape (Brassica napus L.). On 10 sampling dates the LAI (both direct and LAI-2000 estimations), fraction intercepted of photosynthetically active radiation (FIPAR) and GC were measured. A two-year field experiment (October-April) was established in the same location to evaluate different species (Hordeum vulgare L., Secale cereale L., x Triticosecale Whim, Sinapis alba L., Vicia sativa L.) and cultivars (20) according to their suitability to be used as cover crops. GC was monitored through digital image analysis with 21 and 22 samples, and biomass measured 8 and 10 times, respectively for each season. A Gompertz model characterized ground cover until the decay observed after frosts, while biomass was fitted to Gompertz, logistic and linear-exponential equations. At the end of the experiment C, N, and fiber (neutral detergent, acid and lignin) contents, and the N fixed by the legumes were determined. Multicriteria decision analysis (MCDA) was applied in order to rank the species and cultivars according to their suitability to perform as cover crops in four different modalities: cover crop, catch crop, green manure and fodder. Intercropping legumes and non-legumes may affect the root growth and N uptake of both components in the mixture. The knowledge of how specific root systems affect the growth of the individual species is useful for understanding the interactions in intercrops as well as for planning cover cropping strategies. In a third trial rhizotron studies were combined with root extraction and species identification by microscopy and with studies of growth, N uptake and 15N uptake from deeper soil layers. The root interactions of root growth and N foraging were studied for two of the best ranked cultivars in the previous study: a barley (Hordeum vulgare L. cv. Hispanic) and a vetch (Vicia sativa L. cv. Aitana). N was added at 0 (N0), 50 (N1) and 150 (N2) kg N ha-1. As a result, linear and quadratic models fitted to the relationship between the GC and LAI for all of the crops, but they reached a plateau in the grass when the LAI > 4. Before reaching full cover, the slope of the linear relationship between both variables was within the range of 0.025 to 0.030. The LAI-2000 readings were linearly correlated with the LAI but they tended to overestimation. Corrections based on the clumping effect reduced the root mean square error of the estimated LAI from the LAI-2000 readings from 1.2 to less than 0.50 for the crucifer and the legume, but were not effective for barley. This determined that in the following studies only the GC and biomass were measured. In the second experiment, the grasses reached the highest ground cover (83- 99%) and biomass (1226-1928 g/m2) at the end of the experiment. The grasses had the highest C/N ratio (27-39) and dietary fiber (53-60%) and the lowest residue quality (~68%). The mustard presented high GC, biomass and N uptake in the warmer year with similarity to grasses, but low fodder capability in both years. The vetch presented the lowest N uptake (2.4-0.7 g N/m2) due to N fixation (9.8-1.6 g N/m2) and low biomass accumulation. The thermal time until reaching 30% ground cover was a good indicator of early coverage species. Variable quantification allowed finding variability among the species and provided information for further decisions involving cover crops selection and management. Aggregation of these variables through utility functions allowed ranking species and cultivars for each usage. Grasses were the most suitable for the cover crop, catch crop and fodder uses, while the vetches were the best as green manures. The mustard attained high ranks as cover and catch crop the first season, but the second decayed due to low performance in cold winters. Hispanic was the most suitable barley cultivar as cover and catch crop, and Albacete as fodder. The triticale Titania attained the highest rank as cover and catch crop and fodder. Vetches Aitana and BGE014897 showed good aptitudes as green manures and catch crops. MCDA allowed comparison among species and cultivars and might provide relevant information for cover crops selection and management. In the rhizotron study the intercrop and the barley attained slightly higher root intensity (RI) and root depth (RD) than the vetch, with values around 150 crosses m-1 and 1.4 m respectively, compared to 50 crosses m-1 and 0.9 m for the vetch. At deep soil layers, intercropping showed slightly larger RI values compared to the sole cropped barley. The barley and the intercropping had larger root length density (RLD) values (200-600 m m-3) than the vetch (25-130) at 0.8-1.2 m depth. The topsoil N supply did not show a clear effect on the RI, RD or RLD; however increasing topsoil N favored the proliferation of vetch roots in the intercropping at deep soil layers, with the barley/vetch root ratio ranging from 25 at N0 to 5 at N2. The N uptake of the barley was enhanced in the intercropping at the expense of the vetch (from ~100 mg plant-1 to 200). The intercropped barley roots took up more labeled nitrogen (0.6 mg 15N plant-1) than the sole-cropped barley roots (0.3 mg 15N plant-1) from deep layers.