165 resultados para Cajas de madera


Relevância:

10.00% 10.00%

Publicador:

Resumo:

En regiones semiáridas, con veranos cálidos, evapotranspiraciones elevadas, humedades relativas bajas, además de precipitaciones intermitentes y escasas (400 mm al año) que reducen la recarga del perfil en invierno, se puede ver afectada la productividad y sostenibilidad de los viñedos. Por eso en estas zonas puede ser necesario utilizar el riego suplementario para mantener la calidad y aumentar la productividad. En este marco de circunstancias es en el que se desarrolla la mayoría de la viticultura española, y en concreto en la zona centro donde se realizó el estudio. Con este trabajo se pretende estudiar la influencia del agua del riego, con distintas dosis y aplicada en diferentes fases de crecimiento y maduración de la baya, en la producción y calidad de la uva. Se estudió la influencia del déficit moderado continuo aplicado antes y después de envero, en el aprovechamiento de los recursos ambientales y en la respuesta del cv. Cabernet Sauvignon. El ensayo se desarrolló en 2010 y 2011 en la finca “La Alcoholera”, perteneciente a bodegas LICINIA S.L., ubicada en la localidad de Chinchón, Comunidad de Madrid, España. Durante 2010 y 2011 se realizaron estudios en cepas del cv. Cabernet Sauvignon (clon 15), injertadas sobre 41B y plantadas en 2005. Con poda corta en Cordón Royat unilateral de 80 cm de altura, y cuya vegetación alcanzó una altura de 97 cm. Las cepas del ensayo fueron conducidas verticalmente en espaldera (VSP), con 10 yemas por metro lineal. Las plantas dentro de la fila fueron separadas 1 m y la distancia de la calle fue de 3 m. La orientación de las filas norte – sur. Se plantearon cuatro tratamientos experimentales con diferentes dosis y momento de aplicación del riego. - T: Testigo. Déficit ligero, con un aporte continuado de agua desde floración (420 mm). - DMc: Déficit moderado continuo. Manejo del riego convencional, empezando en pre-envero (154 mm) - DM1: Déficit moderado a partir de pre-envero. Aporte de riego continuado desde floración reduciéndose la dosis de riego en pre-envero (312 mm). - DM2: Déficit moderado hasta pre-envero. Se empezó a regar a partir de preenvero (230 mm). Se observó que bajo condiciones de estrés hídrico leve, el crecimiento se reduce disminuyendo la migración de fotoasimilados hacia los órganos vegetativos. Generando menor área foliar en las plantas sometidas a déficit hídrico moderado entre floración y cuajado. Disminuyendo su consumo. En maduración la humedad del suelo dependió principalmente del riego aplicado y del consumo de la planta; dicho consumo dependió a la vez del desarrollo foliar del canopy y de la necesidad hídrica de la vid. El aumento del déficit hídrico disminuyó el contenido de agua en el suelo, lo que provocó diferencias en el estado hídrico y en el intercambio gaseoso de las hojas. En condiciones de déficit moderado, la fotosíntesis se encontró altamente correlacionada con el potencial hídrico foliar medido a mediodía solar. Además en condiciones de déficit moderado continuo la disponibilidad hídrica, la demanda atmosférica y el nivel de hidratación de las hojas, interaccionaron de forma compleja en la regulación estomática de las hojas, condicionando el intercambio gaseoso y la eficiencia en el uso del agua. Al aumentar el volumen de agua aplicado el peso de madera de poda por metro de fila fue superior. Las diferencias encontradas en el rendimiento fueron debidas a las diferencias en el peso de baya. El cual estuvo condicionado por la estrategia de riego, ya que, el déficit hídrico moderado antes de envero fue más crítico para el rendimiento que el déficit impuesto durante la madurez. Por otro lado, la biomasa dependió de la actividad fisiológica de la planta, la cual fue altamente dependiente de la disponibilidad hídrica. Déficit hídrico moderado aplicado de cuajado a envero, generó bayas más pequeñas y aumentó la relación hollejo:pulpa. El déficit moderado aplicado después de envero favoreció la acumulación de IPT y antocianos extraíbles, mejorando la calidad de la uva, pero disminuyó la acidez de la baya. El riego aplicado de envero a vendimia desaceleró la concentración de azúcares en bayas que fueron sometidas a déficit antes de pre-envero. ABSTRACT Mediterranean climate is characterized by hot summers, high evapotranspiration rates, and scarce precipitations (400 mm per year) during grapevine cycle. These extremely dry conditions affect vineyard productivity and sustainability. Supplementary irrigation is needed practice in order to maintain yield and quality. Almost all Spanish grape growing regions are characterized by these conditions, especially in the center region, where this trial was performed. The main objective of this work is to study the influence of water irrigation on yield and quality. For this aim, different levels of irrigation (mm of water applied) were applied during different stages of growth and berry maturity of Caberent Sauvignon grapevines. The work was conducted from 2010 to 2011 and located in Licinia (40º 12´ N, 3º 28´ W), Madrid, Spain. The cultivar utilized was Cabernet Sauvignon, clone 15 grafted onto rootstock 41B, planted in 2005. The vineyard was oriented north-south, with spacing on 3 meters between rows and 1 meter between plants. Vines were spurpruned to 10 buds per meter and trained in unilateral cordon with a height of 80 cm. Shoots were positioned vertically (VSP). Considering the amount of water and the moment of the application, four experimental treatments were applied: - T: Control sample. Slight deficit (420 mm) applied from bloom to maturity. - DMc: Continuous moderate deficit. Traditional irrigation: application of 154 mm of water from pre-veraison to maturity. - DM1: Deficit moderate from pre-veraison. Irrigation of 312 mm of water from bloom to pre-veraison. - DM2: Deficit moderate to pre-veraison. Irrigation of 230 mm of water from preveraison to maturity Under moderated water stress conditions it was seen than leaf growth decreases due to the reduction of migration of photo-assimilates to vegetative organs. Vines with moderate water deficit between flowering and ripening develop less leaf area and decrease its water consumption. During maturation of berries, soil moisture depends on irrigation and plant consumption. This consumption further depends on vegetation development and on the vine needs for water. By increasing water deficit, the water content in the soil decreases. This causes differences in leaf water status and in the gases exchange. Under moderate deficit conditions, photosynthesis was found highly correlated with midday leaf water potential. Further, atmospheric demand and the level of leaves hydration interact in complex ways in the stomatal regulation, which affects leaf gas exchange and the efficiency of water use. The amount of water applied is directly proportional to pruning weight. Changes in berry weight cause differences in yield ratios. The differences in berry weights are conditioned by the irrigation strategy, the moderate water deficit before veraison influences more than the deficit applied from veraison. Biomass generated for the plant depends on its physiological activity, which is highly related to the water availability. Moderate water deficit applied from fruit set to ripening generates smaller berries, increasing the pulp/skin ratio. Moderate deficit applied after veraison promotes the accumulation of extractables anthocyans and TPI. Despite this treatment improves color parameters of the grapes, it decreases its total acidity. Irrigation applied from veraison to harvest slows down sugar accumulation in berries compared to those under deficit before veraison conditions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente documento es un estudio sobre el estado de conservación de la cubierta de madera del martinete de Navafría. El martinete de Navafría fue declarado Bien de Interés Cultural por la Junta de Castilla y León en 1998. Es el último martinete de cobre que queda en Europa y en él se realizaban calderos, braseros, calienta-camas y demás enseres de cobre. Se ha realizado una croquización de la cubierta del martinete y se han registrado las dimensiones de todas y cada una de las piezas. Se ha realizado una inspección de cada una de las piezas. En esta inspección se han descrito todas las patologías encontradas y se han generado unos croquis donde se representa el grado de ataque. Se han empleado Técnicas No Destructivas (TND) para determinar el grado de ataque de las diferentes patologías y para estimar las características estructurales de la madera. El grado de ataque que presenta la estructura es muy elevado y una de las cuatro vigas principales presenta una rotura total. Una vez analizado el estado de las patologías se ha modelizado la estructura para calcular los índices de agotamiento y comprobar si cumple con la normativa. Se ha obtenido que los índices de agotamiento son superiores a los permitidos. Por lo que no se puede garantizar la seguridad de la estructura. Después de todo el análisis se han redactado unas conclusiones y se han realizado una propuestas de actuación. Estas medidas se han planteado para mejorar la conservación y solucionar los problemas observados. Se ha realizado una propuesta de una nueva cubierta empleando materiales más ligeros y manteniendo el diseño estructural original. Se ha conseguido disminuir el peso de la cubierta un 27 %. Con estas nuevas cargas se ha recalculado de nuevo la cubierta y se ha comprobado que no cumple con las exigencias de la normativa vigente. Por ello es necesario un nuevo diseño que se adapte a la normativa y se recomienda que busque el mantener el aspecto original.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo de esta tesis es estudiar la dinámica de la capa logarítmica de flujos turbulentos de pared. En concreto, proponemos un nuevo modelo estructural utilizando diferentes tipos de estructuras coherentes: sweeps, eyecciones, grupos de vorticidad y streaks. La herramienta utilizada es la simulación numérica directa de canales turbulentos. Desde los primeros trabajos de Theodorsen (1952), las estructuras coherentes han jugado un papel fundamental para entender la organización y dinámica de los flujos turbulentos. A día de hoy, datos procedentes de simulaciones numéricas directas obtenidas en instantes no contiguos permiten estudiar las propiedades fundamentales de las estructuras coherentes tridimensionales desde un punto de vista estadístico. Sin embargo, la dinámica no puede ser entendida en detalle utilizando sólo instantes aislados en el tiempo, sino que es necesario seguir de forma continua las estructuras. Aunque existen algunos estudios sobre la evolución temporal de las estructuras más pequeñas a números de Reynolds moderados, por ejemplo Robinson (1991), todavía no se ha realizado un estudio completo a altos números de Reynolds y para todas las escalas presentes de la capa logarítmica. El objetivo de esta tesis es llevar a cabo dicho análisis. Los problemas más interesantes los encontramos en la región logarítmica, donde residen las cascadas de vorticidad, energía y momento. Existen varios modelos que intentan explicar la organización de los flujos turbulentos en dicha región. Uno de los más extendidos fue propuesto por Adrian et al. (2000) a través de observaciones experimentales y considerando como elemento fundamental paquetes de vórtices con forma de horquilla que actúan de forma cooperativa para generar rampas de bajo momento. Un modelo alternativo fué ideado por del Álamo & Jiménez (2006) utilizando datos numéricos. Basado también en grupos de vorticidad, planteaba un escenario mucho más desorganizado y con estructuras sin forma de horquilla. Aunque los dos modelos son cinemáticamente similares, no lo son desde el punto de vista dinámico, en concreto en lo que se refiere a la importancia que juega la pared en la creación y vida de las estructuras. Otro punto importante aún sin resolver se refiere al modelo de cascada turbulenta propuesto por Kolmogorov (1941b), y su relación con estructuras coherentes medibles en el flujo. Para dar respuesta a las preguntas anteriores, hemos desarrollado un nuevo método que permite seguir estructuras coherentes en el tiempo y lo hemos aplicado a simulaciones numéricas de canales turbulentos con números de Reynolds lo suficientemente altos como para tener un rango de escalas no trivial y con dominios computacionales lo suficientemente grandes como para representar de forma correcta la dinámica de la capa logarítmica. Nuestros esfuerzos se han desarrollado en cuatro pasos. En primer lugar, hemos realizado una campaña de simulaciones numéricas directas a diferentes números de Reynolds y tamaños de cajas para evaluar el efecto del dominio computacional en las estadísticas de primer orden y el espectro. A partir de los resultados obtenidos, hemos concluido que simulaciones con cajas de longitud 2vr y ancho vr veces la semi-altura del canal son lo suficientemente grandes para reproducir correctamente las interacciones entre estructuras coherentes de la capa logarítmica y el resto de escalas. Estas simulaciones son utilizadas como punto de partida en los siguientes análisis. En segundo lugar, las estructuras coherentes correspondientes a regiones con esfuerzos de Reynolds tangenciales intensos (Qs) en un canal turbulento han sido estudiadas extendiendo a tres dimensiones el análisis de cuadrantes, con especial énfasis en la capa logarítmica y la región exterior. Las estructuras coherentes han sido identificadas como regiones contiguas del espacio donde los esfuerzos de Reynolds tangenciales son más intensos que un cierto nivel. Los resultados muestran que los Qs separados de la pared están orientados de forma isótropa y su contribución neta al esfuerzo de Reynolds medio es nula. La mayor contribución la realiza una familia de estructuras de mayor tamaño y autosemejantes cuya parte inferior está muy cerca de la pared (ligada a la pared), con una geometría compleja y dimensión fractal « 2. Estas estructuras tienen una forma similar a una ‘esponja de placas’, en comparación con los grupos de vorticidad que tienen forma de ‘esponja de cuerdas’. Aunque el número de objetos decae al alejarnos de la pared, la fracción de esfuerzos de Reynolds que contienen es independiente de su altura, y gran parte reside en unas pocas estructuras que se extienden más allá del centro del canal, como en las grandes estructuras propuestas por otros autores. Las estructuras dominantes en la capa logarítmica son parejas de sweeps y eyecciones uno al lado del otro y con grupos de vorticidad asociados que comparten las dimensiones y esfuerzos con los remolinos ligados a la pared propuestos por Townsend. En tercer lugar, hemos estudiado la evolución temporal de Qs y grupos de vorticidad usando las simulaciones numéricas directas presentadas anteriormente hasta números de Reynolds ReT = 4200 (Reynolds de fricción). Las estructuras fueron identificadas siguiendo el proceso descrito en el párrafo anterior y después seguidas en el tiempo. A través de la interseción geométrica de estructuras pertenecientes a instantes de tiempo contiguos, hemos creado gratos de conexiones temporales entre todos los objetos y, a partir de ahí, definido ramas primarias y secundarias, de tal forma que cada rama representa la evolución temporal de una estructura coherente. Una vez que las evoluciones están adecuadamente organizadas, proporcionan toda la información necesaria para caracterizar la historia de las estructuras desde su nacimiento hasta su muerte. Los resultados muestran que las estructuras nacen a todas las distancias de la pared, pero con mayor probabilidad cerca de ella, donde la cortadura es más intensa. La mayoría mantienen tamaños pequeños y no viven mucho tiempo, sin embargo, existe una familia de estructuras que crecen lo suficiente como para ligarse a la pared y extenderse a lo largo de la capa logarítmica convirtiéndose en las estructuras observas anteriormente y descritas por Townsend. Estas estructuras son geométricamente autosemejantes con tiempos de vida proporcionales a su tamaño. La mayoría alcanzan tamaños por encima de la escala de Corrsin, y por ello, su dinámica está controlada por la cortadura media. Los resultados también muestran que las eyecciones se alejan de la pared con velocidad media uT (velocidad de fricción) y su base se liga a la pared muy rápidamente al inicio de sus vidas. Por el contrario, los sweeps se mueven hacia la pared con velocidad -uT y se ligan a ella más tarde. En ambos casos, los objetos permanecen ligados a la pared durante 2/3 de sus vidas. En la dirección de la corriente, las estructuras se desplazan a velocidades cercanas a la convección media del flujo y son deformadas por la cortadura. Finalmente, hemos interpretado la cascada turbulenta, no sólo como una forma conceptual de organizar el flujo, sino como un proceso físico en el cual las estructuras coherentes se unen y se rompen. El volumen de una estructura cambia de forma suave, cuando no se une ni rompe, o lo hace de forma repentina en caso contrario. Los procesos de unión y rotura pueden entenderse como una cascada directa (roturas) o inversa (uniones), siguiendo el concepto de cascada de remolinos ideado por Richardson (1920) y Obukhov (1941). El análisis de los datos muestra que las estructuras con tamaños menores a 30η (unidades de Kolmogorov) nunca se unen ni rompen, es decir, no experimentan el proceso de cascada. Por el contrario, aquellas mayores a 100η siempre se rompen o unen al menos una vez en su vida. En estos casos, el volumen total ganado y perdido es una fracción importante del volumen medio de la estructura implicada, con una tendencia ligeramente mayor a romperse (cascada directa) que a unirse (cascade inversa). La mayor parte de interacciones entre ramas se debe a roturas o uniones de fragmentos muy pequeños en la escala de Kolmogorov con estructuras más grandes, aunque el efecto de fragmentos de mayor tamaño no es despreciable. También hemos encontrado que las roturas tienen a ocurrir al final de la vida de la estructura y las uniones al principio. Aunque los resultados para la cascada directa e inversa no son idénticos, son muy simétricos, lo que sugiere un alto grado de reversibilidad en el proceso de cascada. ABSTRACT The purpose of the present thesis is to study the dynamics of the logarithmic layer of wall-bounded turbulent flows. Specifically, to propose a new structural model based on four different coherent structures: sweeps, ejections, clusters of vortices and velocity streaks. The tool used is the direct numerical simulation of time-resolved turbulent channels. Since the first work by Theodorsen (1952), coherent structures have played an important role in the understanding of turbulence organization and its dynamics. Nowadays, data from individual snapshots of direct numerical simulations allow to study the threedimensional statistical properties of those objects, but their dynamics can only be fully understood by tracking them in time. Although the temporal evolution has already been studied for small structures at moderate Reynolds numbers, e.g., Robinson (1991), a temporal analysis of three-dimensional structures spanning from the smallest to the largest scales across the logarithmic layer has yet to be performed and is the goal of the present thesis. The most interesting problems lie in the logarithmic region, which is the seat of cascades of vorticity, energy, and momentum. Different models involving coherent structures have been proposed to represent the organization of wall-bounded turbulent flows in the logarithmic layer. One of the most extended ones was conceived by Adrian et al. (2000) and built on packets of hairpins that grow from the wall and work cooperatively to gen- ´ erate low-momentum ramps. A different view was presented by del Alamo & Jim´enez (2006), who extracted coherent vortical structures from DNSs and proposed a less organized scenario. Although the two models are kinematically fairly similar, they have important dynamical differences, mostly regarding the relevance of the wall. Another open question is whether such a model can be used to explain the cascade process proposed by Kolmogorov (1941b) in terms of coherent structures. The challenge would be to identify coherent structures undergoing a turbulent cascade that can be quantified. To gain a better insight into the previous questions, we have developed a novel method to track coherent structures in time, and used it to characterize the temporal evolutions of eddies in turbulent channels with Reynolds numbers high enough to include a non-trivial range of length scales, and computational domains sufficiently long and wide to reproduce correctly the dynamics of the logarithmic layer. Our efforts have followed four steps. First, we have conducted a campaign of direct numerical simulations of turbulent channels at different Reynolds numbers and box sizes, and assessed the effect of the computational domain in the one-point statistics and spectra. From the results, we have concluded that computational domains with streamwise and spanwise sizes 2vr and vr times the half-height of the channel, respectively, are large enough to accurately capture the dynamical interactions between structures in the logarithmic layer and the rest of the scales. These simulations are used in the subsequent chapters. Second, the three-dimensional structures of intense tangential Reynolds stress in plane turbulent channels (Qs) have been studied by extending the classical quadrant analysis to three dimensions, with emphasis on the logarithmic and outer layers. The eddies are identified as connected regions of intense tangential Reynolds stress. Qs are then classified according to their streamwise and wall-normal fluctuating velocities as inward interactions, outward interactions, sweeps and ejections. It is found that wall-detached Qs are isotropically oriented background stress fluctuations, common to most turbulent flows, and do not contribute to the mean stress. Most of the stress is carried by a selfsimilar family of larger wall-attached Qs, increasingly complex away from the wall, with fractal dimensions « 2. They have shapes similar to ‘sponges of flakes’, while vortex clusters resemble ‘sponges of strings’. Although their number decays away from the wall, the fraction of the stress that they carry is independent of their heights, and a substantial part resides in a few objects extending beyond the centerline, reminiscent of the very large scale motions of several authors. The predominant logarithmic-layer structures are sideby- side pairs of sweeps and ejections, with an associated vortex cluster, and dimensions and stresses similar to Townsend’s conjectured wall-attached eddies. Third, the temporal evolution of Qs and vortex clusters are studied using time-resolved DNS data up to ReT = 4200 (friction Reynolds number). The eddies are identified following the procedure presented above, and then tracked in time. From the geometric intersection of structures in consecutive fields, we have built temporal connection graphs of all the objects, and defined main and secondary branches in a way that each branch represents the temporal evolution of one coherent structure. Once these evolutions are properly organized, they provide the necessary information to characterize eddies from birth to death. The results show that the eddies are born at all distances from the wall, although with higher probability near it, where the shear is strongest. Most of them stay small and do not last for long times. However, there is a family of eddies that become large enough to attach to the wall while they reach into the logarithmic layer, and become the wall-attached structures previously observed in instantaneous flow fields. They are geometrically self-similar, with sizes and lifetimes proportional to their distance from the wall. Most of them achieve lengths well above the Corrsin’ scale, and hence, their dynamics are controlled by the mean shear. Eddies associated with ejections move away from the wall with an average velocity uT (friction velocity), and their base attaches very fast at the beginning of their lives. Conversely, sweeps move towards the wall at -uT, and attach later. In both cases, they remain attached for 2/3 of their lives. In the streamwise direction, eddies are advected and deformed by the local mean velocity. Finally, we interpret the turbulent cascade not only as a way to conceptualize the flow, but as an actual physical process in which coherent structures merge and split. The volume of an eddy can change either smoothly, when they are not merging or splitting, or through sudden changes. The processes of merging and splitting can be thought of as a direct (when splitting) or an inverse (when merging) cascade, following the ideas envisioned by Richardson (1920) and Obukhov (1941). It is observed that there is a minimum length of 30η (Kolmogorov units) above which mergers and splits begin to be important. Moreover, all eddies above 100η split and merge at least once in their lives. In those cases, the total volume gained and lost is a substantial fraction of the average volume of the structure involved, with slightly more splits (direct cascade) than mergers. Most branch interactions are found to be the shedding or absorption of Kolmogorov-scale fragments by larger structures, but more balanced splits or mergers spanning a wide range of scales are also found to be important. The results show that splits are more probable at the end of the life of the eddy, while mergers take place at the beginning of the life. Although the results for the direct and the inverse cascades are not identical, they are found to be very symmetric, which suggests a high degree of reversibility of the cascade process.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las hortalizas mínimamente procesadas (MP) son productos frescos, higienizados, que sufren alteraciones físicas durante el proceso de elaboración que afectan a su metabolismo, determinando incrementos en la tasa respiratoria y producción de etileno. Los daños que se originan por las operaciones físicas, vuelven a estos productos más susceptibles a la colonización de microorganismos, inducen procesos de cicatrización de heridas y afectan su calidad organoléptica y funcional. Por ello en estos productos es especialmente crítico el aseguramiento de las condiciones de refrigeración desde el productor hasta el consumidor. En este estudio se presenta el análisis de las temperaturas registradas en Santiago (Chile) durante la cadena de producción y distribución de lechugas baby leaf MP tipo Salanova®, monitorizadas mediante sensores de temperatura y humedad relativa (I-Buttons®) y tarjetas RFID con sensor de temperatura (TurboTag®), colocados en el interior de las bolsas de lechuga y en el exterior de las cajas de agrupación. El objetivo del presente trabajo es generar información sobre el historial térmico de estos productos desde la huerta a la nevera del consumidor, así como optimizar los protocolos de colocación de dispositivos y sistematizar procedimientos de análisis de datos espacio-temporales. Con los datos registrados, se simuló la cadena de producción, distribución y venta, realizando un seguimiento de la calidad comercial del producto, evaluándose la tasa respiratoria y las características sensoriales sin degustación. Se observó que no solo se producen saltos térmicos discretos, sino que las lechugas estuvieron durante gran parte de su vida útil en condiciones sub-óptimas de temperatura, comprometiéndose su calidad sensorial.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La recuperación de energía a partir de biomasa y residuos no reciclables por la combustión está cobrando una notable importancia actualmente. Una de las técnicas más utilizadas para esta propuesta es la co-combustión de mezclas de residuos y biomasa. Con esta nueva tecnología, mezclas de diferentes materiales han aparecido en las instalaciones industriales y tienen que ser reconocidas como nuevos combustibles, debido a que a sus propiedades son aún desconocidas. Estas propiedades incluyen las energéticas, que son el objetivo del proceso de mezcla, y también las propiedades de inflamabilidad. Residuos y biomasa en forma de polvos tienen propiedades de ignición que se han de tener en cuenta a la hora de diseñar las medidas de prevención y protección en una instalación industrial. El objetivo principal de este estudio es determinar el riesgo de ignición de las mezclas de residuos / biomasa en capas y cómo, mediante la adición de diferentes cantidades de estos materiales, este riesgo puede cambiar. Para desarrollar este estudio, se utiliza la temperatura mínima de ignición en la capa. Tres muestras diferentes han sido analizadas, lodos con secado térmico de depuradora, paja de trigo y virutas de madera, Abstract Energy recovery from biomass and non-recyclable waste products by combustion has become important. One of the most used techniques for this proposal is the co-firing of waste and biomass mixtures, With this new technology, mixtures of different materials have appeared in the industrial facilities and they have to be treated as new fuels because their properties are unknown. Among this properties we include energetic properties that are the objective of the mixing process, and also the ignitability properties. Waste and biomass dusts have ignition properties that have to be taken into account in the design but also in the, prevention and protection process of an industrial facility.. The main objective of this research is to determine the risk of ignition of waste / biomass mixtures layers and how, by adding different quantities of these materials, this risk may vary. To develop this, the minimum ignition temperature on layer is used. Three different samples have been analysed, thermally dried sewage sludge, wheat straw and wood chips.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este trabajo de investigación que se presenta para optar al grado de Doctor, se analizan y estudian los materiales que conforman las viviendas de mampostería de arenisca “Piedra de Ojo” del casco histórico de Maracaibo, Venezuela, construidas en el siglo XIX. No existe una bibliografía descriptiva técnico-constructiva del sistema constructivo, por lo que esta tesis complementa la escasa descripción estilística existente donde apenas se mencionan algunos materiales de construcción. Definido el marco histórico y las manzanas del área en donde se encontraban las viviendas preseleccionadas a estudiar, en la visita de campo se seleccionaron 12 que se encontraban en estado de deterioro, y que permitieron recolectar las muestras más fácilmente. Para realizar la caracterización y comportamientos de los diferentes materiales utilizados: piedra y morteros en los cerramientos, maderas en armaduras de tejados, techos y carpintería de puertas y ventanas, cerámicos en muros y acabados, etc. Para complementar lo antes dicho se ha dividido esta tesis en seis capítulos: En el capítulo I se desarrolla el estado del arte a nivel nacional e internacional de trabajos de investigación, similares. Se aborda la memoria histórica, que es una reseña de la evolución de la vivienda en la ciudad de Maracaibo. En el capítulo II se describe la metodología empleada en la tesis, de acuerdo a los objetivos, tanto generales como específicos de la investigación. Que ha cubierto diferentes frentes: consulta bibliográfica, levantamiento planimétrico, toma de muestras, análisis de visu, caracterización físico-química y correlación de resultados. Se ha desarrollado el trabajo tanto in situ como en laboratorio y despacho. El capítulo III presenta la caracterización de la arenisca “Piedra de Ojo”, se desarrolla: la descripción geológica y caracterización petrológica. Se reseñan los ensayos realizados en laboratorio como: caracterización de visu, caracterización petrográfica, estudio petrográfico por microcopia óptica de trasmisión, estudio petrográfico por microcopia electrónica de barrido, microscopia electrónica de barrido en modo electrones secundarios (SSE) y microscopia electrónica de barrido en modo electrones retrodispersados. También las propiedades escalares de los mampuestos y los siguientes valores: densidades, porosidades y resistencia mecánicas, entre otros. En el capítulo IV se analizan las características de los morteros aplicados en las viviendas, y la patología o lesiones que presentan. Se clasifican en tres tipos: mortero de junta o asiento, de enfoscado y revoco. Se documenta la realización de los ensayos físicos y químicos, resistencia mecánica y de granulometría; se explican sus componentes principales: conglomerante de cal, áridos y aditivos y la tecnología de fabricación, así como las características físicas, hídricas, químicas y granulométricas. El capítulo V, contiene las aplicaciones constructivas de los materiales de albañilería, Se describen otros elementos de la vivienda como; cimentaciones, muros mixtos, molduras, apliques y pinturas y finalmente pavimentos. Y en el capítulo VI se analizan las especies de madera más representativas usadas en las armaduras de las cubiertas, así como los elementos de cubrición. De igual forma se describe la carpintería de puertas y ventanas, así como sus dinteles o cargaderos de madera y se realiza la identificación anatómica, las propiedades físicas y mecánicas de las utilizadas. Entre los resultados y conclusiones se determinó que el 90% de los materiales utilizados en su construcción proceden de zonas cercanas a la construcción de la vivienda, como la formación El Milagro convertida en cantera de piedra y que el resto de los materiales provenían de la Isla de Toas y de la exportación de las islas del Caribe y de Europa como el cemento. El principal aporte de esta investigación es el análisis técnico constructivo y la caracterización física, mecánica y química de los materiales de la vivienda, con el fin de que dicha información sea usada para definir los materiales nuevos a utilizar en las restauraciones de las viviendas y en futuras líneas de investigación. ABSTRACT In this research paper submitted to opt to the degree of Doctor, the materials that make the “Piedra de Ojo” sandstone masonry houses of the historical center of Maracaibo, Venezuela, built in the XIX century, are analyzed and studied. There exists no technical-constructive descriptive literature of the constructive system, so this thesis complements the very limited existing stylistic description, where barely some construction materials are mentioned. With the historical context and the blocks of the area where the preselected houses to be studied being defined, 12 of these houses that were in a state of decay (deterioration) were selected and this condition allowed to collect samples more easily, in order to carry out the characterization and behavior of the different materials used: stone and mortars in the walls, wood trusses in roofs, ceilings and woodwork of doors and windows, walls and ceramic finishes, etc. To complement the foregoing, this thesis has been divided in six chapters: In Chapter I, the state of art at national and international levels of similar research is developed, which is a review of the evolution of housing in the city of Maracaibo. In Chapter II, the methodology used in the thesis is described, according to the research’s objectives, general and specific ones, which have covered several fronts: literature survey, planimetric survey, sampling, visu analysis, physical-chemical characterization and correlation of results. Chapter III presents the characterization of the “Piedra de Ojo” sandstone; geological description and petrologic characterization are developed. Essays performed in the laboratory are reviewed, such as: visu characterization, petrographic characaterization, petrographic study by optical microscopy of transmission, petrographic study by electronic scanning microscopy in secondary electron mode (SSE) and electron microscopy scaning by backscattered electron mode. Also scalar properties of the masonry and the following: density, porosity and mechanical resistance, among others. In Chapter IV, characteristics of the mortars used in the houses are analyzed and pathology or damages are presented. They are classified into three types: grout, cement render and plaster. Physical and chemical testing, mechanical strength and grain size (granulometric) is documented; its main components are explained: lime binder, aggregates and additives and manufacturing technology as well as the physical, water, chemical and granulometric characteristics. Chapter V contains the constructive applications of masonry materials. Other housing elements are described, such as; foundations, mixed walls, moldings, wall paintings and finally floorings (pavements). And in chapter VI the most representative species of wood used in the overhead fixtures and cover elements are analyzed. Likewise, woodwork of doors and windows and their wooden lintels or landings are described; anatomical identification and physical and mechanical properties of the ones used is made. The results and conclusions determined that 90% of the materials used in its construction came from areas near the construction of housing, such as El Milagro formation, converted into stone quarry and other materials came from the Toas Island and from the export of the Caribbean islands and Europe, such as cement. The main contribution of this research is the constructive technical analysis and physical, mechanical and chemical characterization of the materials of the houses, in order that such information is used to define the new materials to be used in the housing restoration and future research lines.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis aborda metodologías para el cálculo de riesgo de colisión de satélites. La minimización del riesgo de colisión se debe abordar desde dos puntos de vista distintos. Desde el punto de vista operacional, es necesario filtrar los objetos que pueden presentar un encuentro entre todos los objetos que comparten el espacio con un satélite operacional. Puesto que las órbitas, del objeto operacional y del objeto envuelto en la colisión, no se conocen perfectamente, la geometría del encuentro y el riesgo de colisión deben ser evaluados. De acuerdo con dicha geometría o riesgo, una maniobra evasiva puede ser necesaria para evitar la colisión. Dichas maniobras implican un consumo de combustible que impacta en la capacidad de mantenimiento orbital y por tanto de la visa útil del satélite. Por tanto, el combustible necesario a lo largo de la vida útil de un satélite debe ser estimado en fase de diseño de la misión para una correcta definición de su vida útil, especialmente para satélites orbitando en regímenes orbitales muy poblados. Los dos aspectos, diseño de misión y aspectos operacionales en relación con el riesgo de colisión están abordados en esta tesis y se resumen en la Figura 3. En relación con los aspectos relacionados con el diseño de misión (parte inferior de la figura), es necesario evaluar estadísticamente las características de de la población espacial y las teorías que permiten calcular el número medio de eventos encontrados por una misión y su capacidad de reducir riesgo de colisión. Estos dos aspectos definen los procedimientos más apropiados para reducir el riesgo de colisión en fase operacional. Este aspecto es abordado, comenzando por la teoría descrita en [Sánchez-Ortiz, 2006]T.14 e implementada por el autor de esta tesis en la herramienta ARES [Sánchez-Ortiz, 2004b]T.15 proporcionada por ESA para la evaluación de estrategias de evitación de colisión. Esta teoría es extendida en esta tesis para considerar las características de los datos orbitales disponibles en las fases operacionales de un satélite (sección 4.3.3). Además, esta teoría se ha extendido para considerar riesgo máximo de colisión cuando la incertidumbre de las órbitas de objetos catalogados no es conocida (como se da el caso para los TLE), y en el caso de querer sólo considerar riesgo de colisión catastrófico (sección 4.3.2.3). Dichas mejoras se han incluido en la nueva versión de ARES [Domínguez-González and Sánchez-Ortiz, 2012b]T.12 puesta a disposición a través de [SDUP,2014]R.60. En fase operacional, los catálogos que proporcionan datos orbitales de los objetos espaciales, son procesados rutinariamente, para identificar posibles encuentros que se analizan en base a algoritmos de cálculo de riesgo de colisión para proponer maniobras de evasión. Actualmente existe una única fuente de datos públicos, el catálogo TLE (de sus siglas en inglés, Two Line Elements). Además, el Joint Space Operation Center (JSpOC) Americano proporciona mensajes con alertas de colisión (CSM) cuando el sistema de vigilancia americano identifica un posible encuentro. En función de los datos usados en fase operacional (TLE o CSM), la estrategia de evitación puede ser diferente debido a las características de dicha información. Es preciso conocer las principales características de los datos disponibles (respecto a la precisión de los datos orbitales) para estimar los posibles eventos de colisión encontrados por un satélite a lo largo de su vida útil. En caso de los TLE, cuya precisión orbital no es proporcionada, la información de precisión orbital derivada de un análisis estadístico se puede usar también en el proceso operacional así como en el diseño de la misión. En caso de utilizar CSM como base de las operaciones de evitación de colisiones, se conoce la precisión orbital de los dos objetos involucrados. Estas características se han analizado en detalle, evaluando estadísticamente las características de ambos tipos de datos. Una vez concluido dicho análisis, se ha analizado el impacto de utilizar TLE o CSM en las operaciones del satélite (sección 5.1). Este análisis se ha publicado en una revista especializada [Sánchez-Ortiz, 2015b]T.3. En dicho análisis, se proporcionan recomendaciones para distintas misiones (tamaño del satélite y régimen orbital) en relación con las estrategias de evitación de colisión para reducir el riesgo de colisión de manera significativa. Por ejemplo, en el caso de un satélite en órbita heliosíncrona en régimen orbital LEO, el valor típico del ACPL que se usa de manera extendida es 10-4. Este valor no es adecuado cuando los esquemas de evitación de colisión se realizan sobre datos TLE. En este caso, la capacidad de reducción de riesgo es prácticamente nula (debido a las grandes incertidumbres de los datos TLE) incluso para tiempos cortos de predicción. Para conseguir una reducción significativa del riesgo, sería necesario usar un ACPL en torno a 10-6 o inferior, produciendo unas 10 alarmas al año por satélite (considerando predicciones a un día) o 100 alarmas al año (con predicciones a tres días). Por tanto, la principal conclusión es la falta de idoneidad de los datos TLE para el cálculo de eventos de colisión. Al contrario, usando los datos CSM, debido a su mejor precisión orbital, se puede obtener una reducción significativa del riesgo con ACPL en torno a 10-4 (considerando 3 días de predicción). Incluso 5 días de predicción pueden ser considerados con ACPL en torno a 10-5. Incluso tiempos de predicción más largos se pueden usar (7 días) con reducción del 90% del riesgo y unas 5 alarmas al año (en caso de predicciones de 5 días, el número de maniobras se mantiene en unas 2 al año). La dinámica en GEO es diferente al caso LEO y hace que el crecimiento de las incertidumbres orbitales con el tiempo de propagación sea menor. Por el contrario, las incertidumbres derivadas de la determinación orbital son peores que en LEO por las diferencias en las capacidades de observación de uno y otro régimen orbital. Además, se debe considerar que los tiempos de predicción considerados para LEO pueden no ser apropiados para el caso de un satélite GEO (puesto que tiene un periodo orbital mayor). En este caso usando datos TLE, una reducción significativa del riesgo sólo se consigue con valores pequeños de ACPL, produciendo una alarma por año cuando los eventos de colisión se predicen a un día vista (tiempo muy corto para implementar maniobras de evitación de colisión).Valores más adecuados de ACPL se encuentran entre 5•10-8 y 10-7, muy por debajo de los valores usados en las operaciones actuales de la mayoría de las misiones GEO (de nuevo, no se recomienda en este régimen orbital basar las estrategias de evitación de colisión en TLE). Los datos CSM permiten una reducción de riesgo apropiada con ACPL entre 10-5 y 10-4 con tiempos de predicción cortos y medios (10-5 se recomienda para predicciones a 5 o 7 días). El número de maniobras realizadas sería una en 10 años de misión. Se debe notar que estos cálculos están realizados para un satélite de unos 2 metros de radio. En el futuro, otros sistemas de vigilancia espacial (como el programa SSA de la ESA), proporcionarán catálogos adicionales de objetos espaciales con el objetivo de reducir el riesgo de colisión de los satélites. Para definir dichos sistemas de vigilancia, es necesario identificar las prestaciones del catalogo en función de la reducción de riesgo que se pretende conseguir. Las características del catálogo que afectan principalmente a dicha capacidad son la cobertura (número de objetos incluidos en el catalogo, limitado principalmente por el tamaño mínimo de los objetos en función de las limitaciones de los sensores utilizados) y la precisión de los datos orbitales (derivada de las prestaciones de los sensores en relación con la precisión de las medidas y la capacidad de re-observación de los objetos). El resultado de dicho análisis (sección 5.2) se ha publicado en una revista especializada [Sánchez-Ortiz, 2015a]T.2. Este análisis no estaba inicialmente previsto durante la tesis, y permite mostrar como la teoría descrita en esta tesis, inicialmente definida para facilitar el diseño de misiones (parte superior de la figura 1) se ha extendido y se puede aplicar para otros propósitos como el dimensionado de un sistema de vigilancia espacial (parte inferior de la figura 1). La principal diferencia de los dos análisis se basa en considerar las capacidades de catalogación (precisión y tamaño de objetos observados) como una variable a modificar en el caso de un diseño de un sistema de vigilancia), siendo fijas en el caso de un diseño de misión. En el caso de las salidas generadas en el análisis, todos los aspectos calculados en un análisis estadístico de riesgo de colisión son importantes para diseño de misión (con el objetivo de calcular la estrategia de evitación y la cantidad de combustible a utilizar), mientras que en el caso de un diseño de un sistema de vigilancia, los aspectos más importantes son el número de maniobras y falsas alarmas (fiabilidad del sistema) y la capacidad de reducción de riesgo (efectividad del sistema). Adicionalmente, un sistema de vigilancia espacial debe ser caracterizado por su capacidad de evitar colisiones catastróficas (evitando así in incremento dramático de la población de basura espacial), mientras que el diseño de una misión debe considerar todo tipo de encuentros, puesto que un operador está interesado en evitar tanto las colisiones catastróficas como las letales. Del análisis de las prestaciones (tamaño de objetos a catalogar y precisión orbital) requeridas a un sistema de vigilancia espacial se concluye que ambos aspectos han de ser fijados de manera diferente para los distintos regímenes orbitales. En el caso de LEO se hace necesario observar objetos de hasta 5cm de radio, mientras que en GEO se rebaja este requisito hasta los 100 cm para cubrir las colisiones catastróficas. La razón principal para esta diferencia viene de las diferentes velocidades relativas entre los objetos en ambos regímenes orbitales. En relación con la precisión orbital, ésta ha de ser muy buena en LEO para poder reducir el número de falsas alarmas, mientras que en regímenes orbitales más altos se pueden considerar precisiones medias. En relación con los aspectos operaciones de la determinación de riesgo de colisión, existen varios algoritmos de cálculo de riesgo entre dos objetos espaciales. La Figura 2 proporciona un resumen de los casos en cuanto a algoritmos de cálculo de riesgo de colisión y como se abordan en esta tesis. Normalmente se consideran objetos esféricos para simplificar el cálculo de riesgo (caso A). Este caso está ampliamente abordado en la literatura y no se analiza en detalle en esta tesis. Un caso de ejemplo se proporciona en la sección 4.2. Considerar la forma real de los objetos (caso B) permite calcular el riesgo de una manera más precisa. Un nuevo algoritmo es definido en esta tesis para calcular el riesgo de colisión cuando al menos uno de los objetos se considera complejo (sección 4.4.2). Dicho algoritmo permite calcular el riesgo de colisión para objetos formados por un conjunto de cajas, y se ha presentado en varias conferencias internacionales. Para evaluar las prestaciones de dicho algoritmo, sus resultados se han comparado con un análisis de Monte Carlo que se ha definido para considerar colisiones entre cajas de manera adecuada (sección 4.1.2.3), pues la búsqueda de colisiones simples aplicables para objetos esféricos no es aplicable a este caso. Este análisis de Monte Carlo se considera la verdad a la hora de calcular los resultados del algoritmos, dicha comparativa se presenta en la sección 4.4.4. En el caso de satélites que no se pueden considerar esféricos, el uso de un modelo de la geometría del satélite permite descartar eventos que no son colisiones reales o estimar con mayor precisión el riesgo asociado a un evento. El uso de estos algoritmos con geometrías complejas es más relevante para objetos de dimensiones grandes debido a las prestaciones de precisión orbital actuales. En el futuro, si los sistemas de vigilancia mejoran y las órbitas son conocidas con mayor precisión, la importancia de considerar la geometría real de los satélites será cada vez más relevante. La sección 5.4 presenta un ejemplo para un sistema de grandes dimensiones (satélite con un tether). Adicionalmente, si los dos objetos involucrados en la colisión tienen velocidad relativa baja (y geometría simple, Caso C en la Figura 2), la mayor parte de los algoritmos no son aplicables requiriendo implementaciones dedicadas para este caso particular. En esta tesis, uno de estos algoritmos presentado en la literatura [Patera, 2001]R.26 se ha analizado para determinar su idoneidad en distintos tipos de eventos (sección 4.5). La evaluación frete a un análisis de Monte Carlo se proporciona en la sección 4.5.2. Tras este análisis, se ha considerado adecuado para abordar las colisiones de baja velocidad. En particular, se ha concluido que el uso de algoritmos dedicados para baja velocidad son necesarios en función del tamaño del volumen de colisión proyectado en el plano de encuentro (B-plane) y del tamaño de la incertidumbre asociada al vector posición entre los dos objetos. Para incertidumbres grandes, estos algoritmos se hacen más necesarios pues la duración del intervalo en que los elipsoides de error de los dos objetos pueden intersecar es mayor. Dicho algoritmo se ha probado integrando el algoritmo de colisión para objetos con geometrías complejas. El resultado de dicho análisis muestra que este algoritmo puede ser extendido fácilmente para considerar diferentes tipos de algoritmos de cálculo de riesgo de colisión (sección 4.5.3). Ambos algoritmos, junto con el método Monte Carlo para geometrías complejas, se han implementado en la herramienta operacional de la ESA CORAM, que es utilizada para evaluar el riesgo de colisión en las actividades rutinarias de los satélites operados por ESA [Sánchez-Ortiz, 2013a]T.11. Este hecho muestra el interés y relevancia de los algoritmos desarrollados para la mejora de las operaciones de los satélites. Dichos algoritmos han sido presentados en varias conferencias internacionales [Sánchez-Ortiz, 2013b]T.9, [Pulido, 2014]T.7,[Grande-Olalla, 2013]T.10, [Pulido, 2014]T.5, [Sánchez-Ortiz, 2015c]T.1. ABSTRACT This document addresses methodologies for computation of the collision risk of a satellite. Two different approaches need to be considered for collision risk minimisation. On an operational basis, it is needed to perform a sieve of possible objects approaching the satellite, among all objects sharing the space with an operational satellite. As the orbits of both, satellite and the eventual collider, are not perfectly known but only estimated, the miss-encounter geometry and the actual risk of collision shall be evaluated. In the basis of the encounter geometry or the risk, an eventual manoeuvre may be required to avoid the conjunction. Those manoeuvres will be associated to a reduction in the fuel for the mission orbit maintenance, and thus, may reduce the satellite operational lifetime. Thus, avoidance manoeuvre fuel budget shall be estimated, at mission design phase, for a better estimation of mission lifetime, especially for those satellites orbiting in very populated orbital regimes. These two aspects, mission design and operational collision risk aspects, are summarised in Figure 3, and covered along this thesis. Bottom part of the figure identifies the aspects to be consider for the mission design phase (statistical characterisation of the space object population data and theory computing the mean number of events and risk reduction capability) which will define the most appropriate collision avoidance approach at mission operational phase. This part is covered in this work by starting from the theory described in [Sánchez-Ortiz, 2006]T.14 and implemented by this author in ARES tool [Sánchez-Ortiz, 2004b]T.15 provided by ESA for evaluation of collision avoidance approaches. This methodology has been now extended to account for the particular features of the available data sets in operational environment (section 4.3.3). Additionally, the formulation has been extended to allow evaluating risk computation approached when orbital uncertainty is not available (like the TLE case) and when only catastrophic collisions are subject to study (section 4.3.2.3). These improvements to the theory have been included in the new version of ESA ARES tool [Domínguez-González and Sánchez-Ortiz, 2012b]T.12 and available through [SDUP,2014]R.60. At the operation phase, the real catalogue data will be processed on a routine basis, with adequate collision risk computation algorithms to propose conjunction avoidance manoeuvre optimised for every event. The optimisation of manoeuvres in an operational basis is not approached along this document. Currently, American Two Line Element (TLE) catalogue is the only public source of data providing orbits of objects in space to identify eventual conjunction events. Additionally, Conjunction Summary Message (CSM) is provided by Joint Space Operation Center (JSpOC) when the American system identifies a possible collision among satellites and debris. Depending on the data used for collision avoidance evaluation, the conjunction avoidance approach may be different. The main features of currently available data need to be analysed (in regards to accuracy) in order to perform estimation of eventual encounters to be found along the mission lifetime. In the case of TLE, as these data is not provided with accuracy information, operational collision avoidance may be also based on statistical accuracy information as the one used in the mission design approach. This is not the case for CSM data, which includes the state vector and orbital accuracy of the two involved objects. This aspect has been analysed in detail and is depicted in the document, evaluating in statistical way the characteristics of both data sets in regards to the main aspects related to collision avoidance. Once the analysis of data set was completed, investigations on the impact of those features in the most convenient avoidance approaches have been addressed (section 5.1). This analysis is published in a peer-reviewed journal [Sánchez-Ortiz, 2015b]T.3. The analysis provides recommendations for different mission types (satellite size and orbital regime) in regards to the most appropriate collision avoidance approach for relevant risk reduction. The risk reduction capability is very much dependent on the accuracy of the catalogue utilized to identify eventual collisions. Approaches based on CSM data are recommended against the TLE based approach. Some approaches based on the maximum risk associated to envisaged encounters are demonstrated to report a very large number of events, which makes the approach not suitable for operational activities. Accepted Collision Probability Levels are recommended for the definition of the avoidance strategies for different mission types. For example for the case of a LEO satellite in the Sun-synchronous regime, the typically used ACPL value of 10-4 is not a suitable value for collision avoidance schemes based on TLE data. In this case the risk reduction capacity is almost null (due to the large uncertainties associated to TLE data sets, even for short time-to-event values). For significant reduction of risk when using TLE data, ACPL on the order of 10-6 (or lower) seems to be required, producing about 10 warnings per year and mission (if one-day ahead events are considered) or 100 warnings per year (for three-days ahead estimations). Thus, the main conclusion from these results is the lack of feasibility of TLE for a proper collision avoidance approach. On the contrary, for CSM data, and due to the better accuracy of the orbital information when compared with TLE, ACPL on the order of 10-4 allows to significantly reduce the risk. This is true for events estimated up to 3 days ahead. Even 5 days ahead events can be considered, but ACPL values down to 10-5 should be considered in such case. Even larger prediction times can be considered (7 days) for risk reduction about 90%, at the cost of larger number of warnings up to 5 events per year, when 5 days prediction allows to keep the manoeuvre rate in 2 manoeuvres per year. Dynamics of the GEO orbits is different to that in LEO, impacting on a lower increase of orbits uncertainty along time. On the contrary, uncertainties at short prediction times at this orbital regime are larger than those at LEO due to the differences in observation capabilities. Additionally, it has to be accounted that short prediction times feasible at LEO may not be appropriate for a GEO mission due to the orbital period being much larger at this regime. In the case of TLE data sets, significant reduction of risk is only achieved for small ACPL values, producing about a warning event per year if warnings are raised one day in advance to the event (too short for any reaction to be considered). Suitable ACPL values would lay in between 5•10-8 and 10-7, well below the normal values used in current operations for most of the GEO missions (TLE-based strategies for collision avoidance at this regime are not recommended). On the contrary, CSM data allows a good reduction of risk with ACPL in between 10-5 and 10-4 for short and medium prediction times. 10-5 is recommended for prediction times of five or seven days. The number of events raised for a suitable warning time of seven days would be about one in a 10-year mission. It must be noted, that these results are associated to a 2 m radius spacecraft, impact of the satellite size are also analysed within the thesis. In the future, other Space Situational Awareness Systems (SSA, ESA program) may provide additional catalogues of objects in space with the aim of reducing the risk. It is needed to investigate which are the required performances of those catalogues for allowing such risk reduction. The main performance aspects are coverage (objects included in the catalogue, mainly limited by a minimum object size derived from sensor performances) and the accuracy of the orbital data to accurately evaluate the conjunctions (derived from sensor performance in regards to object observation frequency and accuracy). The results of these investigations (section 5.2) are published in a peer-reviewed journal [Sánchez-Ortiz, 2015a]T.2. This aspect was not initially foreseen as objective of the thesis, but it shows how the theory described in the thesis, initially defined for mission design in regards to avoidance manoeuvre fuel allocation (upper part of figure 1), is extended and serves for additional purposes as dimensioning a Space Surveillance and Tracking (SST) system (bottom part of figure below). The main difference between the two approaches is the consideration of the catalogue features as part of the theory which are not modified (for the satellite mission design case) instead of being an input for the analysis (in the case of the SST design). In regards to the outputs, all the features computed by the statistical conjunction analysis are of importance for mission design (with the objective of proper global avoidance strategy definition and fuel allocation), whereas for the case of SST design, the most relevant aspects are the manoeuvre and false alarm rates (defining a reliable system) and the Risk Reduction capability (driving the effectiveness of the system). In regards to the methodology for computing the risk, the SST system shall be driven by the capacity of providing the means to avoid catastrophic conjunction events (avoiding the dramatic increase of the population), whereas the satellite mission design should consider all type of encounters, as the operator is interested on avoiding both lethal and catastrophic collisions. From the analysis of the SST features (object coverage and orbital uncertainty) for a reliable system, it is concluded that those two characteristics are to be imposed differently for the different orbital regimes, as the population level is different depending on the orbit type. Coverage values range from 5 cm for very populated LEO regime up to 100 cm in the case of GEO region. The difference on this requirement derives mainly from the relative velocity of the encounters at those regimes. Regarding the orbital knowledge of the catalogues, very accurate information is required for objects in the LEO region in order to limit the number of false alarms, whereas intermediate orbital accuracy can be considered for higher orbital regimes. In regards to the operational collision avoidance approaches, several collision risk algorithms are used for evaluation of collision risk of two pair of objects. Figure 2 provides a summary of the different collision risk algorithm cases and indicates how they are covered along this document. The typical case with high relative velocity is well covered in literature for the case of spherical objects (case A), with a large number of available algorithms, that are not analysed in detailed in this work. Only a sample case is provided in section 4.2. If complex geometries are considered (Case B), a more realistic risk evaluation can be computed. New approach for the evaluation of risk in the case of complex geometries is presented in this thesis (section 4.4.2), and it has been presented in several international conferences. The developed algorithm allows evaluating the risk for complex objects formed by a set of boxes. A dedicated Monte Carlo method has also been described (section 4.1.2.3) and implemented to allow the evaluation of the actual collisions among a large number of simulation shots. This Monte Carlo runs are considered the truth for comparison of the algorithm results (section 4.4.4). For spacecrafts that cannot be considered as spheres, the consideration of the real geometry of the objects may allow to discard events which are not real conjunctions, or estimate with larger reliability the risk associated to the event. This is of particular importance for the case of large spacecrafts as the uncertainty in positions of actual catalogues does not reach small values to make a difference for the case of objects below meter size. As the tracking systems improve and the orbits of catalogued objects are known more precisely, the importance of considering actual shapes of the objects will become more relevant. The particular case of a very large system (as a tethered satellite) is analysed in section 5.4. Additionally, if the two colliding objects have low relative velocity (and simple geometries, case C in figure above), the most common collision risk algorithms fail and adequate theories need to be applied. In this document, a low relative velocity algorithm presented in the literature [Patera, 2001]R.26 is described and evaluated (section 4.5). Evaluation through comparison with Monte Carlo approach is provided in section 4.5.2. The main conclusion of this analysis is the suitability of this algorithm for the most common encounter characteristics, and thus it is selected as adequate for collision risk estimation. Its performances are evaluated in order to characterise when it can be safely used for a large variety of encounter characteristics. In particular, it is found that the need of using dedicated algorithms depend on both the size of collision volume in the B-plane and the miss-distance uncertainty. For large uncertainties, the need of such algorithms is more relevant since for small uncertainties the encounter duration where the covariance ellipsoids intersect is smaller. Additionally, its application for the case of complex satellite geometries is assessed (case D in figure above) by integrating the developed algorithm in this thesis with Patera’s formulation for low relative velocity encounters. The results of this analysis show that the algorithm can be easily extended for collision risk estimation process suitable for complex geometry objects (section 4.5.3). The two algorithms, together with the Monte Carlo method, have been implemented in the operational tool CORAM for ESA which is used for the evaluation of collision risk of ESA operated missions, [Sánchez-Ortiz, 2013a]T.11. This fact shows the interest and relevance of the developed algorithms for improvement of satellite operations. The algorithms have been presented in several international conferences, [Sánchez-Ortiz, 2013b]T.9, [Pulido, 2014]T.7,[Grande-Olalla, 2013]T.10, [Pulido, 2014]T.5, [Sánchez-Ortiz, 2015c]T.1.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Historically, teachers have always searched for a connection with their students to make education interesting and a vital experience. In the 19th century, pedagogue Johann Heinrich Pestalozzi taught children how to sum using wood blocks. His successors have followed his legacy and today they use a wide variety of media, including board games, in order to reach out to their students. These methods are denominated educational technologies, which are defined as the study and ethical practice of facilitating learning and improving performance by creating, using, and managing appropriate technological processes and resources. With the advent of the information technologies, teachers have at their disposal new media with which they can increase the interest of their students. This technologic revolution is changing the present educational model. The objective of this dissertation is to develop an educational videogame in order to help students learn mathematics. To reach this goal, the videogame has been developed with the game engine Unity as the main tool. Additionally, agile software development methodologies as well as other software engineering techniques have also been used. The result is Riskmatica, an educational videogame based on geographical domination in which knowledge is the best weapon. The players must conquer enemy teritories answering correctly a mathecatical question. Moreover the videogame has the functionality required to configure a new game and input new questions. To conclude, this project has created an educational technology which greatly appeals to students and that can be used by the educators to improve their lessons in mathematics.---RESUMEN---A lo largo de la historia, los educadores siempre han buscado conectar con los alumnos para poder captar su interés y hacer que la educación se convierta en una experiencia vital. El pedagogo Johann Heinrich Pestalozzi conseguía esto en el siglo XIX, enseñando a niños a contar con bloques de madera. Sus sucesores han seguido su legado y hoy en día utilizan variedad de medios con los que motivar a sus alumnos, en algunos casos los juegos de mesa. Estos métodos son denominados tecnologías educativas, que se definen como los estudios y prácticas éticas que facilitan y mejoran la enseñanza, mediante la creación, el uso y el empleo de procesos y recursos tecnológicos. Con el advenimiento de las tecnologías de la información, los educadores tienen a su disposición un nuevo medio con el que llegar al alumnado. Esta revolución tecnológica está cambiando el modelo educativo actual. El objetivo de este proyecto es el de crear un videojuego educativo que ayude a los alumnos a estudiar matemáticas. Para lograrlo se ha utilizado el popular motor de videojuego Unity como herramienta principal. También se han empleado metodologías ágiles de desarrollo además de otras técnicas de ingeniería del software. El resultado es Riskmática, un videojuego educativo de dominación geográfica en el que el arma más eficaz es el conocimiento. Los jugadores deberán conquistar territorios a sus adversarios mediante la respuesta de preguntas de carácter matemático. Además el videojuego cuenta con la funcionalidad necesaria para configurar una partida e introducir nuevas preguntas. Como conlusión, este proyecto ha logrado crear una tecnología educativa muy atractiva para los alumnos con la que los profesores pueden mejorar la enseñanza de las matemáticas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Quercus pyrenaica es una especie rebrotadora de raíz intensa e históricamente aprovechada en monte bajo para la obtención de leñas, carbón y pastos. Debido al éxodo rural y a la aparición de nuevas fuentes energéticas, este aprovechamiento fue abandonado en la década de 1970. Desde entonces, las bajas producciones de madera y bellota y el puntisecado de los pies evidencian el generalizado estancamiento de estas masas. Uno de los mayores retos actuales de la selvicultura en el ámbito mediterráneo es encontrar usos alternativos para estos montes abandonados, siendo la conversión a monte alto una de las alternativas preferidas. Se han realizado resalveos de conversión, sin embrago, éstos se aplican sin un conocimiento integral de las causas de la degradación. En esta tesis doctoral, estudiamos un hipotético desequilibrio entre la parte radical y la parte aérea (R:S) de las cepas de rebollo como causa subyacente de su decaimiento. En una parcela experimental, aprovechada al menos desde el siglo XII, se realizaron análisis genéticos a priori para elucidar la estructura genética del rodal, y así estudiar la influencia del tamaño clonal en el funcionamiento de las cepas. Las cepas de mayor tamaño presentaron un menor crecimiento diametral de sus pies, así como mayores tasas de respiración radical, estimadas a partir de flujos internos de CO2 a través del xilema (FT) y de los flujos de CO2 del suelo. Estos resultados sugieren que el desequilibrio R:S aumenta con el tamaño clonal, dado que la eliminación periódica de órganos aéreos, al mismo tiempo que las raíces permanecen intactas, da lugar a un gran desarrollo del sistema radical que consume gran parte de los carbohidratos no estructurales (NSC) en respiración de mantenimiento, comprometiendo así el desarrollo de órganos aéreos. Se excavaron y pesaron dos cepas compuestas por cuatro y ocho pies, las cuales mostraron ratios R:S (0.5 y 1, respectivamente) superiores a los registrados en pies de origen sexual. Al igual que en otras especies rebrotadoras de raíz, se observaron altas concentraciones de NSC en las raíces (> 20% en primavera) y una gran proporción de albura en el sistema radical (52%) que alberga una notable reserva de NSC (87 kg en la cepa de mayor tamaño). En el sistema radical de dicha cepa, estimada mediante dataciones radiocarbónicas en 550 años de edad, se contaron 248 uniones radicales. La persistencia de sistemas radicales grandes, viejos, y altamente interconectados sugiere que la gran cantidad de recursos almacenados y consumidos en las raíces compensan un pobre desarrollo aéreo con una alta resiliencia vegetativa. Para un mejor entendimiento de los balances de carbono y del agotamiento de NSC en las cepas de rebollo, se midieron los flujos internos y externos de CO2 en troncos y los flujos de CO2 del suelo, y se estimó la respiración de órganos aéreos (RS) y subterráneos (RR). Estacionalmente, RS y RR reflejaron las dinámicas de flujo de savia y de crecimiento del tronco, y estuvieron determinadas principalmente por los flujos externos de CO2, dada la escasa contribución de FT a RS y RR (< 10% y < 2%, respectivamente). En una escala circadiana, la contribución de FT a RS aumentó hasta un 25% en momentos de alta transpiración. Las bajas concentraciones de CO2 en el xilema ([CO2] hasta un 0.11%) determinaron comparativamente unos bajos FT, probablemente causados por una limitada respiración del xilema y una baja resistencia a la difusión radial del CO2 impuestos por la sequía estival. Los pulsos de [CO2] observados tras las primeras lluvias de otoño apoyan esta idea. A lo largo del periodo vegetativo, el flujo medio de CO2 procedente del suelo (39 mol CO2 day-1) fue el mayor flujo respiratorio, tres y cuatro veces superior a RS (12 mol CO2 day-1) y RR (8-9 mol CO2 day-1), respectivamente. Ratios RR/RS menores que la unidad evidencian un importante peso de la respiración aérea como sumidero de carbono adicional. Finalmente, se ensayó el zanjado de raíces y el anillamiento de troncos como tratamientos selvícolas alternativos con el objetivo de aumentar las reservas de NSC en los troncos de las cepas. Los resultados preliminares desaconsejan el zanjado de raíces por el alto coste derivado posiblemente de la cicatrización de las heridas. El anillado de troncos imposibilitó el transporte de NSC a las raíces y aumentó la concentración de almidón por encima de la zona anillada, mientras que sistema radical se mantiene por los pies no anillados de la cepa. Son necesarias más mediciones y datos adicionales para comprobar el mantenimiento de esta respuesta positiva a largo plazo. Para concluir, destacamos la necesidad de estudios multidisciplinares que permitan una comprensión integral de la degradación de los rebollares ibéricos para poder aplicar a posteriori una gestión adecuada en estos montes bajos abandonados. ABSTRACT Quercus pyrenaica is a vigorous root-resprouting species intensively and historically coppiced for firewood, charcoal and woody pastures. Due to the rural exodus and the appearance of new energy sources, coppicing was abandoned towards 1970. Since then, tree overaging has resulted in stand stagnation displayed by slow stem growth, branch dieback, and scarce acorn production. The urgent need to find new alternative uses for abandoned coppices is recognized as one of the biggest challenges which currently faces Mediterranean silviculture; conversion into high forest by thinning is one of the preferred alternatives. For this aim, thinning has been broadly applied and seldom tested, although without a comprehensive understanding of the causes of stand stagnation. In this PhD study, we test the hypothesis of an imbalance between above- and below-ground organs, result of long term coppicing, as the underlying cause of Q. pyrenaica decay. In an experimental plot coppiced since at least the 12th century, genetic analyses were performed a priori to elucidate inconspicuous clonal structure of Q. pyrenaica to evaluate how clonal size affects the functioning of these multi-stemmed trees. Clonal size negatively affected diametric stem growth, whereas root respiration rates, measured by internal fluxes of CO2 through xylem (FT) and soil CO2 efflux, increased with clonal size. These results suggest root-to-shoot (R:S) imbalance intensifying with clonal size: periodic removal of aboveground organs whilst belowground organs remain undisturbed may have led to massive root systems which consume a great proportion of non-structural carbohydrates (NSC) for maintenance respiration, thus constraining aboveground performance. Furthermore, excavation of two multi-stemmed trees, composed by four and eight stems, revealed R:S ratios (0.5 and 1, respectively) greater than those reported for sexually regenerated trees. Moreover, as similarly observed in several root-resprouting species, NSC allocation to roots was favored ([NSC] > 20% in spring): a large proportion of sapwood maintained throughout the root system (52%) stored a remarkable NSC pool of 87 kg in the case of the largest clone. In this root system of the eight-stemmed tree, 248 root connections were counted and, by radiocarbon dating, its age was estimated to be 550-years-old. Persistence of massive, old and highly interconnected root systems suggests that enhanced belowground NSC storage and consumption reflects a trade-off between vegetative resilience and aboveground development. For a better understanding of tree carbon budget and the potential role of carbon starvation in Q. pyrenaica decay, internal and external stem CO2 fluxes and soil CO2 effluxes were monitored to evaluate respiratory costs above- and below-ground. On a seasonal scale, stem and root respiration (RS and RR) mirrored sap flow and stem growth dynamics. Respiration was determined to the greatest extent by external fluxes of CO2 to the atmosphere or soil, since FT accounted for a low proportion of RS and RR (< 10% and < 2%, respectively). On a diel scale, the contribution of FT to RS increased up to 25% at high transpiration rates. Comparatively low FT was determined by the low concentration of xylem CO2 registered ([CO2] as low as 0.11%), likely as a consequence of constrained xylem respiration and reduced resistance to CO2 radial diffusion imposed by summer drought. Xylem [CO2] pulses following first autumn rains support this idea. Averaged over the growing season, soil CO2 efflux was the greatest respiratory flux (39 mol CO2 day-1), three and four times greater than RS (12 mol CO2 day-1) and RR (8-9 mol CO2 day-1), respectively. Ratios of RR/RS below one evidence an additional and important weight of aboveground respiration as a tree carbon sink. Finally, root trenching and stem girdling were tested as complimentary treatments to thinning as a means to improve carbon reserves in stems of clonal trees. Preliminary results discouraged root trenching due to the high cost likely incurred for wound closure. Stem girdling successfully blocked NSC translocation downward, increasing starch concentrations above the girdled zone whilst the root system is fed by non-girdled stems within the clone. Further measurements and ancillary data are necessary to verify that this positive effect hold over time. To conclude, the need of multidisciplinary approaches for an integrative understanding on the functioning of abandoned Q pyrenaica coppices is highlighted for an appropriate management of these stands.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La utilización de biomasas con fines energéticos es una actividad que forma parte de la historia de la humanidad desde tiempos prehistóricos, cuando el hombre aprendió a generar y a mantener el fuego, utilizando el calor que se generaba al quemar madera o cualquier materia vegetal para calentarse, cocinar, modelar arcilla e incluso dar forma a instrumentos y herramientas. Esta actividad ha sido protagonista de la vida cotidiana de las familias hasta prácticamente el siglo pasado en los países del denominado ‘primer mundo’, mientras que se mantiene como esencial en la mayoría de los países menos desarrollados, donde se continúan utilizando biomasas para generar ese calor fundamental para cubrir las necesidades básicas de cualquier individuo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El 10 de octubre de 2008 la Organización Marítima Internacional (OMI) firmó una modificación al Anexo VI del convenio MARPOL 73/78, por la que estableció una reducción progresiva de las emisiones de óxidos de azufre (SOx) procedentes de los buques, una reducción adicional de las emisiones de óxidos de nitrógeno (NOx), así como límites en las emisiones de dióxido de Carbono (CO2) procedentes de los motores marinos y causantes de problemas medioambientales como la lluvia ácida y efecto invernadero. Centrándonos en los límites sobre las emisiones de azufre, a partir del 1 de enero de 2015 esta normativa obliga a todos los buques que naveguen por zonas controladas, llamadas Emission Control Area (ECA), a consumir combustibles con un contenido de azufre menor al 0,1%. A partir del 1 de enero del año 2020, o bien del año 2025, si la OMI decide retrasar su inicio, los buques deberán consumir combustibles con un contenido de azufre menor al 0,5%. De igual forma que antes, el contenido deberá ser rebajado al 0,1%S, si navegan por el interior de zonas ECA. Por su parte, la Unión Europea ha ido más allá que la OMI, adelantando al año 2020 la aplicación de los límites más estrictos de la ley MARPOL sobre las aguas de su zona económica exclusiva. Para ello, el 21 de noviembre de 2013 firmó la Directiva 2012 / 33 / EU como adenda a la Directiva de 1999. Tengamos presente que la finalidad de estas nuevas leyes es la mejora de la salud pública y el medioambiente, produciendo beneficios sociales, en forma de reducción de enfermedades, sobre todo de tipo respiratorio, a la vez que se reduce la lluvia ácida y sus nefastas consecuencias. La primera pregunta que surge es ¿cuál es el combustible actual de los buques y cuál será el que tengan que consumir para cumplir con esta Regulación? Pues bien, los grandes buques de navegación internacional consumen hoy en día fuel oil con un nivel de azufre de 3,5%. ¿Existen fueles con un nivel de azufre de 0,5%S? Como hemos concluido en el capítulo 4, para las empresas petroleras, la producción de fuel oil como combustible marino es tratada como un subproducto en su cesta de productos refinados por cada barril de Brent, ya que la demanda de fuel respecto a otros productos está bajando y además, el margen de beneficio que obtienen por la venta de otros productos petrolíferos es mayor que con el fuel. Así, podemos decir que las empresas petroleras no están interesadas en invertir en sus refinerías para producir estos fueles con menor contenido de azufre. Es más, en el caso de que alguna compañía decidiese invertir en producir un fuel de 0,5%S, su precio debería ser muy similar al del gasóleo para poder recuperar las inversiones empleadas. Por lo tanto, el único combustible que actualmente cumple con los nuevos niveles impuestos por la OMI es el gasóleo, con un precio que durante el año 2014 estuvo a una media de 307 USD/ton más alto que el actual fuel oil. Este mayor precio de compra de combustible impactará directamente sobre el coste del trasporte marítimo. La entrada en vigor de las anteriores normativas está suponiendo un reto para todo el sector marítimo. Ante esta realidad, se plantean diferentes alternativas con diferentes implicaciones técnicas, operativas y financieras. En la actualidad, son tres las alternativas con mayor aceptación en el sector. La primera alternativa consiste en “no hacer nada” y simplemente cambiar el tipo de combustible de los grandes buques de fuel oil a gasóleo. Las segunda alternativa es la instalación de un equipo scrubber, que permitiría continuar con el consumo de fuel oil, limpiando sus gases de combustión antes de salir a la atmósfera. Y, por último, la tercera alternativa consiste en el uso de Gas Natural Licuado (GNL) como combustible, con un precio inferior al del gasóleo. Sin embargo, aún existen importantes incertidumbres sobre la evolución futura de precios, operación y mantenimiento de las nuevas tecnologías, inversiones necesarias, disponibilidad de infraestructura portuaria e incluso el desarrollo futuro de la propia normativa internacional. Estas dudas hacen que ninguna de estas tres alternativas sea unánime en el sector. En esta tesis, tras exponer en el capítulo 3 la regulación aplicable al sector, hemos investigado sus consecuencias. Para ello, hemos examinado en el capítulo 4 si existen en la actualidad combustibles marinos que cumplan con los nuevos límites de azufre o en su defecto, cuál sería el precio de los nuevos combustibles. Partimos en el capítulo 5 de la hipótesis de que todos los buques cambian su consumo de fuel oil a gasóleo para cumplir con dicha normativa, calculamos el incremento de demanda de gasóleo que se produciría y analizamos las consecuencias que este hecho tendría sobre la producción de gasóleos en el Mediterráneo. Adicionalmente, calculamos el impacto económico que dicho incremento de coste producirá sobre sector exterior de España. Para ello, empleamos como base de datos el sistema de control de tráfico marítimo Authomatic Identification System (AIS) para luego analizar los datos de todos los buques que han hecho escala en algún puerto español, para así calcular el extra coste anual por el consumo de gasóleo que sufrirá el transporte marítimo para mover todas las importaciones y exportaciones de España. Por último, en el capítulo 6, examinamos y comparamos las otras dos alternativas al consumo de gasóleo -scrubbers y propulsión con GNL como combustible- y, finalmente, analizamos en el capítulo 7, la viabilidad de las inversiones en estas dos tecnologías para cumplir con la regulación. En el capítulo 5 explicamos los numerosos métodos que existen para calcular la demanda de combustible de un buque. La metodología seguida para su cálculo será del tipo bottom-up, que está basada en la agregación de la actividad y las características de cada tipo de buque. El resultado está basado en la potencia instalada de cada buque, porcentaje de carga del motor y su consumo específico. Para ello, analizamos el número de buques que navegan por el Mediterráneo a lo largo de un año mediante el sistema AIS, realizando “fotos” del tráfico marítimo en el Mediterráneo y reportando todos los buques en navegación en días aleatorios a lo largo de todo el año 2014. Por último, y con los datos anteriores, calculamos la demanda potencial de gasóleo en el Mediterráneo. Si no se hace nada y los buques comienzan a consumir gasóleo como combustible principal, en vez del actual fuel oil para cumplir con la regulación, la demanda de gasoil en el Mediterráneo aumentará en 12,12 MTA (Millones de Toneladas Anuales) a partir del año 2020. Esto supone alrededor de 3.720 millones de dólares anuales por el incremento del gasto de combustible tomando como referencia el precio medio de los combustibles marinos durante el año 2014. El anterior incremento de demanda en el Mediterráneo supondría el 43% del total de la demanda de gasóleos en España en el año 2013, incluyendo gasóleos de automoción, biodiesel y gasóleos marinos y el 3,2% del consumo europeo de destilados medios durante el año 2014. ¿Podrá la oferta del mercado europeo asumir este incremento de demanda de gasóleos? Europa siempre ha sido excedentaria en gasolina y deficitaria en destilados medios. En el año 2009, Europa tuvo que importar 4,8 MTA de Norte América y 22,1 MTA de Asia. Por lo que, este aumento de demanda sobre la ya limitada capacidad de refino de destilados medios en Europa incrementará las importaciones y producirá también aumentos en los precios, sobre todo del mercado del gasóleo. El sector sobre el que más impactará el incremento de demanda de gasóleo será el de los cruceros que navegan por el Mediterráneo, pues consumirán un 30,4% de la demanda de combustible de toda flota mundial de cruceros, lo que supone un aumento en su gasto de combustible de 386 millones de USD anuales. En el caso de los RoRos, consumirían un 23,6% de la demanda de la flota mundial de este tipo de buque, con un aumento anual de 171 millones de USD sobre su gasto de combustible anterior. El mayor incremento de coste lo sufrirán los portacontenedores, con 1.168 millones de USD anuales sobre su gasto actual. Sin embargo, su consumo en el Mediterráneo representa sólo el 5,3% del consumo mundial de combustible de este tipo de buques. Estos números plantean la incertidumbre de si semejante aumento de gasto en buques RoRo hará que el transporte marítimo de corta distancia en general pierda competitividad sobre otros medios de transporte alternativos en determinadas rutas. De manera que, parte del volumen de mercancías que actualmente transportan los buques se podría trasladar a la carretera, con los inconvenientes medioambientales y operativos, que esto produciría. En el caso particular de España, el extra coste por el consumo de gasóleo de todos los buques con escala en algún puerto español en el año 2013 se cifra en 1.717 millones de EUR anuales, según demostramos en la última parte del capítulo 5. Para realizar este cálculo hemos analizado con el sistema AIS a todos los buques que han tenido escala en algún puerto español y los hemos clasificado por distancia navegada, tipo de buque y potencia. Este encarecimiento del transporte marítimo será trasladado al sector exterior español, lo cual producirá un aumento del coste de las importaciones y exportaciones por mar en un país muy expuesto, pues el 75,61% del total de las importaciones y el 53,64% del total de las exportaciones se han hecho por vía marítima. Las tres industrias que se verán más afectadas son aquellas cuyo valor de mercancía es inferior respecto a su coste de transporte. Para ellas los aumentos del coste sobre el total del valor de cada mercancía serán de un 2,94% para la madera y corcho, un 2,14% para los productos minerales y un 1,93% para las manufacturas de piedra, cemento, cerámica y vidrio. Las mercancías que entren o salgan por los dos archipiélagos españoles de Canarias y Baleares serán las que se verán más impactadas por el extra coste del transporte marítimo, ya que son los puertos más alejados de otros puertos principales y, por tanto, con más distancia de navegación. Sin embargo, esta no es la única alternativa al cumplimiento de la nueva regulación. De la lectura del capítulo 6 concluimos que las tecnologías de equipos scrubbers y de propulsión con GNL permitirán al buque consumir combustibles más baratos al gasoil, a cambio de una inversión en estas tecnologías. ¿Serán los ahorros producidos por estas nuevas tecnologías suficientes para justificar su inversión? Para contestar la anterior pregunta, en el capítulo 7 hemos comparado las tres alternativas y hemos calculado tanto los costes de inversión como los gastos operativos correspondientes a equipos scrubbers o propulsión con GNL para una selección de 53 categorías de buques. La inversión en equipos scrubbers es más conveniente para buques grandes, con navegación no regular. Sin embargo, para buques de tamaño menor y navegación regular por puertos con buena infraestructura de suministro de GNL, la inversión en una propulsión con GNL como combustible será la más adecuada. En el caso de un tiempo de navegación del 100% dentro de zonas ECA y bajo el escenario de precios visto durante el año 2014, los proyectos con mejor plazo de recuperación de la inversión en equipos scrubbers son para los cruceros de gran tamaño (100.000 tons. GT), para los que se recupera la inversión en 0,62 años, los grandes portacontenedores de más de 8.000 TEUs con 0,64 años de recuperación y entre 5.000-8.000 TEUs con 0,71 años de recuperación y, por último, los grandes petroleros de más de 200.000 tons. de peso muerto donde tenemos un plazo de recuperación de 0,82 años. La inversión en scrubbers para buques pequeños, por el contrario, tarda más tiempo en recuperarse llegando a más de 5 años en petroleros y quimiqueros de menos de 5.000 toneladas de peso muerto. En el caso de una posible inversión en propulsión con GNL, las categorías de buques donde la inversión en GNL es más favorable y recuperable en menor tiempo son las más pequeñas, como ferris, cruceros o RoRos. Tomamos ahora el caso particular de un buque de productos limpios de 38.500 toneladas de peso muerto ya construido y nos planteamos la viabilidad de la inversión en la instalación de un equipo scrubber o bien, el cambio a una propulsión por GNL a partir del año 2015. Se comprueba que las dos variables que más impactan sobre la conveniencia de la inversión son el tiempo de navegación del buque dentro de zonas de emisiones controladas (ECA) y el escenario futuro de precios del MGO, HSFO y GNL. Para realizar este análisis hemos estudiado cada inversión, calculando una batería de condiciones de mérito como el payback, TIR, VAN y la evolución de la tesorería del inversor. Posteriormente, hemos calculado las condiciones de contorno mínimas de este buque en concreto para asegurar una inversión no sólo aceptable, sino además conveniente para el naviero inversor. En el entorno de precios del 2014 -con un diferencial entre fuel y gasóleo de 264,35 USD/ton- si el buque pasa más de un 56% de su tiempo de navegación en zonas ECA, conseguirá una rentabilidad de la inversión para inversores (TIR) en el equipo scrubber que será igual o superior al 9,6%, valor tomado como coste de oportunidad. Para el caso de inversión en GNL, en el entorno de precios del año 2014 -con un diferencial entre GNL y gasóleo de 353,8 USD/ton FOE- si el buque pasa más de un 64,8 % de su tiempo de navegación en zonas ECA, conseguirá una rentabilidad de la inversión para inversores (TIR) que será igual o superior al 9,6%, valor del coste de oportunidad. Para un tiempo en zona ECA estimado de un 60%, la rentabilidad de la inversión (TIR) en scrubbers para los inversores será igual o superior al 9,6%, el coste de oportunidad requerido por el inversor, para valores del diferencial de precio entre los dos combustibles alternativos, gasóleo (MGO) y fuel oil (HSFO) a partir de 244,73 USD/ton. En el caso de una inversión en propulsión GNL se requeriría un diferencial de precio entre MGO y GNL de 382,3 USD/ton FOE o superior. Así, para un buque de productos limpios de 38.500 DWT, la inversión en una reconversión para instalar un equipo scrubber es más conveniente que la de GNL, pues alcanza rentabilidades de la inversión (TIR) para inversores del 12,77%, frente a un 6,81% en el caso de invertir en GNL. Para ambos cálculos se ha tomado un buque que navegue un 60% de su tiempo por zona ECA y un escenario de precios medios del año 2014 para el combustible. Po otro lado, las inversiones en estas tecnologías a partir del año 2025 para nuevas construcciones son en ambos casos convenientes. El naviero deberá prestar especial atención aquí a las características propias de su buque y tipo de navegación, así como a la infraestructura de suministros y vertidos en los puertos donde vaya a operar usualmente. Si bien, no se ha estudiado en profundidad en esta tesis, no olvidemos que el sector marítimo debe cumplir además con las otras dos limitaciones que la regulación de la OMI establece sobre las emisiones de óxidos de Nitrógeno (NOx) y Carbono (CO2) y que sin duda, requerirán adicionales inversiones en diversos equipos. De manera que, si bien las consecuencias del consumo de gasóleo como alternativa al cumplimiento de la Regulación MARPOL son ciertamente preocupantes, existen alternativas al uso del gasóleo, con un aumento sobre el coste del transporte marítimo menor y manteniendo los beneficios sociales que pretende dicha ley. En efecto, como hemos demostrado, las opciones que se plantean como más rentables desde el punto de vista financiero son el consumo de GNL en los buques pequeños y de línea regular (cruceros, ferries, RoRos), y la instalación de scrubbers para el resto de buques de grandes dimensiones. Pero, por desgracia, estas inversiones no llegan a hacerse realidad por el elevado grado de incertidumbre asociado a estos dos mercados, que aumenta el riesgo empresarial, tanto de navieros como de suministradores de estas nuevas tecnologías. Observamos así una gran reticencia del sector privado a decidirse por estas dos alternativas. Este elevado nivel de riesgo sólo puede reducirse fomentando el esfuerzo conjunto del sector público y privado para superar estas barreras de entrada del mercado de scrubbers y GNL, que lograrían reducir las externalidades medioambientales de las emisiones sin restar competitividad al transporte marítimo. Creemos así, que los mismos organismos que aprobaron dicha ley deben ayudar al sector naviero a afrontar las inversiones en dichas tecnologías, así como a impulsar su investigación y promover la creación de una infraestructura portuaria adaptada a suministros de GNL y a descargas de vertidos procedentes de los equipos scrubber. Deberían además, prestar especial atención sobre las ayudas al sector de corta distancia para evitar que pierda competitividad frente a otros medios de transporte por el cumplimiento de esta normativa. Actualmente existen varios programas europeos de incentivos, como TEN-T o Marco Polo, pero no los consideramos suficientes. Por otro lado, la Organización Marítima Internacional debe confirmar cuanto antes si retrasa o no al 2025 la nueva bajada del nivel de azufre en combustibles. De esta manera, se eliminaría la gran incertidumbre temporal que actualmente tienen tanto navieros, como empresas petroleras y puertos para iniciar sus futuras inversiones y poder estudiar la viabilidad de cada alternativa de forma individual. ABSTRACT On 10 October 2008 the International Maritime Organization (IMO) signed an amendment to Annex VI of the MARPOL 73/78 convention establishing a gradual reduction in sulphur oxide (SOx) emissions from ships, and an additional reduction in nitrogen oxide (NOx) emissions and carbon dioxide (CO2) emissions from marine engines which cause environmental problems such as acid rain and the greenhouse effect. According to this regulation, from 1 January 2015, ships travelling in an Emission Control Area (ECA) must use fuels with a sulphur content of less than 0.1%. From 1 January 2020, or alternatively from 2025 if the IMO should decide to delay its introduction, all ships must use fuels with a sulphur content of less than 0.5%. As before, this content will be 0.1%S for voyages within ECAs. Meanwhile, the European Union has gone further than the IMO, and will apply the strictest limits of the MARPOL directives in the waters of its exclusive economic zone from 2020. To this end, Directive 2012/33/EU was issued on 21 November 2013 as an addendum to the 1999 Directive. These laws are intended to improve public health and the environment, benefiting society by reducing disease, particularly respiratory problems. The first question which arises is: what fuel do ships currently use, and what fuel will they have to use to comply with the Convention? Today, large international shipping vessels consume fuel oil with a sulphur level of 3.5%. Do fuel oils exist with a sulphur level of 0.5%S? As we conclude in Chapter 4, oil companies regard marine fuel oil as a by-product of refining Brent to produce their basket of products, as the demand for fuel oil is declining in comparison to other products, and the profit margin on the sale of other petroleum products is higher. Thus, oil companies are not interested in investing in their refineries to produce low-sulphur fuel oils, and if a company should decide to invest in producing a 0.5%S fuel oil, its price would have to be very similar to that of marine gas oil in order to recoup the investment. Therefore, the only fuel which presently complies with the new levels required by the IMO is marine gas oil, which was priced on average 307 USD/tonne higher than current fuel oils during 2014. This higher purchasing price for fuel will have a direct impact on the cost of maritime transport. The entry into force of the above directive presents a challenge for the entire maritime sector. There are various alternative approaches to this situation, with different technical, operational and financial implications. At present three options are the most widespread in the sector. The first option consists of “doing nothing” and simply switching from fuel oil to marine gas oil in large ships. The second option is installing a scrubber system, which would enable ships to continue consuming fuel oil, cleaning the combustion gases before they are released to the atmosphere. And finally, the third option is using Liquefied Natural Gas (LNG), which is priced lower than marine gas oil, as a fuel. However, there is still significant uncertainty on future variations in prices, the operation and maintenance of the new technologies, the investments required, the availability of port infrastructure and even future developments in the international regulations themselves. These uncertainties mean that none of these three alternatives has been unanimously accepted by the sector. In this Thesis, after discussing all the regulations applicable to the sector in Chapter 3, we investigate their consequences. In Chapter 4 we examine whether there are currently any marine fuels on the market which meet the new sulphur limits, and if not, how much new fuels would cost. In Chapter 5, based on the hypothesis that all ships will switch from fuel oil to marine gas oil to comply with the regulations, we calculate the increase in demand for marine gas oil this would lead to, and analyse the consequences this would have on marine gas oil production in the Mediterranean. We also calculate the economic impact such a cost increase would have on Spain's external sector. To do this, we also use the Automatic Identification System (AIS) system to analyse the data of every ship stopping in any Spanish port, in order to calculate the extra cost of using marine gas oil in maritime transport for all Spain's imports and exports. Finally, in Chapter 6, we examine and compare the other two alternatives to marine gas oil, scrubbers and LNG, and in Chapter 7 we analyse the viability of investing in these two technologies in order to comply with the regulations. In Chapter 5 we explain the many existing methods for calculating a ship's fuel consumption. We use a bottom-up calculation method, based on aggregating the activity and characteristics of each type of vessel. The result is based on the installed engine power of each ship, the engine load percentage and its specific consumption. To do this, we analyse the number of ships travelling in the Mediterranean in the course of one year, using the AIS, a marine traffic monitoring system, to take “snapshots” of marine traffic in the Mediterranean and report all ships at sea on random days throughout 2014. Finally, with the above data, we calculate the potential demand for marine gas oil in the Mediterranean. If nothing else is done and ships begin to use marine gas oil instead of fuel oil in order to comply with the regulation, the demand for marine gas oil in the Mediterranean will increase by 12.12 MTA (Millions Tonnes per Annum) from 2020. This means an increase of around 3.72 billion dollars a year in fuel costs, taking as reference the average price of marine fuels in 2014. Such an increase in demand in the Mediterranean would be equivalent to 43% of the total demand for diesel in Spain in 2013, including automotive diesel fuels, biodiesel and marine gas oils, and 3.2% of European consumption of middle distillates in 2014. Would the European market be able to supply enough to meet this greater demand for diesel? Europe has always had a surplus of gasoline and a deficit of middle distillates. In 2009, Europe had to import 4.8 MTA from North America and 22.1 MTA from Asia. Therefore, this increased demand on Europe's already limited capacity for refining middle distillates would lead to increased imports and higher prices, especially in the diesel market. The sector which would suffer the greatest impact of increased demand for marine gas oil would be Mediterranean cruise ships, which represent 30.4% of the fuel demand of the entire world cruise fleet, meaning their fuel costs would rise by 386 million USD per year. ROROs in the Mediterranean, which represent 23.6% of the demand of the world fleet of this type of ship, would see their fuel costs increase by 171 million USD a year. The greatest cost increase would be among container ships, with an increase on current costs of 1.168 billion USD per year. However, their consumption in the Mediterranean represents only 5.3% of worldwide fuel consumption by container ships. These figures raise the question of whether a cost increase of this size for RORO ships would lead to short-distance marine transport in general becoming less competitive compared to other transport options on certain routes. For example, some of the goods that ships now carry could switch to road transport, with the undesirable effects on the environment and on operations that this would produce. In the particular case of Spain, the extra cost of switching to marine gas oil in all ships stopping at any Spanish port in 2013 would be 1.717 billion EUR per year, as we demonstrate in the last part of Chapter 5. For this calculation, we used the AIS system to analyse all ships which stopped at any Spanish port, classifying them by distance travelled, type of ship and engine power. This rising cost of marine transport would be passed on to the Spanish external sector, increasing the cost of imports and exports by sea in a country which relies heavily on maritime transport, which accounts for 75.61% of Spain's total imports and 53.64% of its total exports. The three industries which would be worst affected are those with goods of lower value relative to transport costs. The increased costs over the total value of each good would be 2.94% for wood and cork, 2.14% for mineral products and 1.93% for manufactured stone, cement, ceramic and glass products. Goods entering via the two Spanish archipelagos, the Canary Islands and the Balearic Islands, would suffer the greatest impact from the extra cost of marine transport, as these ports are further away from other major ports and thus the distance travelled is greater. However, this is not the only option for compliance with the new regulations. From our readings in Chapter 6 we conclude that scrubbers and LNG propulsion would enable ships to use cheaper fuels than marine gas oil, in exchange for investing in these technologies. Would the savings gained by these new technologies be enough to justify the investment? To answer this question, in Chapter 7 we compare the three alternatives and calculate both the cost of investment and the operating costs associated with scrubbers or LNG propulsion for a selection of 53 categories of ships. Investing in scrubbers is more advisable for large ships with no fixed runs. However, for smaller ships with regular runs to ports with good LNG supply infrastructure, investing in LNG propulsion would be the best choice. In the case of total transit time within an ECA and the pricing scenario seen in 2014, the best payback periods on investments in scrubbers are for large cruise ships (100,000 gross tonnage), which would recoup their investment in 0.62 years; large container ships, with a 0.64 year payback period for those over 8,000 TEUs and 0.71 years for the 5,000-8,000 TEU category; and finally, large oil tankers over 200,000 deadweight tonnage, which would recoup their investment in 0.82 years. However, investing in scrubbers would have a longer payback period for smaller ships, up to 5 years or more for oil tankers and chemical tankers under 5,000 deadweight tonnage. In the case of LNG propulsion, a possible investment is more favourable and the payback period is shorter for smaller ship classes, such as ferries, cruise ships and ROROs. We now take the case of a ship transporting clean products, already built, with a deadweight tonnage of 38,500, and consider the viability of investing in installing a scrubber or changing to LNG propulsion, starting in 2015. The two variables with the greatest impact on the advisability of the investment are how long the ship is at sea within emission control areas (ECA) and the future price scenario of MGO, HSFO and LNG. For this analysis, we studied each investment, calculating a battery of merit conditions such as the payback period, IRR, NPV and variations in the investors' liquid assets. We then calculated the minimum boundary conditions to ensure the investment was not only acceptable but advisable for the investor shipowner. Thus, for the average price differential of 264.35 USD/tonne between HSFO and MGO during 2014, investors' return on investment (IRR) in scrubbers would be the same as the required opportunity cost of 9.6%, for values of over 56% ship transit time in ECAs. For the case of investing in LNG and the average price differential between MGO and LNG of 353.8 USD/tonne FOE in 2014, the ship must spend 64.8% of its time in ECAs for the investment to be advisable. For an estimated 60% of time in an ECA, the internal rate of return (IRR) for investors equals the required opportunity cost of 9.6%, based on a price difference of 244.73 USD/tonne between the two alternative fuels, marine gas oil (MGO) and fuel oil (HSFO). An investment in LNG propulsion would require a price differential between MGO and LNG of 382.3 USD/tonne FOE. Thus, for a 38,500 DWT ship carrying clean products, investing in retrofitting to install a scrubber is more advisable than converting to LNG, with an internal rate of return (IRR) for investors of 12.77%, compared to 6.81% for investing in LNG. Both calculations were based on a ship which spends 60% of its time at sea in an ECA and a scenario of average 2014 prices. However, for newly-built ships, investments in either of these technologies from 2025 would be advisable. Here, the shipowner must pay particular attention to the specific characteristics of their ship, the type of operation, and the infrastructure for supplying fuel and handling discharges in the ports where it will usually operate. Thus, while the consequences of switching to marine gas oil in order to comply with the MARPOL regulations are certainly alarming, there are alternatives to marine gas oil, with smaller increases in the costs of maritime transport, while maintaining the benefits to society this law is intended to provide. Indeed, as we have demonstrated, the options which appear most favourable from a financial viewpoint are conversion to LNG for small ships and regular runs (cruise ships, ferries, ROROs), and installing scrubbers for large ships. Unfortunately, however, these investments are not being made, due to the high uncertainty associated with these two markets, which increases business risk, both for shipowners and for the providers of these new technologies. This means we are seeing considerable reluctance regarding these two options among the private sector. This high level of risk can be lowered only by encouraging joint efforts by the public and private sectors to overcome these barriers to entry into the market for scrubbers and LNG, which could reduce the environmental externalities of emissions without affecting the competitiveness of marine transport. Our opinion is that the same bodies which approved this law must help the shipping industry invest in these technologies, drive research on them, and promote the creation of a port infrastructure which is adapted to supply LNG and handle the discharges from scrubber systems. At present there are several European incentive programmes, such as TEN-T and Marco Polo, but we do not consider these to be sufficient. For its part, the International Maritime Organization should confirm as soon as possible whether the new lower sulphur levels in fuels will be postponed until 2025. This would eliminate the great uncertainty among shipowners, oil companies and ports regarding the timeline for beginning their future investments and for studying their viability.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el trabajo se ha reflejado la génesis del término „desarrollo sostenible‟ y la preocupación social y de los gobiernos hacia la sostenibilidad de los recursos, generando una política forestal a escala internacional, cuyo hito inicial desempeña la Cumbre de Rio y otros procesos, donde surge el término „sostenibilidad‟ - procesos gubernamentales que ponen su atención en los bosques,entre ellos el Proceso paneuropeo del que emanan los Criterios e indicadores de la gestión forestal sostenible, así como otros foros donde aparece la vinculación entre los productos y la sostenibilidad de los bosques de donde proceden. A partir de esos conceptos aparecen los sistemas de certificación, primero FSC, promovido por las ONG ambientalistas, y en respuesta a ello, el sistema PEFC de los propietarios forestales privados con las industrias forestales. En su introducción, el trabajo recoge como surge y evoluciona esta preocupación y como se sucede y desarrollan los sistemas de certificación en España, orientados tanto a la superficie forestal como a sus productos derivados. Tratando de ser una herramienta técnica, en estos últimos quince años, se han ido planteando metodologías y propuestas técnicas que puedan garantizar el origen sostenible del bosque de donde procede la materia prima. Aunque la persistencia de la masa forestal como término tiene importancia, no considera numerosos aspectos incluidos en el concepto “gestión forestal sostenible”. El trabajo manifiesta qué es y cómo se origina la Gestión Forestal Sostenible y muy ligado con ello, el origen de la certificación como herramienta, explicando cómo se incardina la certificación forestal española con las estructuras internacionales y se construyen nuevas estructuras a escala española y autonómica. Se expone el dominio y alcance técnico de la certificación, sus inicios y un análisis de la diversidad de sistemas y etiquetas existentes -como ha ido evolucionando a escala internacional y nacional, por sistemas, sectores y continentes, con especial atención en España, recopilando lo sucedido relevante para el sector forestal, industrias forestales y sistemas de certificación en los años de estudio de elaboración de la tesis. Se refleja la relevancia que adquiere la certificación forestal y de la cadena de custodia para la industria del papel, tanto por las regulaciones, normativas y legislación que involucran al producto derivado del bosque como por ser herramienta que enlaza el bosque sostenible con el consumidor. La aplicación de todas esas especificaciones técnicas que muestran la sostenibilidad del bosque y al trazabilidad en el proceso productivo comporta una carga administrativa de recopilación de información, de control para el seguimiento asociado con los registros necesarios, y de archivo de documentos, conforme a las exigencias que plantean los sistemas de certificación forestal. Por tanto, es importante definir un método y procedimientos genéricos para los correspondientes sistemas de gestión preexistentes en las empresas del sector de pasta y papel (de calidad/ de medio ambiente/integrados), para implantar un Sistema de Cadena de Custodia genérico (común a FSC y PEFC) en una instalación de celulosa y papel y un sistema de diligencia debida. Para ello, ha sido necesario analizar la línea de producción y establecer los puntos de su diagrama en los que se requiere el control de la trazabilidad, puntos en los que se procede al seguimiento y registro de la materia prima, materia semielaborada y producto, y de ahí proceder a redactar o retocar los procedimientos de gestión calidad/ medioambiental, en su caso, para incluir los campos de registro. Según determinen los procedimientos, se efectuará un seguimiento y registro de los, derivados que configuran una característica y se determinará una serie de indicadores del sistema de trazabilidad de la madera en la industria de celulosa y papel, es decir, un conjunto de parámetros cuantitativos y descriptivos, sujetos al seguimiento de forma periódica, que muestren el cambio y permitan observar la evaluación y control del Sistema de Cadena de Custodia. Además de asegurar la trazabilidad de la madera y fibra en la industria de pasta y papel y con ello la sostenibilidad del bosque del que procede, se avalará la legalidad de los aprovechamientos que proporcionan ese recurso maderable, cumpliendo así no sólo la legislación vigente sino también ambos sistemas de certificación FSC y PEFC. El sistema de cadena de custodia de la pasta y papel se caracteriza por los indicadores de seguimiento que permite el control de la trazabilidad. ABSTRACT This paper traces the origins of the term „Sustainable Development‟ and of both citizen and institutional concern for the sustainability of resources, leading to the enactment of a forestry policy at international level, of which the initial milestones are the Rio Summit and other processes in which the term „Sustainability‟ was born. Those forestfocused institutional initiatives include the pan-European process that led to the publication of Sustainable Forest Management Criteria and Indicators, and other forums that highlight the link between finished wood-based products and the sustainability of the forests from which that wood is sourced. Those concepts were the culture in which forest certification systems were engendered, first FSC, promoted by environmental NGOs, and subsequently PEFC, fostered in response to FSC by private forest owners and forest-based industries. In its Introduction, this paper looks at how such concern arose and has evolved and how certification systems came into existence in Spain and developed to encompass both forest lands and forest-based products. As part of a mission to provide an applicable technical tool, new methodologies and technical proposals have been put forward over the past fifteen years aimed at guaranteeing the sustainable origin of the forest from which raw material is sourced. Although the maintenance of forest stands as a term in its own right is important, it does not take many of the aspects included in the concept of “sustainable forest management” into account. This thesis describes what SFM is and how it was born, underlying the close link between SFM and the origin of certification as a tool, explaining how Spanish forest certification is embodied in international structures, while new structures are built here in Spain on both the national and regional scale. This work also details the domain and scope of forest certification from the technical standpoint, explains its beginnings, and assesses the various systems and labels that exist - how certification has evolved internationally and nationally across systems, sectors and continents, with special emphasis on Spain. It provides a compilation of events relevant to forestry, forest industries and forest certification systems that have taken place during the years this thesis has been in preparation. It reflects on the relevance that forest and chain of custody certification holds for the paper industry, in view not only of the regulations, policies and legislation that affect forest-based products but also of its role as a tool that bonds the sustainable forest with the consumer. Implementing the range of technical specifications to demonstrate forest sustainability and traceability throughout the production process entails the administrative burden of collecting information and providing controls to process the relevant records and documents to be kept on file in compliance with the requirements made by forest certification schemes. It is therefore important to define a generic method, together with its relevant procedures,that fits the management systems (quality / environmental / integrated)existing today in pulp and paper companies, in order to implement a generic Chain of Custody scheme (common to FSC and PEFC) in a pulp and paper mill, and a due diligence system. To achieve that, it has first been necessary to analyse the production line and establish points along the route where traceabilitycontrols need to be implemented and points where raw material, semi-finished goods and end products should be monitored and recorded. Subsequently, the procedures in quality / environmental management systems need to be drafted or amended as required to include fields that reflect those records. As required by the procedures, forest-based products that have a specific characteristic shall be monitored and recorded, and a number of indicators identified in the traceability system of wood for pulp & paper, i.e.createa set of quantitative and descriptive parameters subject to regular monitoringthat reveal changes and enable the Chain of Custody system to be assessed and controlled. In addition to ensuring the traceability of wood and fibre in the pulp and paper industry -and so the sustainability of the forest from which it is sourced -, the legality of the harvesting that produces that timber will also be enhanced, thus fulfilling not only the law but also both FSC and PEFC certification schemes. The chain of custody system for pulp and paper is characterised by monitoring indicators that enable traceability to be controlled.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Durante las últimas décadas el objetivo principal de la silvicultura y la gestión forestal en Europa ha pasado de ser la producción de madera a ser la gestión sostenible de los ecosistemas, por lo que se deben considerar todos los bienes y servicios que proporcionan los bosques. En consecuencia, es necesario contar con información forestal periódica de diversos indicadores forestales a nivel europeo para apoyar el desarrollo y la implementación de políticas medioambientales y que se realice una gestión adecuada. Para ello, se requiere un seguimiento intensivo sobre el estado de los bosques, por lo que los Inventarios Forestales Nacionales (IFN), (principal fuente de información forestal a gran escala), han aumentado el número de variables muestreadas para cumplir con los crecientes requerimientos de información. Sin embargo, las estimaciones proporcionadas por los diferentes países no son fácilmente comparables debido a las diferencias en las definiciones, los diseños de muestreo, las variables medidas y los protocolos de medición. Por esto, la armonización de los datos que proporcionan los diferentes países es fundamental para la contar con una información forestal sólida y fiable en la Unión europea (UE). La presente tesis tiene dos objetivos principales: (i) establecer el diseño de una metodología para evaluar la biodiversidad forestal en el marco del Inventario forestal nacional de España teniendo en cuenta las diferentes iniciativas nacionales e internacionales, con el objetivo de producir estimaciones comparables con las de otros países de la UE y (ii) armonizar los indicadores más relevantes para satisfacer los requerimientos nacionales e internacionales. Como consecuencia del estudio realizado para alcanzar el primer objetivo, la metodología diseñada para estimar la biodiversidad fue adoptada por el Tercer Inventario forestal nacional. Ésta se componía de indicadores agrupados en: cobertura del suelo, composición de árboles y especies de arbustos, riqueza de especies herbáceas y helechos, especies amenazadas, estructura, madera muerta, y líquenes epífitos. Tras el análisis del diseño metodológico y de los datos proporcionados, se observó la conveniencia de modificarla con el fin de optimizar los costes, viabilidad, calidad y cantidad de los datos registrados. En consecuencia, en el Cuarto Inventario Forestal Nacional se aplica una metodología modificada, puesto que se eliminó el muestreo de especies herbáceas y helechos, de líquenes epífitos y de especies amenazadas, se modificaron los protocolos de la toma de datos de estructura y madera muerta y se añadió el muestreo de especies invasoras, edad, ramoneo y grado de naturalidad de la masa. En lo que se refiere al segundo objetivo, se ha avanzado en la armonización de tres grupos de variables considerados como relevantes en el marco de los IFN: los indicadores de vegetación no arbórea (que juegan un papel relevante en los ecosistemas, es donde existe la mayor diversidad de plantas y hasta ahora no se conocían los datos muestreados en los IFN), la determinación de los árboles añosos (que tienen un importante papel como nicho ecológico y su identificación es especialmente relevante para la evaluación de la biodiversidad forestal) y el bosque disponible para el suministro de madera (indicador básico de los requerimientos internacionales de información forestal). Se llevó a cabo un estudio completo de la posible armonización de los indicadores de la vegetación no arbórea en los IFN. Para ello, se identificaron y analizaron las diferentes definiciones y diseños de muestreo empleados por los IFN, se establecieron definiciones de referencia y se propusieron y analizaron dos indicadores que pudiesen ser armonizados: MSC (mean species cover) que corresponde a la media de la fracción de cabida cubierta de cada especie por tipo de bosque y MTC (mean total cover). Se estableció una nueva metodología que permite identificar los árboles añosos con los datos proporcionados por los inventarios forestales nacionales con el objetivo de proporcionar una herramienta eficaz para facilitar la gestión forestal considerando la diversidad de los sistemas forestales. Se analizó el concepto de "bosque disponible para el suministro de madera" (FAWS) estudiando la consistencia de la información internacional disponible con el fin de armonizar su estimación y de proporcionar recomendaciones para satisfacer los requerimientos europeos. Como resultado, se elaboró una nueva definición de referencia de FAWS (que será adoptada por el proceso paneuropeo) y se analiza el impacto de la adopción de esta nueva definición en siete países europeos. El trabajo realizado en esta tesis, puede facilitar el suministrar y/o armonizar parcial o totalmente casi la mitad de los indicadores de información forestal solicitados por los requerimientos internacionales (47%). De éstos, prácticamente un 85% tienen relación con los datos inventariados empleando la metodología propuesta para la estimación de la biodiversidad forestal, y el resto, con el establecimiento de la definición de bosque disponible para el suministro de madera. No obstante, y pese a que esta tesis supone un avance importante, queda patente que las necesidades de información forestal son cambiantes y es imprescindible continuar el proceso de armonización de los IFN europeos. ABSTRACT Over the last few decades, the objectives on forestry and forest management in Europe have shifted from being primarily focused on wood production to sustainable ecosystem management, which should consider all the goods and services provided by the forest. Therefore, there is a continued need for forest indicators and assessments at EU level to support the development and implementation of a number of European environmental policies and to conduct a proper forest management. To address these questions, intensive monitoring on the status of forests is required. Therefore, the scope of National Forest Inventories (NFIs), (primary source of data for national and large-area assessments), has been broadened to include new variables to meet these increasing information requirements. However, estimates produced by different countries are not easily comparable because of differences in NFI definitions, plot configurations, measured variables, and measurement protocols. As consequence, harmonizing data produced at national level is essential for the production of sound EU forest information. The present thesis has two main aims: (i) to establish a methodology design to assess forest biodiversity in the frame of the Spanish National Forest Inventory taking into account the different national and international initiatives with the intention to produce comparable estimates with other EU countries and (ii) to harmonize relevant indicators for national and international requirements. In consequence of the work done related to the first objective, the established methodology to estimate forest biodiversity was adopted and launched under the Third National Forest Inventory. It was composed of indicators grouped into: cover, woody species composition, richness of herbaceous species and ferns, endangered species, stand structure, dead wood, and epiphytic lichens. This methodology was analyzed considering the provided data, time costs, feasibility, and requirements. Consequently, in the ongoing Fourth National Forest Inventory a modified methodology is applied: sampling of herbaceous species and ferns, epiphytic lichens and endangered species were removed, protocols regarding structure and deadwood were modified, and sampling of invasive species, age, browsing impact and naturalness were added. As regards the second objective, progress has been made in harmonizing three groups of variables considered relevant in the context of IFN: Indicators of non-tree vegetation (which play an important role in forest ecosystems, it is where the highest diversity of plants occur and so far the related sampled data in NFIs were not known), the identification of old-growth trees (which have an important role as ecological niche and its identification is especially relevant for the assessment of forest biodiversity) and the available forest for wood supply (basic indicator of international forestry information requirements). A complete analysis of ground vegetation harmonization possibilities within NFIs frame was carried on by identifying and analyzing the different definitions and sampling techniques used by NFIs, providing reference definitions related to ground vegetation and proposing and analyzing two ground vegetation harmonized indicators: “Mean species cover” (MSC) and “Mean total cover” (MTC) for shrubs by European forest categories. A new methodology based on NFI data was established with the aim to provide an efficient tool for policy makers to estimate the number of old-growth trees and thus to be able to perform the analysis of the effect of forest management on the diversity associated to forest systems. The concept of “forest available for wood supply” (FAWS) was discussed and clarified, analyzing the consistency of the available international information on FAWS in order to provide recommendations for data harmonization at European level regarding National Forest Inventories (NFIs). As a result, a new reference definition of FAWS was provided (which will be adopted in the pan-European process) and the consequences of the use of this new definition in seven European countries are analyzed. The studies carried on in this thesis, can facilitate the supply and/or harmonization partially or fully of almost half of the forest indicators (47%) needed for international requirements. Of these, nearly 85% are related to inventoried data using the proposed methodology for the estimation of forest biodiversity, and the rest, with the establishment of the definition of forest available for wood supply. However, despite this thesis imply an important development, forest information needs are changing and it is imperative to continue the process of harmonization of European NFIs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los sistemas de consolidación de bóvedas históricas han variado enormemente a lo largo del tiempo en función de la forma de entender la restauración arquitectónica en cada momento. Estos planteamientos están indudablemente ligados a la evolución de los materiales y sistemas constructivos por lo que en un principio se restauraba empleando piedra, madera, materiales cerámicos y morteros de cal. Esto dio lugar a sistemas de consolidación como el rejuntado o acuñado, las redistribuciones de las cargas o el atirantado, sistemas que no rigidizan en exceso la estructura y devuelven a las fábricas su comportamiento originario. A partir del s XIX aparecen nuevos materiales como el hormigón armado o acero, lo que supone un cambio de paradigma. Su capacidad resistente es muy superior a la de fábricas y morteros no cementicios, sin embargo a menudo la gran diferencia de rigideces supone la aparición de problemas derivados de estas incompatibilidades como los desprendimientos de la plementería no anclada o la pérdida del valor documental de los sistemas constructivos. Así, el optimismo inicial que supuso la aparición de estos nuevos materiales y sistemas dio paso a duras críticas, surgiendo la necesidad de encontrar otros que permitiesen consolidar las bóvedas cuando los daños son graves y a la vez tuviesen en consideración la suma de componentes históricos, tecnológicos, materiales y culturales. Aparecen entonces tanto el “arco armado” como la “devolución de la forma” gracias a la comprensión de la manera de trabajar de las estructuras históricas. Por ello son sistemas coherentes que preservan el valor documental de sus sistemas constructivos al no ser alterados

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Disponer de información precisa y actualizada de inventario forestal es una pieza clave para mejorar la gestión forestal sostenible y para proponer y evaluar políticas de conservación de bosques que permitan la reducción de emisiones de carbono debidas a la deforestación y degradación forestal (REDD). En este sentido, la tecnología LiDAR ha demostrado ser una herramienta perfecta para caracterizar y estimar de forma continua y en áreas extensas la estructura del bosque y las principales variables de inventario forestal. Variables como la biomasa, el número de pies, el volumen de madera, la altura dominante, el diámetro o la altura media son estimadas con una calidad comparable a los inventarios tradicionales de campo. La presente tesis se centra en analizar la aplicación de los denominados métodos de masa de inventario forestal con datos LIDAR bajo diferentes condiciones y características de masa forestal (bosque templados puros y mixtos) y utilizando diferentes bases de datos LiDAR (información proveniente de vuelo nacionales e información capturada de forma específica). Como consecuencia de lo anterior, se profundiza en la generación de inventarios forestales continuos con LiDAR en grandes áreas. Los métodos de masa se basan en la búsqueda de relaciones estadísticas entre variables predictoras derivadas de la nube de puntos LiDAR y las variables de inventario forestal medidas en campo con el objeto de generar una cartografía continua de inventario forestal. El rápido desarrollo de esta tecnología en los últimos años ha llevado a muchos países a implantar programas nacionales de captura de información LiDAR aerotransportada. Estos vuelos nacionales no están pensados ni diseñados para fines forestales por lo que es necesaria la evaluación de la validez de esta información LiDAR para la descripción de la estructura del bosque y la medición de variables forestales. Esta información podría suponer una drástica reducción de costes en la generación de información continua de alta resolución de inventario forestal. En el capítulo 2 se evalúa la estimación de variables forestales a partir de la información LiDAR capturada en el marco del Plan Nacional de Ortofotografía Aérea (PNOA-LiDAR) en España. Para ello se compara un vuelo específico diseñado para inventario forestal con la información de la misma zona capturada dentro del PNOA-LiDAR. El caso de estudio muestra cómo el ángulo de escaneo, la pendiente y orientación del terreno afectan de forma estadísticamente significativa, aunque con pequeñas diferencias, a la estimación de biomasa y variables de estructura forestal derivadas del LiDAR. La cobertura de copas resultó más afectada por estos factores que los percentiles de alturas. Considerando toda la zona de estudio, la estimación de la biomasa con ambas bases de datos no presentó diferencias estadísticamente significativas. Las simulaciones realizadas muestran que las diferencias medias en la estimación de biomasa entre un vuelo específico y el vuelo nacional podrán superar el 4% en áreas abruptas, con ángulos de escaneo altos y cuando la pendiente de la ladera no esté orientada hacia la línea de escaneo. En el capítulo 3 se desarrolla un estudio en masas mixtas y puras de pino silvestre y haya, con un enfoque multi-fuente empleando toda la información disponible (vuelos LiDAR nacionales de baja densidad de puntos, imágenes satelitales Landsat y parcelas permanentes del inventario forestal nacional español). Se concluye que este enfoque multi-fuente es adecuado para realizar inventarios forestales continuos de alta resolución en grandes superficies. Los errores obtenidos en la fase de ajuste y de validación de los modelos de área basimétrica y volumen son similares a los registrados por otros autores (usando un vuelo específico y parcelas de campo específicas). Se observan errores mayores en la variable número de pies que los encontrados en la literatura, que pueden ser explicados por la influencia de la metodología de parcelas de radio variable en esta variable. En los capítulos 4 y 5 se evalúan los métodos de masa para estimar biomasa y densidad de carbono en bosques tropicales. Para ello se trabaja con datos del Parque Nacional Volcán Poás (Costa Rica) en dos situaciones diferentes: i) se dispone de una cobertura completa LiDAR del área de estudio (capitulo 4) y ii) la cobertura LiDAR completa no es técnica o económicamente posible y se combina una cobertura incompleta de LiDAR con imágenes Landsat e información auxiliar para la estimación de biomasa y carbono (capitulo 5). En el capítulo 4 se valida un modelo LiDAR general de estimación de biomasa aérea en bosques tropicales y se compara con los resultados obtenidos con un modelo ajustado de forma específica para el área de estudio. Ambos modelos están basados en la variable altura media de copas (TCH por sus siglas en inglés) derivada del modelo digital LiDAR de altura de la vegetación. Los resultados en el área de estudio muestran que el modelo general es una alternativa fiable al ajuste de modelos específicos y que la biomasa aérea puede ser estimada en una nueva zona midiendo en campo únicamente la variable área basimétrica (BA). Para mejorar la aplicación de esta metodología es necesario definir en futuros trabajos procedimientos adecuados de medición de la variable área basimétrica en campo (localización, tamaño y forma de las parcelas de campo). La relación entre la altura media de copas del LiDAR y el área basimétrica (Coeficiente de Stock) obtenida en el área de estudio varía localmente. Por tanto es necesario contar con más información de campo para caracterizar la variabilidad del Coeficiente de Stock entre zonas de vida y si estrategias como la estratificación pueden reducir los errores en la estimación de biomasa y carbono en bosques tropicales. En el capítulo 5 se concluye que la combinación de una muestra sistemática de información LiDAR con una cobertura completa de imagen satelital de moderada resolución (e información auxiliar) es una alternativa efectiva para la realización de inventarios continuos en bosques tropicales. Esta metodología permite estimar altura de la vegetación, biomasa y carbono en grandes zonas donde la captura de una cobertura completa de LiDAR y la realización de un gran volumen de trabajo de campo es económica o/y técnicamente inviable. Las alternativas examinadas para la predicción de biomasa a partir de imágenes Landsat muestran una ligera disminución del coeficiente de determinación y un pequeño aumento del RMSE cuando la cobertura de LiDAR es reducida de forma considerable. Los resultados indican que la altura de la vegetación, la biomasa y la densidad de carbono pueden ser estimadas en bosques tropicales de forma adecuada usando coberturas de LIDAR bajas (entre el 5% y el 20% del área de estudio). ABSTRACT The availability of accurate and updated forest data is essential for improving sustainable forest management, promoting forest conservation policies and reducing carbon emissions from deforestation and forest degradation (REDD). In this sense, LiDAR technology proves to be a clear-cut tool for characterizing forest structure in large areas and assessing main forest-stand variables. Forest variables such as biomass, stem volume, basal area, mean diameter, mean height, dominant height, and stem number can be thus predicted with better or comparable quality than with costly traditional field inventories. In this thesis, it is analysed the potential of LiDAR technology for the estimation of plot-level forest variables under a range of conditions (conifer & broadleaf temperate forests and tropical forests) and different LiDAR capture characteristics (nationwide LiDAR information vs. specific forest LiDAR data). This study evaluates the application of LiDAR-based plot-level methods in large areas. These methods are based on statistical relationships between predictor variables (derived from airborne data) and field-measured variables to generate wall to wall forest inventories. The fast development of this technology in recent years has led to an increasing availability of national LiDAR datasets, usually developed for multiple purposes throughout an expanding number of countries and regions. The evaluation of the validity of nationwide LiDAR databases (not designed specifically for forest purposes) is needed and presents a great opportunity for substantially reducing the costs of forest inventories. In chapter 2, the suitability of Spanish nationwide LiDAR flight (PNOA) to estimate forest variables is analyzed and compared to a specifically forest designed LiDAR flight. This study case shows that scan angle, terrain slope and aspect significantly affect the assessment of most of the LiDAR-derived forest variables and biomass estimation. Especially, the estimation of canopy cover is more affected than height percentiles. Considering the entire study area, biomass estimations from both databases do not show significant differences. Simulations show that differences in biomass could be larger (more than 4%) only in particular situations, such as steep areas when the slopes are non-oriented towards the scan lines and the scan angles are larger than 15º. In chapter 3, a multi-source approach is developed, integrating available databases such as nationwide LiDAR flights, Landsat imagery and permanent field plots from SNFI, with good resultos in the generation of wall to wall forest inventories. Volume and basal area errors are similar to those obtained by other authors (using specific LiDAR flights and field plots) for the same species. Errors in the estimation of stem number are larger than literature values as a consequence of the great influence that variable-radius plots, as used in SNFI, have on this variable. In chapters 4 and 5 wall to wall plot-level methodologies to estimate aboveground biomass and carbon density in tropical forest are evaluated. The study area is located in the Poas Volcano National Park (Costa Rica) and two different situations are analyzed: i) available complete LiDAR coverage (chapter 4) and ii) a complete LiDAR coverage is not available and wall to wall estimation is carried out combining LiDAR, Landsat and ancillary data (chapter 5). In chapter 4, a general aboveground biomass plot-level LiDAR model for tropical forest (Asner & Mascaro, 2014) is validated and a specific model for the study area is fitted. Both LiDAR plot-level models are based on the top-of-canopy height (TCH) variable that is derived from the LiDAR digital canopy model. Results show that the pantropical plot-level LiDAR methodology is a reliable alternative to the development of specific models for tropical forests and thus, aboveground biomass in a new study area could be estimated by only measuring basal area (BA). Applying this methodology, the definition of precise BA field measurement procedures (e.g. location, size and shape of the field plots) is decisive to achieve reliable results in future studies. The relation between BA and TCH (Stocking Coefficient) obtained in our study area in Costa Rica varied locally. Therefore, more field work is needed for assessing Stocking Coefficient variations between different life zones and the influence of the stratification of the study areas in tropical forests on the reduction of uncertainty. In chapter 5, the combination of systematic LiDAR information sampling and full coverage Landsat imagery (and ancillary data) prove to be an effective alternative for forest inventories in tropical areas. This methodology allows estimating wall to wall vegetation height, biomass and carbon density in large areas where full LiDAR coverage and traditional field work are technically and/or economically unfeasible. Carbon density prediction using Landsat imaginery shows a slight decrease in the determination coefficient and an increase in RMSE when harshly decreasing LiDAR coverage area. Results indicate that feasible estimates of vegetation height, biomass and carbon density can be accomplished using low LiDAR coverage areas (between 5% and 20% of the total area) in tropical locations.