779 resultados para 332201 Distribución de la energía
Resumo:
El presente proyecto tiene como objeto la evaluación del parámetro distancia entre focos de emisión de CO2 y estructuras geológicas apropiadas para su almacenamiento, según los datos publicados por el Registro Estatal de Emisiones y Fuentes Contaminantes (PRTR España) y por el proyecto ALGECO2. El parámetro distancia analizado es referido a proyectos de Captura, Transporte y Almacenamiento de CO2 (proyectos CAC) a gran escala. Para ello se ha realizado un estudio en la zona de la Cuenca del Duero aplicando criterios de selección tanto técnicos como socio-económicos, según las recomendaciones de organizaciones como la Agencia Internacional de la Energía o el CCS Institute entre otros. A lo largo de este estudio se ha propuesto y evaluado un sistema de transporte por tubería “punto a punto” o un sistema en “red” determinando cuáles son los más recomendables para un futuro trazado de las líneas de transporte desde un punto de vista sostenible. Abstract This present project’s objective is to evaluate the distance parameter among several CO2 sources and adequate geological structures for storage, following the released data by the Registro Estatal de Emisiones y Fuentes Contaminantes (PRTR España) and the ALGECO2 project. The analysed distance parameter is applied to large-scale Carbon Captures and Storage (CCS) projects. For this study, a research has been carried out in the Cuenca del Duero area, utilizing selective criteria as technical as socio-economic, according to recommendations made by organizations such as International Energy Agency and CCS Institute among others. During this research it has been proposed and evaluated a “point to point” pipeline transport system or a “network” transport system, aiming to find the most effective future route selection of the transportation lines from a sustainable point of view
Resumo:
El proceso de cambio de una sociedad industrial a una sociedad del conocimiento, que experimenta el mundo globalizado en el siglo XXI, induce a las empresas y organizaciones a desarrollar ventajas competitivas y sostenibles basadas en sus activos intangibles, entre los cuales destacan los sistemas de gestión en general y los sistemas de gestión de la calidad (SGC) en particular. Las organizaciones dedicadas a la producción de petróleo están influenciadas por dicha tendencia. El petróleo es un recurso natural con reservas limitadas, cuya producción y consumo ha crecido progresivamente, aportando la mayor cuota (35 %) del total de la energía que se consume en el mundo contemporáneo, aporte que se mantendrá hasta el año 2035, según las previsiones más conservadoras. Por tanto, se hace necesario desarrollar modelos de producción innovadores, que contribuyan a la mejora del factor de recobro de los yacimientos y de la vida útil de los mismos, al tiempo que satisfagan los requerimientos de producción y consumo diarios de los exigentes mercados globales. El objeto de esta investigación es el desarrollo de un modelo de gestión de la calidad y su efecto en el desempeño organizacional, a través del efecto mediador de los constructos satisfacción del cliente interno y gestión del conocimiento en la producción de petróleo. Esta investigación de carácter explicativo, no experimental, transeccional y ex-postfacto, se realizó en la región petrolífera del lago de Maracaibo, al occidente de Venezuela, la cual tiene más de 70 años en producción y cuenta con yacimientos maduros. La población objeto de estudio fue de 369 trabajadores petroleros, quienes participaron en las mesas técnicas de la calidad, durante los meses de mayo y julio del año 2012, los cuales en su mayoría están en proceso de formación como analistas, asesores y auditores de los SGC. La técnica de muestreo aplicada fue de tipo aleatorio simple, con una muestra de 252 individuos. A la misma se le aplicó un cuestionario diseñado ad hoc, el cual fue validado por las técnicas de juicio de expertos y prueba piloto. El procedimiento de investigación se realizó a través de una secuencia, que incluyó la elaboración de un modelo teórico, basado en la revisión del estado del arte; un modelo factorial, sobre la base del análisis factorial de los datos de la encuesta; un modelo de regresión lineal, elaborado a través del método de regresión lineal simple y múltiple; un modelo de análisis de sendero, realizado con el software Amos 20 SPSS y finalmente, un modelo informático, realizado con el simulador Vensim PLE v.6.2. Los resultados obtenidos indican que el modelo teórico se transformó en un modelo empírico, en el cual, la variable independiente fue el SGC, la variable mediadora fue la integración de las dimensiones eliminación de la no conformidad, satisfacción del cliente interno y aprendizaje organizacional (ENCSCIAO) y la variable respuesta la integración de las dimensiones desempeño organizacional y aprendizaje organizacional (DOOA). Se verificó el efecto mediador del ENSCIAO sobre la relación SGC-DOOA con una bondad del ajuste, del 42,65%. En el modelo de regresión múltiple se encontró que las variables determinantes son eliminación de la no conformidad (ENC), conocimiento adquirido (CA) y conocimiento espontáneo (CE), lo cual fue corroborado con el modelo de análisis de sendero. El modelo informático se desarrolló empleando datos aproximados de una unidad de producción tipo, generándose cuatro escenarios; siendo el más favorable, aquel en el cual se aplicaba el SGC y variables relacionadas, reduciendo la desviación de la producción, incrementando el factor de recobro y ampliando la vida útil del yacimiento. Se concluye que la aplicación del SGC y constructos relacionados favorece el desempeño y la producción de las unidades de explotación de yacimientos petrolíferos maduros. Los principales aportes de la tesis son la obtención de un modelo de gestión de la producción de petróleo en yacimientos maduros, basado en los SGC. Asimismo, el desarrollo de un concepto de gestión de la calidad asociado a la reducción de la desviación de la producción petrolífera anual, al incremento del factor de recobro y al aumento de la vida útil del yacimiento. Las futuras líneas de investigación están orientadas a la aplicación del modelo en contextos reales y específicos, para medir su impacto y realizar los ajustes pertinentes. ABSTRACT The process of change from an industrial society to a knowledge-based society, which undergoes the globalized world in the twenty-first century, induces companies and organizations to develop a sustainable and competitive advantages based on its intangible assets, among which are noteworthy the management systems in general and particularly the quality management systems (QMS). Organizations engaged in oil production are influenced by said trend. Oil is a natural resource with limited reserves, where production and consumption has grown progressively, providing the largest share (35%) of the total energy consumed in the contemporary world, a contribution that will remain until the year 2035 according to the more conservative trust estimations. Therefore, it becomes necessary to develop innovative production models which contribute with the improvement of reservoirs´ recovery factor and the lifetime thereof, while meeting the production requirements and daily consumption of demanding global markets. The aim of this research is to develop a model of quality management and its effect on organizational performance through the mediator effect of the constructs, internal customer satisfaction and knowledge management in oil production. This research of explanatory nature, not experimental, transactional and expos-facto was carried out in the oil-region of Maracaibo Lake located to the west of Venezuela, which has more than 70 years in continuous production and has mature reservoirs. The population under study was 369 oil workers who participated in the technical quality workshops, during the months of May and July of 2012, the majority of which were in the process of training as analysts, consultants and auditors of the QMS. The sampling technique applied was simple random type. To a sample of 252 individuals of the population it was applied an ad hoc designed questionnaire, which was validated by the techniques of expert judgment and pilot test. The research procedure was performed through a sequence, which included the elaboration of a theoretical model, based on the review of the state of the art; a factorial model with based on factorial analysis of the survey data; a linear regression model, developed through the method of simple and multiple linear regression; a structural equation model, made with software °Amos 20 SPSS° and finally, a computer model, performed with the simulator Vensim PLE v.6.2. The results indicate that the theoretical model was transformed into an empirical model, in which the independent variable was the QMS, the mediator variable was the integration of the dimensions: elimination of non-conformity, internal customer satisfaction and organizational learning (ENCSCIAO) and the response variable the integration of the dimensions, organizational performance and learning organizational (DOOA). ENSCIAO´s mediator effect on the relation QMS-DOOA was verified with a goodness of fit of 42,65%. In the multiple regression model was found to be the determining variables are elimination of nonconformity (ENC), knowledge acquired (CA) and spontaneous knowledge (EC), which was verified with the structural equation model. The computer model was developed based on approximate data of an oil production unit type, creating four (04) scenarios; being the most favorable, that one which it was applied the QMS and related variables, reducing the production deviation, increasing the recovery factor and extending the lifetime of the reservoir. It is concluded that QMS implementation powered with the related constructs, favors performance and production of mature oilfield of exploitation reservoirs units. The main contributions of this thesis are obtaining a management model for oil production in mature oilfields, based on QMS. In addition, development of a concept of quality associated to reduce the annual oil production deviation, increase the recovery factor and increase oilfield lifetime. Future lines of research are oriented to the implementation of this model in real and specific contexts to measure its impact and make the necessary adjustments that might take place.
Resumo:
El control de las centrales hidroeléctricas ha venido siendo motivo continuo de estudio. Más aún en el caso de centrales que proporcionan la energía a Islas donde se intenta sustituir la generación térmica por la convivencia de los parques eólicos y una central hidroeléctrica, puesto que el control es fundamental para el correcto funcionamiento del sistema. Varios son los trabajos que se han desarrollado en esta materia hasta la fecha pero no se han prodigado en analizar la influencia que la longitud de las conducciones forzadas tiene en el ajuste del controlador. El objetivo principal de este estudio es desarrollar unas recomendaciones relativas al ajuste de los reguladores de velocidad de los grupos hidroeléctricos en sistemas aislados con conducciones de gran longitud, aportando así valores alternativos a los propuestos por otros autores; entre otras razones porque éstos estudiaban centrales cuyas conducciones no exigían el análisis de la elasticidad de la conducción y del fluido. Dichas recomendaciones están basadas en la oportuna ubicación de los polos que representan la respuesta dinámica de los principales componentes de la central. Así, encontramos los valores de las ganancias del controlador PI que mejoran la respuesta de la central dado que la longitud de la tubería forzada es lo suficientemente grande como para que sea preciso incluir su efecto en el ajuste. Para tener en cuenta la compresibilidad del agua y de la tubería se ha empleado el modelo de parámetros concentrados. Dicho modelo se simplifica y se linealiza para su estudio, mientras que el ajuste propuesto es aplicado al modelo no lineal original.
Resumo:
El cálculo moderno de edificios frente a acciones sísmicas contempla la posibilidad de comportamiento no lineal de los mismos, en orden a conseguir seguridad y economía en su diseño. La característica del hormigón armado de producir deformaciones plásticas sin llegar a rotura, supone un mecanismo suficientemente aceptable y seguro para absorber la energía generada durante el seísmo. En este artículo se presenta un método de cálculo no lineal de edificios, en el que se permite el desarrollo de rótulas plásticas en los nudos de unión de las vigas a los soportes. El comportamiento de los soportes se considera lineal. La acción sísmica es un conjunto de acelerogramas generados artificialmente en base a un proceso aleatorio tipo ruido de disparo filtrado, según el método de PENZIEN-RUIZ. Los resultados del cálculo se comparan con los obtenidos en un cálculo pseudo-estático aplicando la Norma POS-l.
Resumo:
Los diques flotantes son estructuras que atenúan la energía del oleaje fundamentalmente por reflexión y turbulencia. Aunque presentan importantes ventajas en términos constructivos y medioambientales, su efectividad es limitada y en la práctica sólo se emplean en condiciones climáticas propias de zonas con oleajes poco energéticos. Por otro lado, el buque es la estructura flotante por excelencia y su empleo para el abrigo portuario y costero en determinadas situaciones puede aportar las ventajas propias de los diques flotantes, al tiempo que ampliar el rango de oleajes frente a los que estas estructuras son efectivas. El propósito de esta Tesis Doctoral es evaluar la viabilidad del empleo de buques fondeados como diques flotantes para el abrigo portuario y costero. Para ello, se han realizado ensayos en modelo físico a escala reducida en un canal de oleaje del Centro de Estudios de Puertos y Costas (CEPYC), con el objeto de determinar los coeficientes de transmisión (Ct), reflexión (Cr) y disipación (Cd) de barcos de diversas tipologías y dimensiones, sometidos a diferentes oleajes en distintas situaciones de carga, fondeo y profundidad del emplazamiento. La efectividad de los buques empleados en los ensayos se ha determinado mediante el análisis de dichos coeficientes y su variación con la altura de ola y el periodo de los oleajes incidentes. Además, se han registrado las fuerzas existentes en las cadenas de fondeo con objeto de comprobar la viabilidad del mismo y facilitar una estimación del diámetro de las cadenas que serían necesarias en cada situación. Posteriormente, se han aplicado los resultados obtenidos en los ensayos en modelo físico reducido a dos situaciones de abrigo portuario y costero. La primera aplicación consiste en el empleo de buques como defensa temporal en fases constructivas por medios marítimos, partiendo de la hipótesis de que, actuando como diques flotantes, puede proteger la zona de la obra y ampliar las ventanas temporales de periodos de actividad en obra marítima. Las actividades que se han analizado son las de dragado de fondos, vertidos de material granular y transporte y fondeo de cajones flotantes para diques y muelles. La segunda aplicación estudiada es el empleo de buques para la protección costera y la formación de salientes y tómbolos. Los coeficientes de transmisión obtenidos se han introducido en formulaciones analíticas que permiten prever la evolución de la costa frente a la protección procurada por el buque actuando como dique flotante exento. Finalmente se han redactado las conclusiones de la investigación y se han propuesto nuevas líneas de investigación relacionadas con esta Tesis Doctoral. Floating breakwaters are structures which attenuate wave energy mainly by reflection and turbulence. They display advantages in terms of construction and ecology, amongst others. However, their use is restricted in practice to certain areas with good climatic conditions and low energy waves. Moreover, ships are the most common floating structures and their use for port and coastal shelter in certain situations could widen the range of applicability in addition to the rest of advantages of floating breakwaters. The purpose of this research is to assess the feasibility of ships anchored as floating breakwaters for port and coastal protection. To that end, tests in a scaled down physical model have been conducted in a wave flume in the Centre of Port and Coastal Studies (CEPYC), in order to determine the transmission (Ct), reflection (Cr) and dissipation (Cd) coefficients of ships of diverse types and dimensions, under different wave, load, anchoring and depth conditions. The effectiveness of the several ships used in the tests has been determined by analyzing these coefficients and their variation with the wave height and period of the incident waves. In addition, the existing forces in the anchor chains have been registered to verify the feasibility of the anchoring systems, as well as to provide an estimation of the diameter of the chains that would be needed in each situation. Subsequently, the results of the tests have been applied to two situations of port and coastal protection. The first one is the use of ships as a temporary defense for maritime works with construction phases by maritime means, on the assumption that, acting as floating breakwaters, they can protect the work area and increase the time windows of periods of activity in maritime works. Dredging, dumping of granular material and transport and positioning of big concrete caissons for docks and breakwaters were the activities analyzed. The second situation is the use of ships for coastal protection and forming salients of sand or tombolos. Some analytical formulations which take into account the transmission coefficients from the tests have been used to predict the evolution of the coastline under the protection given by the ships acting as detached floating breakwaters. Finally, the conclusions of the research have been addressed and the proposal of new lines of work related to the topic has been made.
Resumo:
Esta tesis doctoral contribuye al análisis y desarrollo de nuevos elementos constructivos que integran sistemas de generación eléctrica a través de células fotovoltaicas (FV); particularmente, basados en tecnología FV de lámina delgada. Para ello se estudia el proceso de la integración arquitectónica de éstos elementos (conocido internacionalmente como “Building Integrated Photovoltaic – BIPV”) mediante diferentes metodologías. Se inicia con el estudio de los elementos fotovoltaicos existentes y continúa con los materiales que conforman actualmente las pieles de los edificios y su posible adaptación a las diferentes tecnologías. Posteriormente, se propone una estrategia de integración de los elementos FV en los materiales constructivos. En ésta se considera la doble función de los elementos BIPV, eléctrica y arquitectónica, y en especial se plantea el estudio de la integración de elementos de disipación térmica y almacenamiento de calor mediante los materiales de cambio de fase (“Phase Change Materials – PCM”), todo esto con el objeto de favorecer el acondicionamiento térmico pasivo a través del elemento BIPV. Para validar dicha estrategia, se desarrolla una metodología experimental que consiste en el diseño y desarrollo de un prototipo denominado elemento BIPV/TF – PCM, así como un método de medida y caracterización en condiciones de laboratorio. Entre los logros alcanzados, destaca la multifuncionalidad de los elementos BIPV, el aprovechamiento de la energía residual del elemento, la reducción de los excedentes térmicos que puedan modificar el balance térmico de la envolvente del edificio, y las mejoras conseguidas en la producción eléctrica de los módulos fotovoltaicos por reducción de temperatura, lo que hará más sostenible la solución BIPV. Finalmente, como resultado del análisis teórico y experimental, esta tesis contribuye significativamente al estudio práctico de la adaptabilidad de los elementos BIPV en el entorno urbano por medio de una metodología que se basa en el desarrollo y puesta en marcha de una herramienta informática, que sirve tanto a ingenieros como arquitectos para verificar la calidad de la integración arquitectónica y calidad eléctrica de los elementos FV, antes, durante y después de la ejecución de un proyecto constructivo. ABSTRACT This Doctoral Thesis contributes to the analysis and development of new building elements that integrate power generation systems using photovoltaic solar cells (PV), particularly based on thin-film PV technology. For this propose, the architectural integration process is studied (concept known as "Building Integrated Photovoltaic - BIPV") by means of different methodologies. It begins with the study of existing PV elements and materials that are currently part of the building skins and the possible adaptation to different technologies. Subsequently, an integration strategy of PV elements in building materials is proposed. Double function of BIPV elements is considered, electrical and architectural, especially the heat dissipation and heat storage elements are studied, particularly the use Phase Change Materials– PCM in order to favor the thermal conditioning of buildings by means of the BIPV elements. For this propose, an experimental methodology is implemented, which consist of the design and develop of a prototype "BIPV/TF- PCM element" and measurement method (indoor laboratory conditions) in order to validate this strategy. Among the most important achievements obtained of this develop and results analysis includes, in particular, the multifunctionality of BIPV elements, the efficient use of the residual energy of the element, reduction of the excess heat that it can change the heat balance of the building envelope and improvements in electricity production of PV modules by reducing the temperature, are some benefits achieved that make the BIPV element will be more sustainable. Finally, as a result of theoretical and experimental analysis, this thesis contributes significantly to the practical study of the adaptability of BIPV elements in the urban environment by means of a novel methodology based on the development and implementation by computer software of a useful tool which serves as both engineers and architects to verify the quality of architectural integration and electrical performance of PV elements before, during, and after execution of a building projects.
Resumo:
Un escenario habitualmente considerado para el uso sostenible y prolongado de la energía nuclear contempla un parque de reactores rápidos refrigerados por metales líquidos (LMFR) dedicados al reciclado de Pu y la transmutación de actínidos minoritarios (MA). Otra opción es combinar dichos reactores con algunos sistemas subcríticos asistidos por acelerador (ADS), exclusivamente destinados a la eliminación de MA. El diseño y licenciamiento de estos reactores innovadores requiere herramientas computacionales prácticas y precisas, que incorporen el conocimiento obtenido en la investigación experimental de nuevas configuraciones de reactores, materiales y sistemas. A pesar de que se han construido y operado un cierto número de reactores rápidos a nivel mundial, la experiencia operacional es todavía reducida y no todos los transitorios se han podido entender completamente. Por tanto, los análisis de seguridad de nuevos LMFR están basados fundamentalmente en métodos deterministas, al contrario que las aproximaciones modernas para reactores de agua ligera (LWR), que se benefician también de los métodos probabilistas. La aproximación más usada en los estudios de seguridad de LMFR es utilizar una variedad de códigos, desarrollados a base de distintas teorías, en busca de soluciones integrales para los transitorios e incluyendo incertidumbres. En este marco, los nuevos códigos para cálculos de mejor estimación ("best estimate") que no incluyen aproximaciones conservadoras, son de una importancia primordial para analizar estacionarios y transitorios en reactores rápidos. Esta tesis se centra en el desarrollo de un código acoplado para realizar análisis realistas en reactores rápidos críticos aplicando el método de Monte Carlo. Hoy en día, dado el mayor potencial de recursos computacionales, los códigos de transporte neutrónico por Monte Carlo se pueden usar de manera práctica para realizar cálculos detallados de núcleos completos, incluso de elevada heterogeneidad material. Además, los códigos de Monte Carlo se toman normalmente como referencia para los códigos deterministas de difusión en multigrupos en aplicaciones con reactores rápidos, porque usan secciones eficaces punto a punto, un modelo geométrico exacto y tienen en cuenta intrínsecamente la dependencia angular de flujo. En esta tesis se presenta una metodología de acoplamiento entre el conocido código MCNP, que calcula la generación de potencia en el reactor, y el código de termohidráulica de subcanal COBRA-IV, que obtiene las distribuciones de temperatura y densidad en el sistema. COBRA-IV es un código apropiado para aplicaciones en reactores rápidos ya que ha sido validado con resultados experimentales en haces de barras con sodio, incluyendo las correlaciones más apropiadas para metales líquidos. En una primera fase de la tesis, ambos códigos se han acoplado en estado estacionario utilizando un método iterativo con intercambio de archivos externos. El principal problema en el acoplamiento neutrónico y termohidráulico en estacionario con códigos de Monte Carlo es la manipulación de las secciones eficaces para tener en cuenta el ensanchamiento Doppler cuando la temperatura del combustible aumenta. Entre todas las opciones disponibles, en esta tesis se ha escogido la aproximación de pseudo materiales, y se ha comprobado que proporciona resultados aceptables en su aplicación con reactores rápidos. Por otro lado, los cambios geométricos originados por grandes gradientes de temperatura en el núcleo de reactores rápidos resultan importantes para la neutrónica como consecuencia del elevado recorrido libre medio del neutrón en estos sistemas. Por tanto, se ha desarrollado un módulo adicional que simula la geometría del reactor en caliente y permite estimar la reactividad debido a la expansión del núcleo en un transitorio. éste módulo calcula automáticamente la longitud del combustible, el radio de la vaina, la separación de los elementos de combustible y el radio de la placa soporte en función de la temperatura. éste efecto es muy relevante en transitorios sin inserción de bancos de parada. También relacionado con los cambios geométricos, se ha implementado una herramienta que, automatiza el movimiento de las barras de control en busca d la criticidad del reactor, o bien calcula el valor de inserción axial las barras de control. Una segunda fase en la plataforma de cálculo que se ha desarrollado es la simulació dinámica. Puesto que MCNP sólo realiza cálculos estacionarios para sistemas críticos o supercríticos, la solución más directa que se propone sin modificar el código fuente de MCNP es usar la aproximación de factorización de flujo, que resuelve por separado la forma del flujo y la amplitud. En este caso se han estudiado en profundidad dos aproximaciones: adiabática y quasiestática. El método adiabático usa un esquema de acoplamiento que alterna en el tiempo los cálculos neutrónicos y termohidráulicos. MCNP calcula el modo fundamental de la distribución de neutrones y la reactividad al final de cada paso de tiempo, y COBRA-IV calcula las propiedades térmicas en el punto intermedio de los pasos de tiempo. La evolución de la amplitud de flujo se calcula resolviendo las ecuaciones de cinética puntual. Este método calcula la reactividad estática en cada paso de tiempo que, en general, difiere de la reactividad dinámica que se obtendría con la distribución de flujo exacta y dependiente de tiempo. No obstante, para entornos no excesivamente alejados de la criticidad ambas reactividades son similares y el método conduce a resultados prácticos aceptables. Siguiendo esta línea, se ha desarrollado después un método mejorado para intentar tener en cuenta el efecto de la fuente de neutrones retardados en la evolución de la forma del flujo durante el transitorio. El esquema consiste en realizar un cálculo cuasiestacionario por cada paso de tiempo con MCNP. La simulación cuasiestacionaria se basa EN la aproximación de fuente constante de neutrones retardados, y consiste en dar un determinado peso o importancia a cada ciclo computacial del cálculo de criticidad con MCNP para la estimación del flujo final. Ambos métodos se han verificado tomando como referencia los resultados del código de difusión COBAYA3 frente a un ejercicio común y suficientemente significativo. Finalmente, con objeto de demostrar la posibilidad de uso práctico del código, se ha simulado un transitorio en el concepto de reactor crítico en fase de diseño MYRRHA/FASTEF, de 100 MW de potencia térmica y refrigerado por plomo-bismuto. ABSTRACT Long term sustainable nuclear energy scenarios envisage a fleet of Liquid Metal Fast Reactors (LMFR) for the Pu recycling and minor actinides (MAs) transmutation or combined with some accelerator driven systems (ADS) just for MAs elimination. Design and licensing of these innovative reactor concepts require accurate computational tools, implementing the knowledge obtained in experimental research for new reactor configurations, materials and associated systems. Although a number of fast reactor systems have already been built, the operational experience is still reduced, especially for lead reactors, and not all the transients are fully understood. The safety analysis approach for LMFR is therefore based only on deterministic methods, different from modern approach for Light Water Reactors (LWR) which also benefit from probabilistic methods. Usually, the approach adopted in LMFR safety assessments is to employ a variety of codes, somewhat different for the each other, to analyze transients looking for a comprehensive solution and including uncertainties. In this frame, new best estimate simulation codes are of prime importance in order to analyze fast reactors steady state and transients. This thesis is focused on the development of a coupled code system for best estimate analysis in fast critical reactor. Currently due to the increase in the computational resources, Monte Carlo methods for neutrons transport can be used for detailed full core calculations. Furthermore, Monte Carlo codes are usually taken as reference for deterministic diffusion multigroups codes in fast reactors applications because they employ point-wise cross sections in an exact geometry model and intrinsically account for directional dependence of the ux. The coupling methodology presented here uses MCNP to calculate the power deposition within the reactor. The subchannel code COBRA-IV calculates the temperature and density distribution within the reactor. COBRA-IV is suitable for fast reactors applications because it has been validated against experimental results in sodium rod bundles. The proper correlations for liquid metal applications have been added to the thermal-hydraulics program. Both codes are coupled at steady state using an iterative method and external files exchange. The main issue in the Monte Carlo/thermal-hydraulics steady state coupling is the cross section handling to take into account Doppler broadening when temperature rises. Among every available options, the pseudo materials approach has been chosen in this thesis. This approach obtains reasonable results in fast reactor applications. Furthermore, geometrical changes caused by large temperature gradients in the core, are of major importance in fast reactor due to the large neutron mean free path. An additional module has therefore been included in order to simulate the reactor geometry in hot state or to estimate the reactivity due to core expansion in a transient. The module automatically calculates the fuel length, cladding radius, fuel assembly pitch and diagrid radius with the temperature. This effect will be crucial in some unprotected transients. Also related to geometrical changes, an automatic control rod movement feature has been implemented in order to achieve a just critical reactor or to calculate control rod worth. A step forward in the coupling platform is the dynamic simulation. Since MCNP performs only steady state calculations for critical systems, the more straight forward option without modifying MCNP source code, is to use the flux factorization approach solving separately the flux shape and amplitude. In this thesis two options have been studied to tackle time dependent neutronic simulations using a Monte Carlo code: adiabatic and quasistatic methods. The adiabatic methods uses a staggered time coupling scheme for the time advance of neutronics and the thermal-hydraulics calculations. MCNP computes the fundamental mode of the neutron flux distribution and the reactivity at the end of each time step and COBRA-IV the thermal properties at half of the the time steps. To calculate the flux amplitude evolution a solver of the point kinetics equations is used. This method calculates the static reactivity in each time step that in general is different from the dynamic reactivity calculated with the exact flux distribution. Nevertheless, for close to critical situations, both reactivities are similar and the method leads to acceptable practical results. In this line, an improved method as an attempt to take into account the effect of delayed neutron source in the transient flux shape evolutions is developed. The scheme performs a quasistationary calculation per time step with MCNP. This quasistationary simulations is based con the constant delayed source approach, taking into account the importance of each criticality cycle in the final flux estimation. Both adiabatic and quasistatic methods have been verified against the diffusion code COBAYA3, using a theoretical kinetic exercise. Finally, a transient in a critical 100 MWth lead-bismuth-eutectic reactor concept is analyzed using the adiabatic method as an application example in a real system.
Resumo:
La segmentación de imágenes puede plantearse como un problema de minimización de una energía discreta. Nos enfrentamos así a una doble cuestión: definir una energía cuyo mínimo proporcione la segmentación buscada y, una vez definida la energía, encontrar un mínimo absoluto de la misma. La primera parte de esta tesis aborda el segundo problema, y la segunda parte, en un contexto más aplicado, el primero. Las técnicas de minimización basadas en cortes de grafos permiten obtener el mínimo de una energía discreta en tiempo polinomial mediante algoritmos de tipo min-cut/max-flow. Sin embargo, estas técnicas solo pueden aplicarse a energías que son representabas por grafos. Un importante reto es estudiar qué energías son representabas así como encontrar un grafo que las represente, lo que equivale a encontrar una función gadget con variables adicionales. En la primera parte de este trabajo se estudian propiedades de las funciones gadgets que permiten acotar superiormente el número de variables adicionales. Además se caracterizan las energías con cuatro variables que son representabas, definiendo gadgets con dos variables adicionales. En la segunda parte, más práctica, se aborda el problema de segmentación de imágenes médicas, base en muchas ocasiones para la diagnosis y el seguimiento de terapias. La segmentación multi-atlas es una potente técnica de segmentación automática de imágenes médicas, con tres aspectos importantes a destacar: el tipo de registro entre los atlas y la imagen objetivo, la selección de atlas y el método de fusión de etiquetas. Este último punto puede formularse como un problema de minimización de una energía. A este respecto introducimos dos nuevas energías representables. La primera, de orden dos, se utiliza en la segmentación en hígado y fondo de imágenes abdominales obtenidas mediante tomografía axial computarizada. La segunda, de orden superior, se utiliza en la segmentación en hipocampos y fondo de imágenes cerebrales obtenidas mediante resonancia magnética. ABSTRACT The image segmentation can be described as the problem of minimizing a discrete energy. We face two problems: first, to define an energy whose minimum provides the desired segmentation and, second, once the energy is defined we must find its global minimum. The first part of this thesis addresses the second problem, and the second part, in a more applied context, the first problem. Minimization techniques based on graph cuts find the minimum of a discrete energy in polynomial time via min-cut/max-flow algorithms. Nevertheless, these techniques can only be applied to graph-representable energies. An important challenge is to study which energies are graph-representable and to construct graphs which represent these energies. This is the same as finding a gadget function with additional variables. In the first part there are studied the properties of gadget functions which allow the number of additional variables to be bounded from above. Moreover, the graph-representable energies with four variables are characterised and gadgets with two additional variables are defined for these. The second part addresses the application of these ideas to medical image segmentation. This is often the first step in computer-assisted diagnosis and monitoring therapy. Multiatlas segmentation is a powerful automatic segmentation technique for medical images, with three important aspects that are highlighted here: the registration between the atlas and the target image, the atlas selection, and the label fusion method. We formulate the label fusion method as a minimization problem and we introduce two new graph-representable energies. The first is a second order energy and it is used for the segmentation of the liver in computed tomography (CT) images. The second energy is a higher order energy and it is used for the segmentation of the hippocampus in magnetic resonance images (MRI).
Resumo:
Ponencia titulada: ?Modelos de componentes inobservables para la predicción de precios en mercados eléctricos liberalizados" en el VIII Congreso de la Asociación Española de Economía de la Energía
Resumo:
En la actualidad más del 80 % de la energía eléctrica empleada en el mundo se obtiene a partir de combustibles de origen fósil. Sin embargo, estas fuentes de energía (gas natural, el carbón o el petróleo) presentan problemas de emisión de cantidades importantes de contaminantes a la atmósfera como CO, NOx y SOx. Estas emisiones están llevando a intentar reducir las emisiones enfocando el consumo a la utilización de fuentes de energía renovable, menos dañinas para el ambiente como la energía solar, la eólica, la biomasa, etc. En los almacenamientos de biomasa, ésta es potencialmente capaz de absorber oxígeno produciendo reacciones exotérmicas de oxidación. Si el calor producido en estas reacciones no se disipa adecuadamente, provoca un auto-calentamiento de la materia orgánica que puede ser causa de descomposición e inflamación. En el ámbito de la posible auto-combustión en el almacenamiento y manipulación de las biomasas existen diversos factores que influyen en la susceptibilidad térmica de las biomasas, es decir, en su tendencia a la oxidación y posterior inflamación de la materia. Esta Tesis Doctoral pretende evaluar el riesgo de auto-combustión de las biomasas almacenadas, para su uso en procesos de gasificación. En este estudio se ha trabajado con biomasas de origen agrícola, forestal y residual empleadas en procesos industriales de gasificación con distinta composición química. Los métodos empleados se han basado en técnicas clásicas de termogravimetría, calorimetría diferencial de barrido, análisis de composición y morfología. Con estos ensayos se pretende definir un rango de temperaturas lo más estrecho posible donde las muestras presentan mayor susceptibilidad a un calentamiento espontáneo que puede derivar en auto-combustión, en función de las distintas propiedades estudiadas de las biomasas, para poder servir así de herramienta de evaluación y análisis del riesgo de autocombustión. Como conclusión se muestran umbrales y valores que relacionan las propiedades físicas y químicas de las biomasas estudiadas en su auto-combustión, analizando la influencia de los procesos de preparación de las biomasas sobre las variables que caracterizan su susceptibilidad térmica.
Resumo:
Este proyecto tiene como objetivo la implementación de un sistema capaz de analizar el movimiento corporal a partir de unos puntos cinemáticos. Estos puntos cinemáticos se obtienen con un programa previo y se captan con la cámara kinect. Para ello el primer paso es realizar un estudio sobre las técnicas y conocimientos existentes relacionados con el movimiento de las personas. Se sabe que Rudolph Laban fue uno de sus mayores exponentes y gracias a sus observaciones se establece una relación entre la personalidad, el estado anímico y la forma de moverse de un individuo. Laban acuñó el término esfuerzo, que hace referencia al modo en que se administra la energía que genera el movimiento y de qué manera se modula en las secuencias, es una manera de describir la intención de las expresiones internas. El esfuerzo se divide en 4 categorías: peso, espacio, tiempo y flujo, y cada una de estas categorías tiene una polaridad denominada elemento de esfuerzo. Con estos 8 elementos de esfuerzo un movimiento queda caracterizado. Para poder cuantificar los citados elementos de esfuerzo se buscan movimientos que representen a alguno de ellos. Los movimientos se graban con la cámara kinect y se guardan sus valores en un archivo csv. Para el procesado de estos datos se establece que el sistema más adecuado es una red neuronal debido a su flexibilidad y capacidad a la hora de procesar entradas no lineales. Para la implementación de la misma se requiere un amplio estudio que incluye: topologías, funciones de activación, tipos de aprendizaje, algoritmos de entrenamiento entre otros. Se decide que la red tenga dos capas ocultas, para mejor procesado de los datos, que sea estática, siga un proceso de cálculo hacia delante (Feedforward) y el algoritmo por el que se rija su aprendizaje sea el de retropropagación (Backpropagation) En una red estática las entradas han de ser valores fijos, es decir, no pueden variar en el tiempo por lo que habrá que implementar un programa intermedio que haga una media aritmética de los valores. Una segunda prueba con la misma red trata de comprobar si sería capaz de reconocer movimientos que estuvieran caracterizados por más de un elemento de esfuerzo. Para ello se vuelven a grabar los movimientos, esta vez en parejas de dos, y el resto del proceso es igual. ABSTRACT. The aim of this project is the implementation of a system able to analyze body movement from cinematic data. This cinematic data was obtained with a previous program. The first step is carrying out a study about the techniques and knowledge existing nowadays related to people movement. It is known that Rudolf Laban was one the greatest exponents of this field and thanks to his observations a relation between personality, mood and the way the person moves was made. Laban coined the term effort, that refers to the way energy generated from a movement is managed and how it is modulated in the sequence, this is a method of describing the inner intention of the person. The effort is divided into 4 categories: weight, space, time and flow, and each of these categories have 2 polarities named elements of effort. These 8 elements typify a movement. We look for movements that are made of these elements so we can quantify them. The movements are recorded with the kinect camera and saved in a csv file. In order to process this data a neural network is chosen owe to its flexibility and capability of processing non-linear inputs. For its implementation it is required a wide study regarding: topology, activation functions, different types of learning methods and training algorithms among others. The neural network for this project will have 2 hidden layers, it will be static and follow a feedforward process ruled by backpropagation. In a static net the inputs must be fixed, this means they cannot vary in time, so we will have to implement an intermediate program to calculate the average of our data. A second test for our net will be checking its ability to recognize more than one effort element in just one movement. In order to do this all the movements are recorded again but this time in pairs, the rest of the process remains the same.
Resumo:
Son numerosos los expertos que predicen que hasta pasado 2050 no se utilizarán masivamente las energías de origen renovable, y que por tanto se mantendrá la emisión de dióxido de carbono de forma incontrolada. Entre tanto, y previendo que este tipo de uso se mantenga hasta un horizonte temporal aún más lejano, la captura, concentración y secuestro o reutilización de dióxido de carbono es y será una de las principales soluciones a implantar para paliar el problema medioambiental causado. Sin embargo, las tecnologías existentes y en desarrollo de captura y concentración de este tipo de gas, presentan dos limitaciones: las grandes cantidades de energía que consumen y los grandes volúmenes de sustancias potencialmente dañinas para el medioambiente que producen durante su funcionamiento. Ambas razones hacen que no sean atractivas para su implantación y uso de forma extensiva. La solución planteada en la presente tesis doctoral se caracteriza por la ausencia de residuos producidos en la operación de captura y concentración del dióxido de carbono, por no utilizar substancias químicas y físicas habituales en las técnicas actuales, por disminuir los consumos energéticos al carecer de sistemas móviles y por evitar la regeneración química y física de los materiales utilizados en la actualidad. Así mismo, plantea grandes retos a futuras innovaciones sobre la idea propuesta que busquen fundamentalmente la disminución de la energía utilizada durante su funcionamiento y la optimización de sus componentes principales. Para conseguir el objetivo antes citado, la presente tesis doctoral, una vez establecido el planteamiento del problema al que se busca solución (capítulo 1), del estudio de las técnicas de separación de gases atmosféricos utilizadas en la actualidad, así como del de los sistemas fundamentales de las instalaciones de captura y concentración del dióxido de carbono (capítulo 2) y tras una definición del marco conceptual y teórico (capítulo 3), aborda el diseño de un prototipo de ionización fotónica de los gases atmosféricos para su posterior separación electrostática, a partir del estudio, adaptación y mejora del funcionamiento de los sistemas de espectrometría de masas. Se diseñarán y desarrollarán los sistemas básicos de fotoionización, mediante el uso de fuentes de fotones coherentes, y los de separación electrostática (capítulo 4), en que se basa el funcionamiento de este sistema de separación de gases atmosféricos y de captura y concentración de dióxido de carbono para construir un prototipo a nivel laboratorio. Posteriormente, en el capítulo 5, serán probados utilizando una matriz experimental que cubra los rangos de funcionamiento previstos y aporte suficientes datos experimentales para corregir y desarrollar el marco teórico real, y con los que se pueda establecer y corregir un modelo físico– matemático de simulación (capítulo 6) aplicable a la unidad en su conjunto. Finalmente, debido a la utilización de unidades de ionización fotónica, sistemas láseres intensos y sistemas eléctricos de gran potencia, es preciso analizar el riesgo biológico a las personas y al medioambiente debido al impacto de la radiación electromagnética producida (capítulo 7), minimizando su impacto y cumpliendo con la legislación vigente. En el capítulo 8 se planteará un diseño escalable a tamaño piloto de la nueva tecnología propuesta y sus principales modos de funcionamiento, así como un análisis de viabilidad económica. Como consecuencia de la tesis doctoral propuesta y del desarrollo de la unidad de separación atmosférica y de captura y concentración de dióxido de carbono, surgen diversas posibilidades de estudio que pueden ser objeto de nuevas tesis doctorales y de futuros desarrollos de ingeniería. El capítulo 9 tratará de incidir en estos aspectos indicando líneas de investigación para futuras tesis y desarrollos industriales. ABSTRACT A large number of experts predict that until at least 2050 renewable energy sources will not be massively used, and for that reason, current Primary Energy sources based on extensive use of fossil fuel will be used maintaining out of control emissions, Carbon Dioxide above all. Meanwhile, under this scenario and considering its extension until at least 2050, Carbon Capture, Concentration, Storage and/or Reuse is and will be one of the main solutions to minimise Greenhouse Gasses environmental effect. But, current Carbon Capture and Storage technology state of development has two main problems: it is a too large energy consuming technology and during normal use it produces a large volume of environmentally dangerous substances. Both reasons are limiting its development and its extensive use. This Ph Degree Thesis document proposes a solution to get the expected effect using a new atmospheric gasses separation system with the following characteristics: absence of wastes produced, it needs no chemical and/or physical substances during its operation, it reduces to minimum the internal energy consumptions due to absence of mobile equipment and it does not need any chemical and/or physical regeneration of substances. This system is beyond the State of the Art of current technology development. Additionally, the proposed solution raises huge challenges for future innovations of the proposed idea finding radical reduction of internal energy consumption during functioning, as well as regarding optimisation of main components, systems and modes of operation. To achieve this target, once established the main problem, main challenge and potential solving solutions (Chapter 1), it is established an initial starting point fixing the Atmospheric Gasses Separation and Carbon Capture and Storage developments (Chapter 2), as well as it will be defined the theoretical and basic model, including existing and potential new governing laws and mathematical formulas to control its system functioning (Chapter 3), this document will deal with the design of an installation of an operating system based on photonic ionization of atmospheric gasses to be separated in a later separation system based on the application of electrostatic fields. It will be developed a basic atmospheric gasses ionization prototype based on intense radioactive sources capable to ionize gasses by coherent photonic radiation, and a basic design of electrostatic separation system (Chapter 4). Both basic designs are the core of the proposed technology that separates Atmospheric Gasses and captures and concentrates Carbon Dioxide. Chapter 5 will includes experimental results obtained from an experimental testing matrix covering expected prototype functioning regimes. With the obtained experimental data, theoretical model will be corrected and improved to act as the real physical and mathematical model capable to simulate real system function (Chapter 6). Finally, it is necessary to assess potential biological risk to public and environment due to the proposed use of units of intense energy photonic ionization, by laser beams or by non–coherent sources and large electromagnetic systems with high energy consumption. It is necessary to know the impact in terms of and electromagnetic radiation taking into account National Legislation (Chapter 7). On Chapter 8, an up scaled pilot plant will be established covering main functioning modes and an economic feasibility assessment. As a consequence of this PhD Thesis, a new field of potential researches and new PhD Thesis are opened, as well as future engineering and industrial developments (Chapter 9).
Resumo:
El enriquecimiento del conocimiento sobre la Irradiancia Solar (IS) a nivel de superficie terrestre, así como su predicción, cobran gran interés para las Energías Renovables (ER) - Energía Solar (ES)-, y para distintas aplicaciones industriales o ecológicas. En el ámbito de las ER, el uso óptimo de la ES implica contar con datos de la IS en superficie que ayuden tanto, en la selección de emplazamientos para instalaciones de ES, como en su etapa de diseño (dimensionar la producción) y, finalmente, en su explotación. En este último caso, la observación y la predicción es útil para el mercado energético, la planificación y gestión de la energía (generadoras y operadoras del sistema eléctrico), especialmente en los nuevos contextos de las redes inteligentes de transporte. A pesar de la importancia estratégica de contar con datos de la IS, especialmente los observados por sensores de IS en superficie (los que mejor captan esta variable), estos no siempre están disponibles para los lugares de interés ni con la resolución espacial y temporal deseada. Esta limitación se une a la necesidad de disponer de predicciones a corto plazo de la IS que ayuden a la planificación y gestión de la energía. Se ha indagado y caracterizado las Redes de Estaciones Meteorológicas (REM) existentes en España que publican en internet sus observaciones, focalizando en la IS. Se han identificado 24 REM (16 gubernamentales y 8 redes voluntarios) que aglutinan 3492 estaciones, convirtiéndose éstas en las fuentes de datos meteorológicos utilizados en la tesis. Se han investigado cinco técnicas de estimación espacial de la IS en intervalos de 15 minutos para el territorio peninsular (3 técnicas geoestadísticas, una determinística y el método HelioSat2 basado en imágenes satelitales) con distintas configuraciones espaciales. Cuando el área de estudio tiene una adecuada densidad de observaciones, el mejor método identificado para estimar la IS es el Kriging con Regresión usando variables auxiliares -una de ellas la IS estimada a partir de imágenes satelitales-. De este modo es posible estimar espacialmente la IS más allá de los 25 km identificados en la bibliografía. En caso contrario, se corrobora la idoneidad de utilizar estimaciones a partir de sensores remotos cuando la densidad de observaciones no es adecuada. Se ha experimentado con el modelado de Redes Neuronales Artificiales (RNA) para la predicción a corto plazo de la IS utilizando observaciones próximas (componentes espaciales) en sus entradas y, los resultados son prometedores. Así los niveles de errores disminuyen bajo las siguientes condiciones: (1) cuando el horizonte temporal de predicción es inferior o igual a 3 horas, las estaciones vecinas que se incluyen en el modelo deben encentrarse a una distancia máxima aproximada de 55 km. Esto permite concluir que las RNA son capaces de aprender cómo afectan las condiciones meteorológicas vecinas a la predicción de la IS. ABSTRACT ABSTRACT The enrichment of knowledge about the Solar Irradiance (SI) at Earth's surface and its prediction, have a high interest for Renewable Energy (RE) - Solar Energy (SE) - and for various industrial and environmental applications. In the field of the RE, the optimal use of the SE involves having SI surface to help in the selection of sites for facilities ES, in the design stage (sizing energy production), and finally on their production. In the latter case, the observation and prediction is useful for the market, planning and management of the energy (generators and electrical system operators), especially in new contexts of smart transport networks (smartgrid). Despite the strategic importance of SI data, especially those observed by sensors of SI at surface (the ones that best measure this environmental variable), these are not always available to the sights and the spatial and temporal resolution desired. This limitation is bound to the need for short-term predictions of the SI to help planning and energy management. It has been investigated and characterized existing Networks of Weather Stations (NWS) in Spain that share its observations online, focusing on SI. 24 NWS have been identified (16 government and 8 volunteer networks) that implies 3492 stations, turning it into the sources of meteorological data used in the thesis. We have investigated five technical of spatial estimation of SI in 15 minutes to the mainland (3 geostatistical techniques and HelioSat2 a deterministic method based on satellite images) with different spatial configurations. When the study area has an adequate density of observations we identified the best method to estimate the SI is the regression kriging with auxiliary variables (one of them is the SI estimated from satellite images. Thus it is possible to spatially estimate the SI beyond the 25 km identified in the literature. Otherwise, when the density of observations is inadequate the appropriateness is using the estimates values from remote sensing. It has been experimented with Artificial Neural Networks (ANN) modeling for predicting the short-term future of the SI using observations from neighbor’s weather stations (spatial components) in their inputs, and the results are promising. The error levels decrease under the following conditions: (1) when the prediction horizon is less or equal than 3 hours the best models are the ones that include data from the neighboring stations (at a maximum distance of 55 km). It is concluded that the ANN is able to learn how weather conditions affect neighboring prediction of IS at such Spatio-temporal horizons.
Resumo:
La observación de la Tierra es una herramienta de gran utilidad en la actualidad para el estudio de los fenómenos que se dan en la misma. La observación se puede realizar a distintas escalas y por distintos métodos dependiendo del propósito. El actual Trabajo Final de Grado persigue exponer la observación del territorio mediante técnicas de Teledetección, o Detección Remota, y su aplicación en la exploración de hidrocarburos. Desde la Segunda Guerra Mundial el capturar imágenes aéreas de regiones de la Tierra estaba restringido a usos cartográficos en el sentido estricto. Desde aquellos tiempos, hasta ahora, ha acontecido una serie de avances científicos que permiten deducir características intrínsecas de la Tierra mediante mecanismos complejos que no apreciamos a simple vista, pero que, están configurados mediante determinados parámetros geométricos y electrónicos, que permiten generar series temporales de fenómenos físicos que se dan en la Tierra. Hoy en día se puede afirmar que el aprovechamiento del espectro electromagnético está en un punto máximo. Se ha pasado del análisis de la región del espectro visible al análisis del espectro en su totalidad. Esto supone el desarrollo de nuevos algoritmos, técnicas y procesos para extraer la mayor cantidad de información acerca de la interacción de la materia con la radiación electromagnética. La información que generan los sistemas de captura va a servir para la aplicación directa e indirecta de métodos de prospección de hidrocarburos. Las técnicas utilizadas en detección por sensores remotos, aplicadas en campañas geofísicas, son utilizadas para minimizar costes y maximizar resultados en investigaciones de campo. La predicción de anomalías en la zona de estudio depende del analista, quien diseña, calcula y evalúa las variaciones de la energía electromagnética reflejada o emitida por la superficie terrestre. Para dicha predicción se revisarán distintos programas espaciales, se evaluará la bondad de registro y diferenciación espectral mediante el uso de distintas clasificaciones (supervisadas y no supervisadas). Por su influencia directa sobre las observaciones realizadas, se realiza un estudio de la corrección atmosférica; se programan distintos modelos de corrección atmosférica para imágenes multiespectrales y se evalúan los métodos de corrección atmosférica en datos hiperespectrales. Se obtendrá temperatura de la zona de interés utilizando los sensores TM-4, ASTER y OLI, así como un Modelo Digital del Terreno generado por el par estereoscópico capturado por el sensor ASTER. Una vez aplicados estos procedimientos se aplicarán los métodos directos e indirectos, para la localización de zonas probablemente afectadas por la influencia de hidrocarburos y localización directa de hidrocarburos mediante teledetección hiperespectral. Para el método indirecto se utilizan imágenes capturadas por los sensores ETM+ y ASTER. Para el método directo se usan las imágenes capturadas por el sensor Hyperion. ABSTRACT The observation of the Earth is a wonderful tool for studying the different kind of phenomena that occur on its surface. The observation could be done by different scales and by different techniques depending on the information of interest. This Graduate Thesis is intended to expose the territory observation by remote sensing acquiring data systems and the analysis that can be developed to get information of interest. Since Second World War taking aerials photographs of scene was restricted only to a cartographic sense. From these days to nowadays, it have been developed many scientific advances that make capable the interpretation of the surface behavior trough complex systems that are configure by specific geometric and electronic parameters that make possible acquiring time series of the phenomena that manifest on the earth’s surface. Today it is possible to affirm that the exploitation of the electromagnetic spectrum is on a maxim value. In the past, analysis of the electromagnetic spectrum was carry in a narrow part of it, today it is possible to study entire. This implicates the development of new algorithms, process and techniques for the extraction of information about the interaction of matter with electromagnetic radiation. The information that has been acquired by remote sensing sensors is going to be a helpful tool for the exploration of hydrocarbon through direct and vicarious methods. The techniques applied in remote sensing, especially in geophysical campaigns, are employed to minimize costs and maximize results of ground-based geologic investigations. Forecasting of anomalies in the region of interest depends directly on the expertise data analyst who designs, computes and evaluates variations in the electromagnetic energy reflected or emanated from the earth’s surface. For an optimal prediction a review of the capture system take place; assess of the goodness in data acquisition and spectral separability, is carried out by mean of supervised and unsupervised classifications. Due to the direct influence of the atmosphere in the register data, a study of the minimization of its influence has been done; a script has been programed for the atmospheric correction in multispectral data; also, a review of hyperspectral atmospheric correction is conducted. Temperature of the region of interest is computed using the images captured by TM-4, ASTER and OLI, in addition to a Digital Terrain Model generated by a pair of stereo images taken by ASTER sensor. Once these procedures have finished, direct and vicarious methods are applied in order to find altered zones influenced by hydrocarbons, as well as pinpoint directly hydrocarbon presence by mean of hyperspectral remote sensing. For this purpose ETM+ and ASTER sensors are used to apply the vicarious method and Hyperion images are used to apply the direct method.
Resumo:
En las últimas dos décadas, los productores han plantado olivares en seto para lograr la mecanización de la poda y en especial de la cosecha, reducir los costes de mano de obra y permitir intervenciones de manejo rápidas y oportunas. Los olivares se desarrollaron en ausencia del conocimiento científico, sobre el diseño óptimo de la estructura de la copa, necesario para incrementar la producción y calidad del aceite. En contraste, con los árboles muy espaciados y distribuidos uniformemente de las plantaciones tradicionales, en el olivar en seto hay una marcada variabilidad espacial y temporal de la radiación disponible en función del diseño de la plantación. Así, conocer la respuesta fisiológica y productiva del olivo a la radiación resulta fundamental en el olivar en seto. La orientación de las filas y el ancho de calle son aspectos que se deciden en el diseño de las plantaciones en seto. Ambos aspectos modifican la radiación interceptada por la canopia y, por lo tanto, pueden incidir en la productividad y calidad del aceite. Una vez realizada la plantación no pueden ser modificados, y así las ventajas o desventajas permanecerán fijas durante toda la vida productiva del olivar. A pesar de esto, el impacto de la orientación de las filas y el ancho de calle han recibido poca atención en olivos y en la mayoría de los frutales conducidos en seto. Por todo ello, los objetivos principales de esta tesis fueron, (i) evaluar el efecto de la orientación del seto y del ancho de calle, sobre la productividad y calidad del aceite, (ii) evaluar un modelo que estime la radiación dentro de la canopia. Este modelo permitirá cuantificar las relaciones entre la radiación y los componentes del rendimiento y calidad del aceite de olivares en setos con un amplio rango de estructuras y (iii) conocer la variabilidad en las características de las hojas (morfológicas y fisiológicas) y de los tejidos del fruto (tamaño y composición) en diferentes posiciones de la copa de los setos. Para ello, se dispuso de 3 ensayos de olivar en seto (cv. Arbequina) implantados en 2008 en el municipio de La Puebla de Montalbán, Toledo. La primera cosecha fue en 2010 y a partir del 2012 los setos formaron una copa continua. A partir de ese año, los setos se mantuvieron mediante poda, con similar ancho (~1 m) y altura (~2,5 m), acordes a las dimensiones de la cosechadora vendimiadora. En los años 2012 y 2013 se estudió en profundidad la respuesta de las plantas de estos ensayos. En el ensayo 1, los setos fueron plantados con cuatro orientaciones de filas: N–S, NE–SO, NO–SE y E–O y el mismo ancho de calle (4 m). En los otros dos ensayos, los setos fueron plantados con tres anchos de calle (5,0, 4,0 y 2,5 m), y con filas orientadas N–S (ensayo 2) y E–O (ensayo 3). La respuesta de la orientación de las filas se evaluó a nivel de seto y de estratos del seto (alturas y caras), a través de mediciones del crecimiento de brotes, componentes reproductivos, características y temperatura del fruto, estado hídrico del suelo y de las plantas, fotosíntesis neta de las hojas y contenido de ácidos grasos. Los setos orientados NE–SO (2,7 t/ha) lograron la mayor producción de aceite, que fue significativamente más alta que la de los setos E–O (2,3 t/ha). La producción de aceite de los setos E–O no se diferenció estadísticamente de los setos N–S (2,5 t/ha). Las diferencias productivas entre orientaciones fueron explicadas por el número de frutos en cosecha, a su vez la variación en el número de frutos estuvo asociada al efecto de la orientación de las filas sobre el número de yemas desarrolladas y el porcentaje de inflorescencias fértiles. Las hojas en las caras iluminadas de los setos NE–SO y N–S presentaron mayor tasa fotosintética a la mañana (~10.0 h) que los setos E–O, en el año 2012, pero no en 2013. La orientación de las filas no tuvo un efecto significativo en el contenido de ácidos grasos de los aceites extraídos, esto ocurrió a pesar de variaciones en la temperatura interna de los frutos (3 °C) y de la radiación (40%) entre las distintas caras de los setos. La orientación del seto afectó significativamente al contenido relativo de agua del suelo, donde setos E–O presentaron valores más altos (12%) que setos N–S durante el verano y otoño. Sin embargo, el potencial hídrico de tallo fue similar entre orientaciones. En los ensayos 2 y 3, se evaluó el efecto que produce, a nivel de seto y de estratos (caras y alturas), reducir el ancho de calle de 5,0 a 4,0 y 2,5 m, en un seto orientado N–S y otro E–O, respectivamente. La relación entre altura/ancho de calle libre aumentó 0,6 a 0,8 y 1,6, al reducir 5,0, 4,0 y 2,5 m el ancho de calle, mientras la longitud de seto y el volumen de copa por hectárea incrementó 100% al reducir de 5,0 a 2,5 m, el ancho de calle. En los setos orientados N–S, la producción de aceite por ha acumulada en 4 campañas, incrementó significativamente un 52 %, al reducir de 5,0 a 2,5 m el ancho de calle. Los setos N–S con calle más estrecha (2,5 m) tuvieron un 19% menos frutos que los setos con calle más ancha (5,0 m) y a su vez el 60% de los mismos se localizaron los estratos altos de la canopia de los setos con calles estrecha en comparación al 40% en setos con calle de 5,0 m. En los estratos más bajos de los setos con calles de 2,5m hubo menor crecimiento de los brotes y los frutos tuvieron menor peso seco, contenido de aceite y madurez, que los frutos en los estratos bajos de los setos a 5,0 m. Los componentes del rendimiento y características de los frutos (agua y madurez) fueron similares entre la caras E y O, independientemente del ancho de calle. En los setos orientados E–O, la producción de aceite por ha acumulada en 4 campañas, no respondió significativamente al ancho de calle, debido a una disminución significativa en el número de frutos y producción de aceite por m de seto, al reducir de 5,0 a 2,5 m, el ancho de calle. En los setos orientados E–O, con calles de 5,0 m, los frutos presentaron similar peso seco, contenido de aceite y agua, en las caras S y N, sin embargo, cuando la calle fue reducida a 2,5, los frutos de la cara S fueron más pesado y maduros que en la cara N. Independientemente del ancho de calle y de la orientación del seto, el aceite presentó mayor contenido de ácidos palmitoleico, palmítico, esteárico y linoleico en los frutos del estrato más alto de la canopia disminuyendo hacia la base. En contraste, el contenido de ácido oleico aumentó desde el estrato más alto hacia la base de los setos. Las diferencias en el contenido de ácidos grasos entre la parte alta y baja de los setos, incrementó al reducir el ancho de calle en los setos N–S, pero no en los E-O. En conclusión, en olivares en seto, reducir el ancho de calle permite incrementar la producción de aceite, en setos orientados N–S, pero no en E–O. Un modelo que estima la cantidad y distribución de la radiación en toda la copa del seto, fue utilizado para estimar la radiación interceptada en distintos estratos del seto. El modelo requiere un valor del coeficiente de extinción (k) para estimar la transmisión de radiación a través de la copa, el cual fue obtenido experimentalmente (k=1,2). Utilizando los datos del ensayo 1, un único modelo lineal relacionó el peso seco y el rendimiento graso de setos con la radiación interceptada por los distintos estratos de setos con cuatro orientaciones de filas. La densidad de frutos fue también relacionada con la radiación, pero más débilmente. En los setos orientados N–S, plantados con tres anchos de calles, (ensayo 2) el contenido de ácidos palmitoleico y linoleico del aceite incrementó linealmente con el incremento de la radiación interceptada, mientras el contenido ácido oleico disminuyó linealmente con el incremento de la radiación. El contenido de ácidos grasos del aceite no estuvo relacionado con la radiación interceptada en setos orientados E–O (Ensayo 3). En los setos N–S y E–O, plantados con anchos de calle de 2,5 m, se estudiaron las interacciones entre la radiación y características de las hojas, número de fruto, tamaño y composición de los frutos a nivel de órgano, tejido y células. Independientemente de la orientación del seto, el área y el contenido de clorofila de las hojas incrementaron significativamente en los estratos más bajos de los setos. Mientras, las hojas de los estratos medios del seto presentaron mayor capacidad fotosintética que en los estratos bajos y alto de los setos. Los estratos del seto que interceptaron más radiación produjeron frutos con mayor tamaño y contenido de aceite en el mesocarpo, sin efectos sobre el tamaño y composición del endocarpo. A nivel celular, los frutos expuestos a mayor nivel de radiación desarrollaron en el mesocarpo células de mayor tamaño en comparación a frutos menos expuestos, mientras el número de células no fue afectado. Adicionalmente, el número y tamaño de las células estuvo relacionado con la composición del mesocarpo en términos de aceite, agua y peso seco menos aceite. Esta tesis, contribuye, desde una perspectiva integral del cultivo del olivo, a cuantificar el impacto de la orientación y ancho de calle sobre la producción y calidad del aceite en olivares conducidos en setos. El análisis y discusión de la relación entre la radiación y los componentes del rendimiento y calidad del aceite, puede ayudar a diseñar plantaciones en seto con dimensiones óptimas para la intercepción de la radiación. ABSTRACT In the last two decades, olive hedgerow system has been established by commercial growers to allow continuous mechanized pruning and especially harvest, reduce costs of manual labour and allow more rapid and timely management interventions. The adoption of hedgerow was done in the absence of adequate scientific knowledge of the impact of this orchard structure and associated mechanization on tree response, yield and quality, after centuries in low-density orchards and open-formed trees. The row orientation and width alley are fundamental aspects in the hedgerow design and have been scarcely studied in olive. Both aspects modify the radiation intercepted by the canopy, and consequently the productivity and oil quality, and once defined in orchard planting cannot be changed, so advantages and disadvantages remain fixed for the lifespan of the orchard. The main objectives of this thesis were to (i) evaluate the impact of the row orientation and width alley on productivity and oil quality by the measurements of profile of the determining processes of shoot growth, fruit temperature, yield components and fruit and oil characteristics on opposite sides of olive hedgerows. Additionally, the effect of row orientation on the plant water status was also evaluated; (ii) evaluate a mathematical model for estimating the radiation within the canopy and quantify the relationships between the radiation estimated and yield components and oil quality in olive hedgerows under wide range of structures and; (iii) determine the variability in the characteristics of the leaves (morphological and physiological) and fruit tissues (size and composition) in different positions of the hedgerows canopy. Three plots of olive hedgerows (cv. Arbequina) planted in 2008 in La Puebla de Montalbán, Toledo were evaluated during the 2012 and 2013 seasons. The hedgerows were maintained by lateral pruning and topping with the same width (1 m) and height (2.5 m) compatible with the intended harvester. In a plot (experiment 1), the hedgerows were planted with the same width alley (4 m) and four row orientations: N–S, NE–SW, NW–SE and E–W. Other two plots (Experiments 2 and 3) separated by approximately 100 m were planted with N–S and E–O oriented rows and three alley widths in each orientation: 5.0, 4.0 and 2.5 m. In the exp. 1, maximum fruit yield were achieved by NE–SW and NW–SW (15.7 t/ha). Of these, NE–SW achieved the highest oil yield (2.7 t/ha). There were no differences in fruit or oil yield between N–S (2.5 t oil/ha) and E–W (2.3 t oil/ha) orientations. Fruit number was the most important component to explain these differences, by previous influence on number of bud developed and percentage of fertile inflorescences. Fruit maturity and oil quality on both sides of the hedgerows were not affected by row orientation. This occurred despite significant variations in the internal fruit temperature, which was closely related to the irradiance received by the canopy and the time of day. Additionally, row orientation significantly affected the relative water content of the soil, where E–W oriented hedgerows showed consistently higher values than N–S during summer-autumn season. The stem water potential at midday, however, was similar between orientations, revealing possible lower water consumption of E–W than N–S oriented hedgerows. In the exp. 2, regardless of row orientation, reduction of row spacing from 5.0 to 4.0 and 2.5 m increases the ratio of canopy depth to free alley width (Al/An) from 0.6 to 0.8 and 1.6, respectively, and ads 25 and 100 % more hedgerow length per ha. In N–S oriented hedgerows, oil production per ha increased significantly by 14 and 52 % in 4.0 m and 2.5 m relative to 5.0 m row spacing, the effect being proportionally less than the increase in hedgerow length per ha. Hedgerows spaced 2.5 m with Al/An = 1.6 produced relatively fewer fruits per unit length than did wider spacings and were preferentially distributed in upper layers. Fruits located at the bottom of the canopy were smaller, with lower oil content and were less mature. In E–W oriented hedgerows, oil production per ha did not respond significantly to row spacing, despite the doubling of row length from the 5.0 to the 2.5 m row spacing. The explanation was found in fewer fruit per unit length of hedgerow and smaller oil content at 2.5 m than 5.0 m row spacing, averaged over the experimental period. In E–W hedgerows spaced at 5.0 m with Al/An = 0.6, the vertical profiles of fruit characteristics (mass, oil and water contents, and maturity) were similar between opposing sides, but at 4.0 m (Al/An= 0.8) and 2.5 m (Al/An=1.6) spacings, fruits on the S side were heavier and more mature than on N side. The oil extracted from fruits harvested at different heights of N–S and E–W oriented hedgerows showed higher palmitoleic, palmitic, stearic and linoleic contents at the canopy top decreasing toward base. The oleic content was reverse, increased from top to base. In N–S hedgerows, vertical gradients increased by reducing the alley width, but not in the E–W oriented hedgerows. The simulation of internal canopy irradiance was related in a single relationship (R2 = 0.63) to the vertical profiles of fruit weight and oil content of olive hedgerows with wide range of structures. The density of fruits was also associated with the irradiance but more weakly (R2 = 0.27), and revealed a more complex response involving changes in the vegetative structure by canopy management (topping) and the effect of radiation on the previous sequence that defines the number of fruits. The vertical profiles of oil quality traits were closely associated to canopy irradiance, but only when the N–S oriented hedgerows were considered. The contents of palmitoleic and linoleic acid in the oil increased linearly when intercepted irradiance increased from 9 to 19 mol PAR/m2. In contrast, oleic content decreased linearly in this irradiance range. Additionally, we advanced knowledge regarding the interactions among irradiance and leaf, fruit number, size and composition at organ-, tissue- and cellular- levels. The irradiance received at different positions in the canopy strongly affected the leaf area and chlorophyll content, and mesocarp size and composition (water and oil), without effects on endocarp size and composition. At the cellular level, light-exposed fruit developed larger mesocarp cells than shaded fruits, but cell number was not affected. Our results indicate that cell number and size are related to mesocarp composition in term of oil, water, and dry weight menus oil, although the specific manner in which they interact remains to be determined. This research contributes from an integral perspective of olive growing to quantify the impact of row orientation and width alley on productivity and oil quality in hedgerows systems. The analysis and discussion of the relationships between radiation and yield components and oil quality can help understand the impact of design olive hedgerows in general and in a wide range of environmental conditions.