760 resultados para ALMACENAMIENTO


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Actualmente la agricultura cubana, por ser un sector estratégico en la economía del país, incorpora en su desarrollo y gestión las energías renovables como criterio básico para su viabilidad futura. Sin embargo existen un número de problemas que limitan el desarrollo de estas fuentes energéticas en Cuba, entre los que se encuentran el conocimiento incompleto de su potencial de utilización. Por esta razón, la presente investigación tiene como objetivo la maximización de la superficie regada de un cultivo dado y la determinación del volumen de regulación mínimo, usando una aerobomba tipo, en condiciones ambientales dadas. Se desarrolla una metodología para predecir la máxima potencialidad de las aerobombas para un sistema de riego localizado, basada en el cálculo del balance diario entre las necesidades de agua del cultivo y la disponibilidad de agua. Mediante un ejemplo que ilustra el uso de esta metodología en el cultivo de tomate (Solanum lycopersicum L. var. FL - 5) bajo invernadero en Ciego de Ávila, Cuba, se hace una descripción de los elementos de la instalación propuesta para el suministro de agua por parte de la aerobomba. Se estudiaron varios factores, tales como la serie de velocidad del viento trihoraria ( h V3 , m s-1) para un año medio de viento y para un año medio de poco viento; el caudal suministrado por la aerobomba en función de la altura de elevación ( H , m); y la evapotranspiración diaria del cultivo en invernadero en función de la fecha de siembra. A partir de los factores mencionados se determinaron los volúmenes de agua mensuales necesarios para el riego ( r D , m3 ha-1), la capacidad del depósito de almacenamiento ( dep. V , m3), así como las áreas máximas regables ( r A , ha) para cada variante. Los resultados muestran que el período óptimo de bombeo eólico para el riego del cultivo de tomate en invernadero bajo las condiciones ambientales estudiadas es de noviembre a febrero, y que los factores que más influyen en la superficie que se puede regar con el bombeo eólico son la fecha de plantación y el volumen de depósito. Abstract Currently Cuban agriculture, as a strategic sector in the economy of the country, incorporates in its development and renewable energy management as a basic criterion for its future viability. However, there are a number of problems that limit the development of these energy sources in Cuba, among which are the incomplete knowledge of their potential use. For this reason, this research aims at maximizing the irrigated area of a given culture and determination of minimum control volume, using a type Windpump in given environmental conditions. We develop a methodology to predict the maximum potential of windmills for irrigation system, based on the daily balance calculation between the crop water needs and water availability. Through an example that illustrates the use of this methodology in the cultivation of tomato (Solanum lycopersicum L. var. FL - 5) under greenhouse in Ciego de Avila, Cuba, is a description of the elements of the proposed facility to supply water from the windmill. We studied several factors such as the number of trihoraria wind speed ( h V3 , m s- 1) for an average wind year and an average year with little wind, the flow supplied by the windmill depending on the lift height ( H , m) and daily crop evapotranspiration in greenhouse based on planting date. From the above factors were determined monthly water volumes needed for irrigation ( r D , m3 ha-1), the storage tank capacity ( dep. V , m3) and peak areas irrigated ( r A , ha) for each variant. The results show that the optimal period wind pumping for irrigation of greenhouse tomato crop under the environmental conditions studied is from November to February, and that the factors that influence the surface that can be irrigated with wind pumping are planting date and amount of deposit.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se ha realizado un diseño básico de los equipos principales de una instalación de almacenamiento y regasificación de Gas Natural Licuado (GNL) situado en el polígono industrial de Granadilla, en la isla de Tenerife, dentro de la Comunidad Autónoma de las Islas Canarias. La capacidad de la planta es de 150 000 m3(n)/h. La carencia actual de este combustible en las islas hace que la futura ubicación de una instalación de este tipo sea idónea para sustituir a medio y largo plazo los combustibles pesados que se consumen en la actualidad por otro producto más limpio, de menor coste, menos contaminante y mejores características de combustión como es el Gas Natural. El proyecto ha comprendido el diseño de los equipos más importantes de la planta, tales como tanques de almacenamientos, bombas, compresores y relicuador. También se ha realizado un estudio medioambiental y un presupuesto aproximado del coste de la instalación.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las plantas industriales de exploración y producción de petróleo y gas disponen de numerosos sistemas de comunicación que permiten el correcto funcionamiento de los procesos que tienen lugar en ella así como la seguridad de la propia planta. Para el presente Proyecto Fin de Carrera se ha llevado a cabo el diseño del sistema de megafonía PAGA (Public Address and General Alarm) y del circuito cerrado de televisión (CCTV) en la unidad de procesos Hydrocrcaker encargada del craqueo de hidrógeno. Partiendo de los requisitos definidos por las especificaciones corporativas de los grupos petroleros para ambos sistemas, PAGA y CCTV, se han expuesto los principios teóricos sobre los que se fundamenta cada uno de ellos y las pautas a seguir para el diseño y demostración del buen funcionamiento a partir de software específico. Se ha empleado las siguientes herramientas software: EASE para la simulación acústica, PSpice para la simulación eléctrica de las etapas de amplificación en la megafonía; y JVSG para el diseño de CCTV. La sonorización tanto de las unidades como del resto de instalaciones interiores ha de garantizar la inteligibilidad de los mensajes transmitidos. La realización de una simulación acústica permite conocer cómo va a ser el comportamiento de la megafonía sin necesidad de instalar el sistema, lo cual es muy útil para este tipo de proyectos cuya ingeniería se realiza previamente a la construcción de la planta. Además se comprueba el correcto diseño de las etapas de amplificación basadas en líneas de alta impedancia o de tensión constante (100 V). El circuito cerrado de televisión (CCTV) garantiza la transmisión de señales visuales de todos los accesos a las instalaciones y unidades de la planta así como la visión en tiempo real del correcto funcionamiento de los procesos químicos llevados a cabo en la refinería. El sistema dispone de puestos de control remoto para el manejo y gestión de las cámaras desplegadas; y de un sistema de almacenamiento de las grabaciones en discos duros (RAID-5) a través de una red SAN (Storage Area Network). Se especifican las diferentes fases de un proyecto de ingeniería en el sector de E&P de hidrocarburos entre las que se destaca: propuesta y adquisición, reunión de arranque (KOM, Kick Off Meeting), estudio in situ (Site Survey), plan de proyecto, diseño y documentación, procedimientos de pruebas, instalación, puesta en marcha y aceptaciones del sistema. Se opta por utilizar terminología inglesa dado al ámbito global del sector. En la última parte del proyecto se presenta un presupuesto aproximado de los materiales empleados en el diseño de PAGA y CCTV. ABSTRACT. Integrated communications for Oil and Gas allows reducing risks, improving productivity, reducing costs, and countering threats to safety and security. Both PAGA system (Public Address and General Alarm) and Closed Circuit Television have been designed for this project in order to ensure a reliable security of an oil refinery. Based on the requirements defined by corporate specifications for both systems (PAGA and CCTV), theoretical principles have been presented as well as the guidelines for the design and demonstration of a reliable design. The following software has been used: EASE for acoustic simulation; PSpice for simulation of the megaphony amplification loops; and JVSG tool for CCTV design. Acoustic for both the units and the other indoor facilities must ensure intelligibility of the transmitted messages. An acoustic simulation allows us to know how will be the performance of the PAGA system without installing loudspeakers, which is very useful for this type of project whose engineering is performed prior to the construction of the plant. Furthermore, it has been verified the correct design of the amplifier stages based on high impedance lines or constant voltage (100 V). Closed circuit television (CCTV) ensures the transmission of visual signals of all access to facilities as well as real-time view of the proper functioning of chemical processes carried out at the refinery. The system has remote control stations for the handling and management of deployed cameras. It is also included a storage system of the recordings on hard drives (RAID - 5) through a SAN (Storage Area Network). Phases of an engineering project in Oil and Gas are defined in the current project. It includes: proposal and acquisition, kick-off meeting (KOM), Site Survey, project plan, design and documentation, testing procedures (SAT and FAT), installation, commissioning and acceptance of the systems. Finally, it has been presented an estimate budget of the materials used in the design of PAGA and CCTV.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este proyecto se aborda la transducción óptico-sonora utilizando métodos de tratamiento digital de imagen. Para llevar a cabo el proyecto se consideran únicamente métodos de bajo presupuesto, por lo que para realizar todo el proceso de conversión óptico-sonora se utilizan un ordenador y un escáner doméstico. Como el principal objetivo del proyecto es comprobar si es viable utilizar el tratamiento digital de imagen como conversor no se ha contemplado la utilización de equipamiento profesional. La utilidad de este proyecto está en la restauración del sonido de material fílmico con importantes degradaciones, tales que no sea posible su reproducción en un proyector. Con el prototipo que se propone, realizado con el software de programación Matlab, se consigue digitalizar el audio analógico de las películas en malas condiciones ya que la captura de audio se efectúa de manera óptica sobre las bandas sonoras. Lo conseguido en este proyecto cobra especial importancia si se tiene en cuenta la cantidad de material cinematográfico que hay en películas de celulosa. La conservación de dicho material requiere unas condiciones de almacenamiento muy específicas para que el soporte no se vea afectado, pero con el paso del tiempo es habitual que las bobinas de película presenten deformaciones o incluso ruptura. Aplicando métodos de tratamiento digital de imagen es posible restaurar el audio de fragmentos de película que no puedan ser expuestos a la tensión producida por los rodillos de los proyectores, incluso es posible recuperar el audio de fotogramas concretos ya que la digitalización del audio se realiza capturando la imagen de la forma de onda. Por ello, el procedimiento seguido para digitalizar la película debe ser poco intrusivo para garantizar la conservación del soporte fílmico. Cabe destacar que en este proyecto se ha realizado la conversión óptico-sonora sobre las bandas de sonido analógicas de área variable presentes en la película, pero el procedimiento es aplicable también a las bandas de área variable realizando modificaciones en el prototipo. Esto último queda fuera del objetivo de este proyecto, pero puede ser un trabajo futuro. ABSTRACT This project addresses optical to sound conversion using digital image processing methods. To carry out the project are considered only low-budget methods , so for all optical to sound conversion process using a computer and a home scanner . As the main application of this project is to test the feasibility of using the digital image processing as a converter does not contemplate the use of professional equipment. The main objective of this project is the restoration of sound film material with significant impairments , such is not possible playback on a projector. With the proposed prototype , made with Matlab programming software , you get digitize analog audio bad movies because the audio capture is performed optically on the soundtracks. The achievements in this project is especially important if you consider the amount of film material is in cellulose films . The preservation of such material requires a very specific storage conditions to which the support is not affected , but over time it is common for film reels presenting deformations or even rupture. Applying methods of digital image processing is possible to restore the audio from movie clips that can not be exposed to the tension produced by the rollers of the projectors , it is even possible to retrieve specific frames audio and audio that digitization is done by capturing the image of the waveform. Therefore, the procedure used to digitize the film should be bit intrusive to ensure the conservation of the film medium. Note that in this project was carried out optical to sound conversion on analog variable area soundtracks present in the film, but the procedure is applicable to variable-area bands making changes to the prototype. The latter is beyond the scope of this project, but can be a future work.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La medida de la presión sonora es un proceso de extrema importancia para la ingeniería acústica, de aplicación en numerosas áreas de esta disciplina, como la acústica arquitectónica o el control de ruido. Sobre todo en esta última, es necesario poder efectuar medidas precisas en condiciones muy diversas. Por otra parte, la ubicuidad de los dispositivos móviles inteligentes (smartphones, tabletas, etc.), dispositivos que integran potencia de procesado, conectividad, interactividad y una interfaz intuitiva en un tamaño reducido, abre la posibilidad de su uso como sistemas de medida de calidad y de coste bajo. En este Proyecto se pretende utilizar las capacidades de entrada y salida, procesado, conectividad inalámbrica y geolocalización de los dispositivos móviles basados en iOS, en concreto el iPhone, para implementar un sistema de medidas acústicas que iguale o supere las prestaciones de los sonómetros existentes en el mercado. SonoPhone permitirá, mediante la conexión de un micrófono de medida adecuado, la realización de medidas de acuerdo a las normas técnicas en vigor, así como la posibilidad de programar, configurar y almacenar o trasmitir las medidas realizadas, que además estarán geolocalizadas con el GPS integrado en el dispositivo móvil. También se permitirá enviar los datos de la medida a un almacenamiento remoto en la nube. La aplicación tiene una estructura modular en la que un módulo de adquisición de datos lee la señal del micrófono, un back-end efectúa el procesado necesario, y otros módulos permiten la calibración del dispositivo y programar y configurar las medidas, así como su almacenamiento y transmisión en red. Una interfaz de usuario (GUI) permite visualizar las medidas y efectuar las configuraciones deseadas por el usuario, todo ello en tiempo real. Además de implementar la aplicación, se ha realizado una prueba de funcionamiento para determinar si el hardware del iPhone es adecuado para la medida de la presión acústica de acuerdo a las normas internacionales. Sound pressure measurement is an extremely important process in the field of acoustic engineering, with applications in numerous subfields, like for instance building acoustics and noise control, where it is necessary to be able to accurately measure sound pressure in very diverse (and sometimes adverse) conditions. On the other hand, the growing ubiquity of mobile devices such as smartphones or tablets, which combine processing power, connectivity, interactivity and an intuitive interface in a small size, makes it possible to use these devices as quality low-cost measurement systems. This Project aims to use the input-output capabilities of iOS-based mobile devices, in particular the iPhone, together with their processing power, wireless connectivity and geolocation features, to implement an acoustic measurement system that rivals the performance of existing devices. SonoPhone allows, with the addition of an adequate measurement microphone, to carry out measurements that comply with current technical regulations, as well as programming, configuring, storing and transmitting the results of the measurement. These measurements will be geolocated using the integrated GPS, and can be transmitted effortlessly to a remote cloud storage. The application is structured in modular fashion. A data acquisition module reads the signal from the microphone, while a back-end module carries out the necessary processing. Other modules permit the device to be calibrated, or control the configuration of the measurement and its storage or transmission. A Graphical User Interface (GUI) allows visual feedback on the measurement in progress, and provides the user with real-time control over the measurement parameters. Not only an application has been developed; a laboratory test was carried out with the goal of determining if the hardware of the iPhone permits the whole system to comply with international regulations regarding sound level meters.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Several groups all over the world are researching in several ways to render 3D sounds. One way to achieve this is to use Head Related Transfer Functions (HRTFs). These measurements contain the Frequency Response of the human head and torso for each angle. Some years ago, was only possible to measure these Frequency Responses only in the horizontal plane. Nowadays, several improvements have made possible to measure and use 3D data for this purpose. The problem was that the groups didn't have a standard format file to store the data. That was a problem when a third part wanted to use some different HRTFs for 3D audio rendering. Every of them have different ways to store the data. The Spatially Oriented Format for Acoustics or SOFA was created to provide a solution to this problem. It is a format definition to unify all the previous different ways of storing any kind of acoustics data. At the moment of this project they have defined some basis for the format and some recommendations to store HRTFs. It is actually under development, so several changes could come. The SOFA[1] file format uses a numeric container called netCDF[2], specifically the Enhaced data model described in netCDF 4 that is based on HDF5[3]. The SoundScape Renderer (SSR) is a tool for real-time spatial audio reproduction providing a variety of rendering algorithms. The SSR was developed at the Quality and Usability Lab at TU Berlin and is now further developed at the Institut für Nachrichtentechnik at Universität Rostock [4]. This project is intended to be an introduction to the use of SOFA files, providing a C++ API to manipulate them and adapt the binaural renderer of the SSR for working with the SOFA format. RESUMEN. El SSR (SoundScape Renderer) es un programa que está siendo desarrollado actualmente por la Universität Rostock, y previamente por la Technische Universität Berlin. El SSR es una herramienta diseñada para la reproducción y renderización de audio 2D en tiempo real. Para ello utiliza diversos algoritmos, algunos orientados a sistemas formados por arrays de altavoces en diferentes configuraciones y otros algoritmos diseñados para cascos. El principal objetivo de este proyecto es dotar al SSR de la capacidad de renderizar sonidos binaurales en 3D. Este proyecto está centrado en el binaural renderer del SSR. Este algoritmo se basa en el uso de HRTFs (Head Related Transfer Function). Las HRTFs representan la función de transferencia del sistema formado por la cabeza y el torso del oyente. Esta función es medida desde diferentes ángulos. Con estos datos el binaural renderer puede generar audio en tiempo real simulando la posición de diferentes fuentes. Para poder incluir una base de datos con HRTFs en 3D se ha hecho uso del nuevo formato SOFA (Spatially Oriented Format for Acoustics). Este nuevo formato se encuentra en una fase bastante temprana de su desarrollo. Está pensado para servir como formato estándar para almacenar HRTFs y cualquier otro tipo de medidas acústicas, ya que actualmente cada laboratorio cuenta con su propio formato de almacenamiento y esto hace bastante difícil usar varias bases de datos diferentes en un mismo proyecto. El formato SOFA hace uso del contenedor numérico netCDF, que a su vez esta basado en un contenedor más básico llamado HRTF-5. Para poder incluir el formato SOFA en el binaural renderer del SSR se ha desarrollado una API en C++ para poder crear y leer archivos SOFA con el fin de utilizar los datos contenidos en ellos dentro del SSR.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En la actualidad, las técnicas de crioconservación poseen una importancia creciente para el almacenamiento a largo plazo de germoplasma vegetal. En las dos últimas décadas, estos métodos experimentaron un gran desarrollo y se han elaborado protocolos adecuados a diferentes sistemas vegetales, utilizando diversas estrategias como la vitrificación, la encapsulación-desecación con cuentas de alginato y el método de “droplet”-vitrificación. La presente tesis doctoral tiene como objetivo aumentar el conocimiento sobre los procesos implicados en los distintos pasos de un protocolo de crioconservación, en relación con el estado del agua presente en los tejidos y sus cambios, abordado mediante diversas técnicas biofísicas, principalmente calorimetría diferencial de barrido (DSC) y microscopía electrónica de barrido a baja temperatura (crio-SEM). En un primer estudio sobre estos métodos de crioconservación, se describen las fases de enfriamiento hasta la temperatura del nitrógeno líquido y de calentamiento hasta temperatura ambiente, al final del periodo de almacenamiento, que son críticas para la supervivencia del material crioconservado. Tanto enfriamiento como calentamiento deben ser realizados lo más rápidamente posible pues, aunque los bajos contenidos en agua logrados en etapas previas de los protocolos reducen significativamente las probabilidades de formación de hielo, éstas no son del todo nulas. En ese contexto, se analiza también la influencia de las velocidades de enfriamiento y calentamiento de las soluciones de crioconservación de plantas en sus parámetros termofísicos referente a la vitrificación, en relación su composición y concentración de compuestos. Estas soluciones son empleadas en la mayor parte de los protocolos actualmente utilizados para la crioconservación de material vegetal. Además, se estudia la influencia de otros factores que pueden determinar la estabilidad del material vitrificado, tales como en envejecimiento del vidrio. Se ha llevado a cabo una investigación experimental en el empleo del crio-SEM como una herramienta para visualizar el estado vítreo de las células y tejidos sometidos a los procesos de crioconservación. Se ha comparado con la más conocida técnica de calorimetría diferencial de barrido, obteniéndose resultados muy concordantes y complementarios. Se exploró también por estas técnicas el efecto sobre tejidos vegetales de la adaptación a bajas temperaturas y de la deshidratación inducida por los diferentes tratamientos utilizados en los protocolos. Este estudio permite observar la evolución biofísica de los sistemas en el proceso de crioconservación. Por último, se estudió la aplicación de películas de quitosano en las cuentas de alginato utilizadas en el protocolo de encapsulación. No se observaron cambios significativos en su comportamiento frente a la deshidratación, en sus parámetros calorimétricos y en la superficie de las cuentas. Su aplicación puede conferir propiedades adicionales prometedoras. ABSTRACT Currently, cryopreservation techniques have a growing importance for long term plant germplasm storage. These methods have undergone great progress during the last two decades, and adequate protocols for different plant systems have been developed, making use of diverse strategies, such as vitrification, encapsulation-dehydration with alginate beads and the dropletvitrification method. This PhD thesis has the goal of increasing the knowledge on the processes underlying the different steps of cryopreservation protocols, in relation with the state of water on tissues and its changes, approached through diverse biophysical techniques, especially differential scanning calorimetry (DSC) and low-temperature scanning electron microscopy (cryo-SEM). The processes of cooling to liquid nitrogen temperature and warming to room temperature, at the end of the storage period, critical for the survival of the cryopreserved material, are described in a first study on these cryopreservation methods. Both cooling and warming must be carried out as quickly as possible because, although the low water content achieved during previous protocol steps significantly reduces ice formation probability, it does not completely disappear. Within this context, the influence of plant vitrification solutions cooling and warming rate on their vitrification related thermophysical parameters is also analyzed, in relation to its composition and component concentration. These solutions are used in most of the currently employed plant material cryopreservation protocols. Additionally, the influence of other factors determining the stability of vitrified material is studied, such as glass aging. An experimental research work has been carried out on the use of cryo-SEM as a tool for visualizing the glassy state in cells and tissues, submitted to cryopreservation processes. It has been compared with the better known differential scanning calorimetry technique, and results in good agreement and complementary have been obtained. The effect on plant tissues of adaptation to low temperature and of the dehydration induced by the different treatments used in the protocols was explored also by these techniques. This study allows observation of the system biophysical evolution in the cryopreservation process. Lastly, the potential use of an additional chitosan film over the alginate beads used in encapsulation protocols was examined. No significant changes could be observed in its dehydration and calorimetric behavior, as well as in its surface aspect; its application for conferring additional properties to gel beads is promising.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Con la finalidad de ayudar a la creación y desarrollo de modelos de predicción y simulación que permitan al ciudadano/administraciones publicas gestionar el consumo energético de forma más eficiente y respetuosa con el medio ambiente, se ha implementado un sistema de gestión de datos de indicadores energéticos. En 2007 la UE creó una directiva conocida como "20/20/20" en la que la Unión Europea se compromete a ahorrar un 20% del consumo anual de energía primaria desde esa fecha a 2020. En 2009 la Comisión Europea ha llegado a la conclusión de que con las medidas propuestas en dicha directiva no se podría alcanzar el objetivo de reducción del 20% del consumo energético previsto para el 2020, quedándose en menos de la mitad. Para dar un nuevo impulso a la eficiencia energética se redacta una propuesta de directiva: 2011/0172(COD). En esta directiva se obliga a los estados miembros a potenciar y ampliar la información estadística agregada sobre sus clientes finales (los perfiles de carga, la segmentación de los clientes, su ubicación geográfica, etc ). La Unión Europea plantea que incrementar el volumen y la accesibilidad de los datos de consumo energético, ayudará de forma significativa a alcanzar los objetivos. En este marco, parece lógico afirmar que un banco de datos de indicadores energéticos universalmente accesible puede contribuir de un modo efectivo al aumento de la eficiencia energética. Como aplicativo de este PFC se ha desarrollado una aplicación que permite la definición y almacenamiento de indicadores energéticos, en la que los diferentes sistemas, propietarios o abiertos, pueden volcar y extraer datos de una forma poco costosa. Se ha pretendido realizar una aplicación lo más abierta posible, tanto desde el punto de vista de la funcionalidad, permitiendo la definición del propio indicador a través del sistema, como desde el punto de vista de la implementación, usando únicamente código abierto para el desarrollo de la misma. ABSTRACT. In order to assist in the creation and development of forecasting and simulation models that enable citizens / public authorities manage energy consumption more efficient and environmentally friendly, we have implemented a data management system of energy indicators. In 2007 the EU created a policy known as " 20/20/20 " in which the European Union is committed to saving 20 % of the annual primary energy consumption from that date to 2020 . In 2009 the European Commission has concluded that the measures proposed in the directive could not achieve the goal of 20% reduction in energy consumption expected for 2020 , staying in less than half. To give new impetus to energy efficiency is drawn up a draft directive : 2011/0172 ( COD ) . This directive obliges member states to strengthen and expand aggregate statistical information on their final customers ( load profiles , customer segmentation , geographic location, etc. ) . The European Union argues that increasing the volume and accessibility ofenergy data , will significantly help to achieve the objectives . In this context , it seems logical to say that a database of universally accessible energy indicators can contribute in an effective way to increase energy efficiency. As of this PFC application has developed an application that allows the definition and storage of energy indicators , in which different systems, proprietary or open, can tip and extract data from an inexpensive way. We have tried to make an application as open as possible , both from the point of view of functionality , allowing the definition of the indicator itself through the system , and from the point of view of implementation, using only open source development thereof.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente Monografía, integrada en las publicaciones de la Red Temática FRUTURA, de CYTED, recoge las aportaciones de sus miembros en su tercera reunión científico-técnica, dando continuidad a las celebradas en Madrid y Sao Paulo en 2009. Se denominó “Situación actual, retos y soluciones en logística y transporte refrigerado internacional de frutas y hortalizas” y se celebró en la Universidad Politécnica de Cartagena, España, en junio de 2010. El evento se desarrolló durante tres jornadas, incluyendo el III Seminario Internacional de Transporte Frigorífico Marítimo, el I Seminario Internacional de Transporte Frigorífico Terrestre y Aéreo y el Foro Empresarial: Desafíos y Oportunidades del Intercambio Comercial Hortofrutícola España-Iberoamérica. La temática se enmarcó dentro del principal objetivo de la Red, el desarrollo de un sistema integral de mejora de la calidad y seguridad de las frutas durante la manipulación, el transporte y la comercialización, mediante nuevas tecnologías de inspección y monitorización. Las frutas y hortalizas frescas se producen frecuentemente en lugares alejados de los centros de consumo. Grandes volúmenes de productos, con frecuencia muy perecederos, se transportan diariamente a pequeñas o grandes distancias, tanto dentro de los propios países productores, como entre las naciones y Continentes. Paralelamente, los consumidores exigen de ellos una calidad cada día más elevada, no solo organoléptica, sino también nutricional, con especial garantía de la seguridad y el respeto del medio ambiente. Esto implica una alta exigencia al planificar el transporte y las operaciones omplementarias, para optimizar la calidad global y minimizar las pérdidas. Los aspectos asociados al transporte hortofrutícola en fresco, tanto en España como en Iberoamérica se abordaron a través de conferencias relacionadas con la situación en cada país participante. Así, se trataron los principales problemas y desafíos del transporte terrestre en Argentina y Uruguay, y de la exportación marítima desde Brasil, desde España (incluyendo tratamientos cuarentenarios) y desde Chile (con la modelización del envasado en atmósfera modificada a escala de pallet, los atributos de calidad en el transporte terrestre y aéreo y el seguimiento de la calidad de la fruta cortada mediante imágenes hiperespectrales). La calidad de las contribuciones recogidas en esta monografía, son un buen indicador del alto nivel científico de los miembros de la Red, cuyas aportaciones se vieron enriquecidas con el debate entre ponentes y participantes. Ello facilitó el intercambio de experiencias, la discusión de las temáticas en los diferentes ámbitos, la ampliación de conocimientos y la posibilidad de colaborar para llevar adelante nuevos avances tecnológicos. Asimismo, permitió identificar las limitaciones, problemas y desafíos que presenta el sector. Son aún muchos los condicionantes que surgen durante el transporte de productos perecederos, en especial de frutas y hortalizas, que requieren una solución técnica y económica. Durante las jornadas se realizaron diversas vistitas técnicas al Puerto de Cartagena, en sus áreas de logística, terminales y sistemas operativos de carga y descarga, contenedores isotermos y frigoríficos y cámaras frigoríficas de almacenamiento, organizadas por la Agencia Marítima Erhardt, S.A., Consignataria de buques de Cartagena (Murcia); la sede de la Autoridad Portuaria de Cartagena, donde se analizaron el desarrollo y previsiones de crecimiento de sus instalaciones portuarias en el futuro inmediato; la plataforma logística de exportación del Grupo Caliche S.A., ubicada en San Javier (Murcia) y la central hortofrutícola exportadora de cítricos y hortalizas de SAT San Cayetano, también en San Javier (Murcia). El interés por la temática de esta reunión quedó demostrado por la elevada participación durante las jornadas de empresarios, técnicos, investigadores y profesionales iberoamericanos. Pensamos que el fin último, que fue conocer en más profundidad la realidad presente del transporte terrestre, marítimo y aéreo en Iberoamérica mediante el acercamiento entre Universidades y Centros de Investigación y las Empresas del sector (exportadoras, importadoras y transportistas), se alcanzó plenamente. Deseamos agradecer al Instituto Nacional de Investigación y Tecnología Agraria y Alimentaria (AC2010-00017-00-00), a la Comunidad Autónoma de la Región de Murcia, a la Fundación Séneca de la Región de Murcia (14506/OC/10) y al Ayuntamiento de Cartagena su valiosa colaboración para la realización de este evento. Igualmente destacamos la ayuda desinteresada de los miembros del Grupo de Postrecolección y Refrigeración y del Instituto de Biotecnología Vegetal de la UPCT, quienes contribuyeron enormemente al éxito de la reunión.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

¿Qué es la telemática? A esta buena pregunta deberíamos ir contestando entre todos y poco á poco. Como contribución personal no se me ocurre cosa mejor que decir que "la telemática es la telecomunicación en la era de los sistemas" (véase mi artículo en BIT,nov. 1978, donde argumento sobre los pilares conceptuales y técnicos básicos de las nuevas telecomunicaciones). Según esta interpretación, la telemática sería el vocablo nuevo que brotó espontáneamente para codificar el salto cualitativo a unas telecomunicaciones tan variadas y tan complejas, que difícilmente podrán concebirse ni operar sin el concurso de las más avanzadas técnicas informáticas. Y que superarán masivamente la faceta "comunicaciones" por incorporación a gran escala de las funciones de almacenamiento, de selección y de transformación de las señales. Que integrarán en sus sistemas las técnicas analógicas y digitales. Que se encarnarán en las más poderosas tecnologías físicas de nuestro tiempo

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The worldwide "hyper-connection" of any object around us is the challenge that promises to cover the paradigm of the Internet of Things. If the Internet has colonized the daily life of more than 2000 million1 people around the globe, the Internet of Things faces of connecting more than 100000 million2 "things" by 2020. The underlying Internet of Things’ technologies are the cornerstone that promises to solve interrelated global problems such as exponential population growth, energy management in cities, and environmental sustainability in the average and long term. On the one hand, this Project has the goal of knowledge acquisition about prototyping technologies available in the market for the Internet of Things. On the other hand, the Project focuses on the development of a system for devices management within a Wireless Sensor and Actuator Network to offer some services accessible from the Internet. To accomplish the objectives, the Project will begin with a detailed analysis of various “open source” hardware platforms to encourage creative development of applications, and automatically extract information from the environment around them for transmission to external systems. In addition, web platforms that enable mass storage with the philosophy of the Internet of Things will be studied. The project will culminate in the proposal and specification of a service-oriented software architecture for embedded systems that allows communication between devices on the network, and the data transmission to external systems. Furthermore, it abstracts the complexities of hardware to application developers. RESUMEN. La “hiper-conexión” a nivel mundial de cualquier objeto que nos rodea es el desafío al que promete dar cobertura el paradigma de la Internet de las Cosas. Si la Internet ha colonizado el día a día de más de 2000 millones1 de personas en todo el planeta, la Internet de las Cosas plantea el reto de conectar a más de 100000 millones2 de “cosas” para el año 2020. Las tecnologías subyacentes de la Internet de las Cosas son la piedra angular que prometen dar solución a problemas globales interrelacionados como el crecimiento exponencial de la población, la gestión de la energía en las ciudades o la sostenibilidad del medioambiente a largo plazo. Este Proyecto Fin de Carrera tiene como principales objetivos por un lado, la adquisición de conocimientos acerca de las tecnologías para prototipos disponibles en el mercado para la Internet de las Cosas, y por otro lado el desarrollo de un sistema para la gestión de dispositivos de una red inalámbrica de sensores que ofrezcan unos servicios accesibles desde la Internet. Con el fin de abordar los objetivos marcados, el proyecto comenzará con un análisis detallado de varias plataformas hardware de tipo “open source” que estimulen el desarrollo creativo de aplicaciones y que permitan extraer de forma automática información del medio que les rodea para transmitirlo a sistemas externos para su posterior procesamiento. Por otro lado, se estudiarán plataformas web identificadas con la filosofía de la Internet de las Cosas que permitan el almacenamiento masivo de datos que diferentes plataformas hardware transfieren a través de la Internet. El Proyecto culminará con la propuesta y la especificación una arquitectura software orientada a servicios para sistemas empotrados que permita la comunicación entre los dispositivos de la red y la transmisión de datos a sistemas externos, así como facilitar el desarrollo de aplicaciones a los programadores mediante la abstracción de la complejidad del hardware.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo del presente trabajo es el desarrollo de una infraestructura de enrutamiento distribuida para un sistema publish/subscribe (en adelante pub/sub) que se incluirá en WireCloud, una plataforma para la composición de aplicaciones. Actualmente existen numerosas implementaciones de protocolos pub/sub en el mercado [3-6], y en este trabajo se hará un recorrido por aquellas con mayor relevancia, explicando sus características, ventajas y desventajas. De esta forma se podrán seleccionar aquellas cuyas prestaciones se adapten de la mejor forma posible a las necesidades de la plataforma. De entre todas las implementaciones existentes, algunas han sido simuladas para comprender mejor su funcionamiento. Esto permitió analizar las diferentes estrategias de enrutamiento de mensajes y qué estructuras de datos son las más óptimas para que el procesamiento de mensajes entrantes sea lo más rápido posible. Una vez que se determinó cuales son las estrategias y las estructuras de almacenamiento que mejor se adaptan a nuestro sistema, se ha procedido a la implementación real del sistema pub/sub en Java. Para cada uno de los módulos desarrollados se ha generado una serie de pruebas que permitirán comprobar el correcto funcionamiento de los componentes cuando se produzcan cambios o ampliaciones. Además, este trabajo también incluye el análisis e implementación de un nuevo protocolo de comunicación entre los diferentes componentes debido a que el existente era lento y pesado al consumir gran cantidad de recursos. El protocolo de comunicación analizado está basado en RMI (Remote Method Invocation), y aunque no mejoró la eficiencia con que los mensajes eran enviados si que permitió reducir en gran medida el consumo de recursos (CPU y memoria RAM). ------------------------------------------------------------ The goal of the current project is the development of a distributed pub/sub system to include it on WireCloud which is a platform to build compositional applications. Several implementations of pub/sub systems [3-6] have been developed until now and this project explains some of them, their characteristic, advantages and disadvantages. Thus, the implementations which better adapt to the project needs have been selected. Some of these implementations have been simulated to get a better knowledge of their behavior. The aim of these simulations was to select the best strategies to route messages and the optimal structures to reduce the computation time of a received message. After defining the better strategies and structures, the real pub/sub system have been finally developed in Java. For each developed module, a set of tests have been built to check its correct behavior in case of changes or extensions. Besides, the project also includes the analysis and the implementation of a new communication protocol among the different components because the existing one was slow and consumed a lot of computer resources. The new communication protocol is based in RMI (Remote Method Invocation) and has improved the consumption of resources. However, the efficiency of this new protocol was worse than the one of the existing protocol.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Universidad Politécnica de Madrid (UPM) y la Università degli Studi di Firenze (UniFi), bajo la coordinación técnica de AMPHOS21, participan desde 2009 en el proyecto de investigación “Estrategias de Monitorización de CO2 y otros gases en el estudio de Análogos Naturales”, financiado por la Fundación Ciudad de la Energía (CIUDEN) en el marco del Proyecto Compostilla OXYCFB300 (http://www.compostillaproject.eu), del Programa “European Energy Program for Recovery - EEPR”. El objetivo principal del proyecto fue el desarrollo y puesta a punto de metodologías de monitorización superficiales para su aplicación en el seguimiento y control de los emplazamientos donde se realice el almacenamiento geológico de CO2, analizando técnicas que permitan detectar y cuantificar las posibles fugas de CO2 a la atmósfera. Los trabajos se realizaron tanto en análogos naturales (españoles e italianos) como en la Planta de Desarrollo Tecnológico de Almacenamiento de CO2 de Hontomín. Las técnicas analizadas se centran en la medición de gases y aguas superficiales (de escorrentía y manantiales). En cuanto a la medición de gases se analizó el flujo de CO2 que emana desde el suelo a la atmósfera y la aplicabilidad de trazadores naturales (como el radón) para la detección e identificación de las fugas de CO2. En cuanto al análisis químico de las aguas se analizaron los datos geoquímicos e isotópicos y los gases disueltos en las aguas de los alrededores de la PDT de Hontomín, con objeto de determinar qué parámetros son los más apropiados para la detección de una posible migración del CO2 inyectado, o de la salmuera, a los ambientes superficiales. Las medidas de flujo de CO2 se realizaron con la técnica de la cámara de acúmulo. A pesar de ser una técnica desarrollada y aplicada en diferentes ámbitos científicos se estimó necesario adaptar un protocolo de medida y de análisis de datos a las características específicas de los proyectos de captura y almacenamiento de CO2 (CAC). Donde los flujos de CO2 esperados son bajos y en caso de producirse una fuga habrá que detectar pequeñas variaciones en los valores flujo con un “ruido” en la señal alto, debido a actividad biológica en el suelo. La medida de flujo de CO2 mediante la técnica de la cámara de acúmulo se puede realizar sin limpiar la superficie donde se coloca la cámara o limpiando y esperando al reequilibrio del flujo después de la distorsión al sistema. Sin embargo, los resultados obtenidos después de limpiar y esperar muestran menor dispersión, lo que nos indica que este procedimiento es el mejor para la monitorización de los complejos de almacenamiento geológico de CO2. El protocolo de medida resultante, utilizado para la obtención de la línea base de flujo de CO2 en Hontomín, sigue los siguiente pasos: a) con una espátula se prepara el punto de medición limpiando y retirando el recubrimiento vegetal o la primera capa compacta de suelo, b) se espera un tiempo para la realización de la medida de flujo, facilitando el reequilibrio del flujo del gas tras la alteración provocada en el suelo y c) se realiza la medida de flujo de CO2. Una vez realizada la medición de flujo de CO2, y detectada si existen zonas de anomalías, se debe estimar la cantidad de CO2 que se está escapando a la atmósfera (emanación total), con el objetivo de cuantificar la posible fuga. Existen un amplio rango de metodologías para realizar dicha estimación, siendo necesario entender cuáles son las más apropiadas para obtener el valor más representativo del sistema. En esta tesis se comparan seis técnicas estadísticas: media aritmética, estimador insegado de la media (aplicando la función de Sichel), remuestreo con reemplazamiento (bootstrap), separación en diferentes poblaciones mediante métodos gráficos y métodos basados en criterios de máxima verosimilitud, y la simulación Gaussiana secuencial. Para este análisis se realizaron ocho campañas de muestreo, tanto en la Planta de Desarrollo Tecnológico de Hontomón como en análogos naturales (italianos y españoles). Los resultados muestran que la simulación Gaussiana secuencial suele ser el método más preciso para realizar el cálculo, sin embargo, existen ocasiones donde otros métodos son más apropiados. Como consecuencia, se desarrolla un procedimiento de actuación para seleccionar el método que proporcione el mejor estimador. Este procedimiento consiste, en primer lugar, en realizar un análisis variográfico. Si existe una autocorrelación entre los datos, modelizada mediante el variograma, la mejor técnica para calcular la emanación total y su intervalo de confianza es la simulación Gaussiana secuencial (sGs). Si los datos son independientes se debe comprobar la distribución muestral, aplicando la media aritmética o el estimador insesgado de la media (Sichel) para datos normales o lognormales respectivamente. Cuando los datos no son normales o corresponden a una mezcla de poblaciones la mejor técnica de estimación es la de remuestreo con reemplazamiento (bootstrap). Siguiendo este procedimiento el máximo valor del intervalo de confianza estuvo en el orden del ±20/25%, con la mayoría de valores comprendidos entre ±3,5% y ±8%. La identificación de las diferentes poblaciones muestrales en los datos de flujo de CO2 puede ayudar a interpretar los resultados obtenidos, toda vez que esta distribución se ve afectada por la presencia de varios procesos geoquímicos como, por ejemplo, una fuente geológica o biológica del CO2. Así pues, este análisis puede ser una herramienta útil en el programa de monitorización, donde el principal objetivo es demostrar que no hay fugas desde el reservorio a la atmósfera y, si ocurren, detectarlas y cuantificarlas. Los resultados obtenidos muestran que el mejor proceso para realizar la separación de poblaciones está basado en criterios de máxima verosimilitud. Los procedimientos gráficos, aunque existen pautas para realizarlos, tienen un cierto grado de subjetividad en la interpretación de manera que los resultados son menos reproducibles. Durante el desarrollo de la tesis se analizó, en análogos naturales, la relación existente entre el CO2 y los isótopos del radón (222Rn y 220Rn), detectándose en todas las zonas de emisión de CO2 una relación positiva entre los valores de concentración de 222Rn en aire del suelo y el flujo de CO2. Comparando la concentración de 220Rn con el flujo de CO2 la relación no es tan clara, mientras que en algunos casos aumenta en otros se detecta una disminución, hecho que parece estar relacionado con la profundidad de origen del radón. Estos resultados confirmarían la posible aplicación de los isótopos del radón como trazadores del origen de los gases y su aplicación en la detección de fugas. Con respecto a la determinación de la línea base de flujo CO2 en la PDT de Hontomín, se realizaron mediciones con la cámara de acúmulo en las proximidades de los sondeos petrolíferos, perforados en los ochenta y denominados H-1, H-2, H-3 y H-4, en la zona donde se instalarán el sondeo de inyección (H-I) y el de monitorización (H-A) y en las proximidades de la falla sur. Desde noviembre de 2009 a abril de 2011 se realizaron siete campañas de muestreo, adquiriéndose más de 4.000 registros de flujo de CO2 con los que se determinó la línea base y su variación estacional. Los valores obtenidos fueron bajos (valores medios entre 5 y 13 g•m-2•d-1), detectándose pocos valores anómalos, principalmente en las proximidades del sondeo H-2. Sin embargo, estos valores no se pudieron asociar a una fuente profunda del CO2 y seguramente estuvieran más relacionados con procesos biológicos, como la respiración del suelo. No se detectaron valores anómalos cerca del sistema de fracturación (falla Ubierna), toda vez que en esta zona los valores de flujo son tan bajos como en el resto de puntos de muestreo. En este sentido, los valores de flujo de CO2 aparentemente están controlados por la actividad biológica, corroborado al obtenerse los menores valores durante los meses de otoño-invierno e ir aumentando en los periodos cálidos. Se calcularon dos grupos de valores de referencia, el primer grupo (UCL50) es 5 g•m-2•d-1 en las zonas no aradas en los meses de otoño-invierno y 3,5 y 12 g•m-2•d-1 en primavera-verano para zonas aradas y no aradas, respectivamente. El segundo grupo (UCL99) corresponde a 26 g•m-2•d- 1 durante los meses de otoño-invierno en las zonas no aradas y 34 y 42 g•m-2•d-1 para los meses de primavera-verano en zonas aradas y no aradas, respectivamente. Flujos mayores a estos valores de referencia podrían ser indicativos de una posible fuga durante la inyección y posterior a la misma. Los primeros datos geoquímicos e isotópicos de las aguas superficiales (de escorrentía y de manantiales) en el área de Hontomín–Huermeces fueron analizados. Los datos sugieren que las aguas estudiadas están relacionadas con aguas meteóricas con un circuito hidrogeológico superficial, caracterizadas por valores de TDS relativamente bajos (menor a 800 mg/L) y una fácie hidrogeoquímica de Ca2+(Mg2+)-HCO3 −. Algunas aguas de manantiales se caracterizan por concentraciones elevadas de NO3 − (concentraciones de hasta 123 mg/l), lo que sugiere una contaminación antropogénica. Se obtuvieron concentraciones anómalas de of Cl−, SO4 2−, As, B y Ba en dos manantiales cercanos a los sondeos petrolíferos y en el rio Ubierna, estos componentes son probablemente indicadores de una posible mezcla entre los acuíferos profundos y superficiales. El estudio de los gases disueltos en las aguas también evidencia el circuito superficial de las aguas. Estando, por lo general, dominado por la componente atmosférica (N2, O2 y Ar). Sin embargo, en algunos casos el gas predominante fue el CO2 (con concentraciones que llegan al 63% v/v), aunque los valores isotópicos del carbono (<-17,7 ‰) muestran que lo más probable es que esté relacionado con un origen biológico. Los datos geoquímicos e isotópicos de las aguas superficiales obtenidos en la zona de Hontomín se pueden considerar como el valor de fondo con el que comparar durante la fase operacional, la clausura y posterior a la clausura. En este sentido, la composición de los elementos mayoritarios y traza, la composición isotópica del carbono del CO2 disuelto y del TDIC (Carbono inorgánico disuelto) y algunos elementos traza se pueden considerar como parámetros adecuados para detectar la migración del CO2 a los ambientes superficiales. ABSTRACT Since 2009, a group made up of Universidad Politécnica de Madrid (UPM; Spain) and Università degli Studi Firenze (UniFi; Italy) has been taking part in a joint project called “Strategies for Monitoring CO2 and other Gases in Natural analogues”. The group was coordinated by AMPHOS XXI, a private company established in Barcelona. The Project was financially supported by Fundación Ciudad de la Energía (CIUDEN; Spain) as a part of the EC-funded OXYCFB300 project (European Energy Program for Recovery -EEPR-; www.compostillaproject.eu). The main objectives of the project were aimed to develop and optimize analytical methodologies to be applied at the surface to Monitor and Verify the feasibility of geologically stored carbon dioxide. These techniques were oriented to detect and quantify possible CO2 leakages to the atmosphere. Several investigations were made in natural analogues from Spain and Italy and in the Tecnchnological Development Plant for CO2 injection al Hontomín (Burgos, Spain). The studying techniques were mainly focused on the measurements of diffuse soil gases and surface and shallow waters. The soil-gas measurements included the determination of CO2 flux and the application to natural trace gases (e.g. radon) that may help to detect any CO2 leakage. As far as the water chemistry is concerned, geochemical and isotopic data related to surface and spring waters and dissolved gases in the area of the PDT of Hontomín were analyzed to determine the most suitable parameters to trace the migration of the injected CO2 into the near-surface environments. The accumulation chamber method was used to measure the diffuse emission of CO2 at the soil-atmosphere interface. Although this technique has widely been applied in different scientific areas, it was considered of the utmost importance to adapt the optimum methodology for measuring the CO2 soil flux and estimating the total CO2 output to the specific features of the site where CO2 is to be stored shortly. During the pre-injection phase CO2 fluxes are expected to be relatively low where in the intra- and post-injection phases, if leakages are to be occurring, small variation in CO2 flux might be detected when the CO2 “noise” is overcoming the biological activity of the soil (soil respiration). CO2 flux measurements by the accumulation chamber method could be performed without vegetation clearance or after vegetation clearance. However, the results obtained after clearance show less dispersion and this suggests that this procedure appears to be more suitable for monitoring CO2 Storage sites. The measurement protocol, applied for the determination of the CO2 flux baseline at Hontomín, has included the following steps: a) cleaning and removal of both the vegetal cover and top 2 cm of soil, b) waiting to reduce flux perturbation due to the soil removal and c) measuring the CO2 flux. Once completing the CO2 flux measurements and detected whether there were anomalies zones, the total CO2 output was estimated to quantify the amount of CO2 released to the atmosphere in each of the studied areas. There is a wide range of methodologies for the estimation of the CO2 output, which were applied to understand which one was the most representative. In this study six statistical methods are presented: arithmetic mean, minimum variances unbiased estimator, bootstrap resample, partitioning of data into different populations with a graphical and a maximum likelihood procedures, and sequential Gaussian simulation. Eight campaigns were carried out in the Hontomín CO2 Storage Technology Development Plant and in natural CO2 analogues. The results show that sequential Gaussian simulation is the most accurate method to estimate the total CO2 output and the confidential interval. Nevertheless, a variety of statistic methods were also used. As a consequence, an application procedure for selecting the most realistic method was developed. The first step to estimate the total emanation rate was the variogram analysis. If the relation among the data can be explained with the variogram, the best technique to calculate the total CO2 output and its confidence interval is the sequential Gaussian simulation method (sGs). If the data are independent, their distribution is to be analyzed. For normal and log-normal distribution the proper methods are the arithmetic mean and minimum variances unbiased estimator, respectively. If the data are not normal (log-normal) or are a mixture of different populations the best approach is the bootstrap resampling. According to these steps, the maximum confidence interval was about ±20/25%, with most of values between ±3.5% and ±8%. Partitioning of CO2 flux data into different populations may help to interpret the data as their distribution can be affected by different geochemical processes, e.g. geological or biological sources of CO2. Consequently, it may be an important tool in a monitoring CCS program, where the main goal is to demonstrate that there are not leakages from the reservoir to the atmosphere and, if occurring, to be able to detect and quantify it. Results show that the partitioning of populations is better performed by maximum likelihood criteria, since graphical procedures have a degree of subjectivity in the interpretation and results may not be reproducible. The relationship between CO2 flux and radon isotopes (222Rn and 220Rn) was studied in natural analogues. In all emissions zones, a positive relation between 222Rn and CO2 was observed. However, the relationship between activity of 220Rn and CO2 flux is not clear. In some cases the 220Rn activity indeed increased with the CO2 flux in other measurements a decrease was recognized. We can speculate that this effect was possibly related to the route (deep or shallow) of the radon source. These results may confirm the possible use of the radon isotopes as tracers for the gas origin and their application in the detection of leakages. With respect to the CO2 flux baseline at the TDP of Hontomín, soil flux measurements in the vicinity of oil boreholes, drilled in the eighties and named H-1 to H-4, and injection and monitoring wells were performed using an accumulation chamber. Seven surveys were carried out from November 2009 to summer 2011. More than 4,000 measurements were used to determine the baseline flux of CO2 and its seasonal variations. The measured values were relatively low (from 5 to 13 g•m-2•day-1) and few outliers were identified, mainly located close to the H-2 oil well. Nevertheless, these values cannot be associated to a deep source of CO2, being more likely related to biological processes, i.e. soil respiration. No anomalies were recognized close to the deep fault system (Ubierna Fault) detected by geophysical investigations. There, the CO2 flux is indeed as low as other measurement stations. CO2 fluxes appear to be controlled by the biological activity since the lowest values were recorded during autumn-winter seasons and they tend to increase in warm periods. Two reference CO2 flux values (UCL50 of 5 g•m-2•d-1 for non-ploughed areas in autumn-winter seasons and 3.5 and 12 g•m-2•d-1 for in ploughed and non-ploughed areas, respectively, in spring-summer time, and UCL99 of 26 g•m-2•d-1 for autumn-winter in not-ploughed areas and 34 and 42 g•m-2•d-1 for spring-summer in ploughed and not-ploughed areas, respectively, were calculated. Fluxes higher than these reference values could be indicative of possible leakage during the operational and post-closure stages of the storage project. The first geochemical and isotopic data related to surface and spring waters and dissolved gases in the area of Hontomín–Huermeces (Burgos, Spain) are presented and discussed. The chemical and features of the spring waters suggest that they are related to a shallow hydrogeological system as the concentration of the Total Dissolved Solids approaches 800 mg/L with a Ca2+(Mg2+)-HCO3 − composition, similar to that of the surface waters. Some spring waters are characterized by relatively high concentrations of NO3 − (up to 123 mg/L), unequivocally suggesting an anthropogenic source. Anomalous concentrations of Cl−, SO4 2−, As, B and Ba were measured in two springs, discharging a few hundred meters from the oil wells, and in the Rio Ubierna. These contents are possibly indicative of mixing processes between deep and shallow aquifers. The chemistry of the dissolved gases also evidences the shallow circuits of the Hontomín– Huermeces, mainly characterized by an atmospheric source as highlighted by the contents of N2, O2, Ar and their relative ratios. Nevertheless, significant concentrations (up to 63% by vol.) of isotopically negative CO2 (<−17.7‰ V-PDB) were found in some water samples, likely related to a biogenic source. The geochemical and isotopic data of the surface and spring waters in the surroundings of Hontomín can be considered as background values when intra- and post-injection monitoring programs will be carried out. In this respect, main and minor solutes, the isotopic carbon of dissolved CO2 and TDIC (Total Dissolved Inorganic Carbon) and selected trace elements can be considered as useful parameters to trace the migration of the injected CO2 into near-surface environments.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta metodología se ha desarrollado en el marco de un proyecto que es el objeto del Convenio Específico de Colaboración entre el Instituto Geográfico Nacional y la Escuela de Topografía de la Universidad Politécnica de Madrid relativo a la investigación, desarrollo, formación y difusión de conocimientos en el campo de las tecnologías de la información geográfica (TIG) para la investigación y desarrollo de la tecnología y metodología adecuada para la optimización de la información de la Base de Datos de Líneas Límite de la Dirección General del Instituto Geográfico Nacional. El fin fundamental del mismo es desarrollar una metodología para mejorar la precisión de la Base de Datos de Líneas Límite que tiene el Instituto Geográfico Nacional. La exigencia actual de calidad y seguridad en la descripción geométrica de las líneas límite obliga a optimizar dicha descripción mediante la aplicación de nuevas tecnologías no existentes en el momento del levantamiento, y al diseño de metodologías adecuadas que, minimizando los tiempos y costes de ejecución, consideren asimismo los distintos agentes que participan en España en la definición de las líneas límite. Para desarrollar dicha metodología será necesario en primer lugar digitalizar la información de los cuadernos de campo y las actas de deslinde existentes en el Instituto Geográfico Nacional, para que sea un trabajo abordable desde las tecnologías actuales; posteriormente, volcar la información referente a las líneas límite sobre ortofotografías a escala 1:5.000, a partir de los datos de los cuadernos de campo digitalizados. Se propondrá un nuevo sistema de gestión, tratamiento y almacenamiento de las líneas límite, con información sobre su linaje (origen de datos, precisión), así como el formato de salida de las propias líneas límite. Para controlar la calidad de la metodología propuesta, se deberá validar la misma mediante un estudio teórico de lamedida de rendimientos y precisiones y su verificación mediante toma de datos en campo. Particularmente, se llevará a cabo dicha validación en un conjunto de 140 líneas límite de 36 municipios de la provincia de Ávila y Segovia (los comprendidos en las hojas 556 y 457 del Mapa Topográfico Nacional 1:50.000). Una vez contrastada la metodología y efectuados los oportunos procesos de refinamiento, se redactarán las conclusiones de todo el proyecto, que englobarán las recomendaciones de trabajo y las precisiones resultantes, los rendimientos de los diferentes procesos y los costes que se generen mediante el empleo de la nueva metodología. ABSTARCT: This paper introduces the development of a methodology for the optimisation of the municipal boundaries database of the Instituto Geográfico Nacional. This project has arisen as part of a collaboration agreement between the Instituto Geográfico Nacional and the Escuela de Topografía of the Universidad Politécnica de Madrid which seeks to promote research, development and training in Geographic Information Technologies. Current quality requirements demand the use of new technologies to improve the accuracy of the geometrical description of municipal boundaries. These technologies didn’t exist when the municipal boundaries were first drawn up. Besides, it is convenient to design an appropriate methodology that minimises both costs and time employed. The two main steps in the process are: first, the conversion of all the available data (fixing boundary minutes and field survey notebooks) into digital format in order to make possible their integration in a CAD system; and second, the display and visual overlay of these digital data over an 1:5000 orthophotography of the study area, to identify the boundary monuments. A new system will be proposed to manage, process and storage municipal boundaries information, including its lineage; an output format for these data will be designed as well. In addition, a quality control will be designed to audit this scheme using Data Analysis and Statistical Inference techniques. Moreover, GPS technology will be used to get some boundary monuments co-ordinates to check the results of the proposed methodology. The complete scheme will be tested in a study area corresponding to Ávila and Segovia provinces comprising 140 boundary segments from 36 municipalities.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Estamos viviendo la era de la Internetificación. A día de hoy, las conexiones a Internet se asumen presentes en nuestro entorno como una necesidad más. La Web, se ha convertido en un lugar de generación de contenido por los usuarios. Una información generada, que sobrepasa la idea con la que surgió esta, ya que en la mayoría de casos, su contenido no se ha diseñado más que para ser consumido por humanos, y no por máquinas. Esto supone un cambio de mentalidad en la forma en que diseñamos sistemas capaces de soportar una carga computacional y de almacenamiento que crece sin un fin aparente. Al mismo tiempo, vivimos un momento de crisis de la educación superior: los altos costes de una educación de calidad suponen una amenaza para el mundo académico. Mediante el uso de la tecnología, se puede lograr un incremento de la productividad, y una reducción en dichos costes en un campo, en el que apenas se ha avanzado desde el Renacimiento. En CloudRoom se ha diseñado una plataforma MOOC con una arquitectura ajustada a las últimas convenciones en Cloud Computing, que implica el uso de Servicios REST, bases de datos NoSQL, y que hace uso de las últimas recomendaciones del W3C en materia de desarrollo web y Linked Data. Para su construcción, se ha hecho uso de métodos ágiles de Ingeniería del Software, técnicas de Interacción Persona-Ordenador, y tecnologías de última generación como Neo4j, Redis, Node.js, AngularJS, Bootstrap, HTML5, CSS3 o Amazon Web Services. Se ha realizado un trabajo integral de Ingeniería Informática, combinando prácticamente la totalidad de aquellas áreas de conocimiento fundamentales en Informática. En definitiva se han ideado las bases de un sistema distribuido robusto, mantenible, con características sociales y semánticas, que puede ser ejecutado en múltiples dispositivos, y que es capaz de responder ante millones de usuarios. We are living through an age of Internetification. Nowadays, Internet connections are a utility whose presence one can simply assume. The web has become a place of generation of content by users. The information generated surpasses the notion with which the World Wide Web emerged because, in most cases, this content has been designed to be consumed by humans and not by machines. This fact implies a change of mindset in the way that we design systems; these systems should be able to support a computational and storage capacity that apparently grows endlessly. At the same time, our education system is in a state of crisis: the high costs of high-quality education threaten the academic world. With the use of technology, we could achieve an increase of productivity and quality, and a reduction of these costs in this field, which has remained largely unchanged since the Renaissance. In CloudRoom, a MOOC platform has been designed with an architecture that satisfies the last conventions on Cloud Computing; which involves the use of REST services, NoSQL databases, and uses the last recommendations from W3C in terms of web development and Linked Data. For its building process, agile methods of Software Engineering, Human-Computer Interaction techniques, and state of the art technologies such as Neo4j, Redis, Node.js, AngularJS, Bootstrap, HTML5, CSS3 or Amazon Web Services have been used. Furthermore, a comprehensive Informatics Engineering work has been performed, by combining virtually all of the areas of knowledge in Computer Science. Summarizing, the pillars of a robust, maintainable, and distributed system have been devised; a system with social and semantic capabilities, which runs in multiple devices, and scales to millions of users.