999 resultados para molusco terrestre
Resumo:
En esta Tesis se plantea una nueva forma de entender la evacuación apoyándonos en tecnologías existentes y accesibles que nos permitirán ver este proceso como un ente dinámico. Se trata de una metodología que implica no solo el uso de herramientas de análisis que permitan la definición de planes de evacuación en tiempo real, sino que también se apunta hacia la creación de una infraestructura física que permita alimentar con información actualizada al sistema de forma que, según la situación y la evolución de la emergencia, sea posible realizar planes alternativos que se adapten a las nuevas circunstancias. En base a esto, el sistema asimilará toda esa información y aportará soluciones que faciliten la toma de decisiones durante toda la evolución del incidente. Las aportaciones originales de esta Tesis son múltiples y muy variadas, pudiéndolas resumir en los siguientes puntos: 1. Estudio completo del estado del arte: a. Detección y análisis de diferentes proyectos a nivel internacional que de forma parcial tratan algunos aspectos desarrollados en la Tesis. b. Completo estudio a nivel mundial del software desarrollado total o parcialmente para la simulación del comportamiento humano y análisis de procesos de evacuación. Se ha generado una base de datos que cataloga de forma exhaustiva estas aplicaciones, permitiendo realizar un completo análisis y posibilitando la evolución futura de los contenidos de la misma. En la tesis se han analizado casi un centenar de desarrollos, pero el objetivo es seguir completando esta base de datos debido a la gran utilidad y a las importantes posibilidades que ofrece. 2. Desarrollo de un importante capítulo que trata sobre la posibilidad de utilizar entornos virtuales como alternativa intermedia al uso de simuladores y simulacros. En esta sección se divide en dos bloques: a. Ensayos en entornos reales y virtuales. b. Ensayos en entornos virtuales (pruebas realizadas con varios entornos virtuales). 3. Desarrollo de e-Flow net design: paquete de herramientas desarrolladas sobre Rhinoceros para el diseño de la red de evacuación basada en los elementos definidos en la tesis: Nodes, paths, Relations y Areas. 4. Desarrollo de e-Flow Simulator: Conjunto de herramientas que transforman Rhinoceros en un simulador 3D de comportamiento humano. Este simulador, de desarrollo propio, incorpora un novedoso algoritmo de comportamiento a nivel de individuo que incluye aspectos que no se han encontrado en otros simuladores. Esta herramienta permite realizar simulaciones programadas de grupos de individuos cuyo comportamiento se basa en el análisis del entorno y en la presencia de referencias dinámicas. Incluye otras importantes novedades como por ejemplo: herramientas para análisis de la señalización, elementos de señalización dinámica, incorporación sencilla de obstáculos, etc. También se ha creado una herramienta que posibilita la implementación del movimiento del propio escenario simulando la oscilación del mismo, con objeto de reflejar la influencia del movimiento del buque en el desplazamiento de los individuos. 5. En una fase avanzada del desarrollo, se incorporó la posibilidad de generar un vídeo de toda la simulación, momento a partir del cual, se han documentado todas las pruebas (y se continúan documentando) en una base de datos que recoge todas las características de las simulaciones, los problemas detectados, etc. Estas pruebas constituyen, en el momento en que se ha cerrado la redacción de la Tesis, un total de 81 GB de datos. Generación y análisis de rutas en base a la red de evacuación creada con e-Flow Net design y las simulaciones realizadas con e-Flow Net simulator. a. Análisis para la optimización de la configuración de la red en base a los nodos por área existentes. b. Definición de procesos previos al cálculo de rutas posibles. c. Cálculo de rutas: i. Análisis de los diferentes algoritmos que existen en la actualidad para la optimización de rutas. ii. Desarrollo de una nueva familia de algoritmos que he denominado “Minimum Decision Algorithm (MDA)”, siendo los algoritmos que componen esta familia: 1. MDA básico. 2. MDA mínimo. 3. MDA de no interferencia espacial. 4. MDA de expansión. 5. MDA de expansión ordenada para un único origen. 6. MDA de expansión ordenada. iii. Todos estos algoritmos se han implementado en la aplicación e-Flow creada en la Tesis para el análisis de rutas y que constituye el núcleo del Sistema de Ayuda al Capitán. d. Determinación de las alternativas para el plan de evacuación. Tras la definición de las rutas posibles, se describen diferentes procesos existentes de análisis por ponderación en base a criterios, para pasar finalmente a definir el método de desarrollo propio propuesto en esta Tesis y cuyo objetivo es responder en base a la población de rutas posibles obtenidas mediante los algoritmos MDA, qué combinación de rutas constituyen el Plan o Planes más adecuados para cada situación. La metodología creada para la selección de combinaciones de rutas que determinan un Plan completo, se basa en cuatro criterios básicos que tras su aplicación ofrecen las mejores alternativas. En esta fase también se incluye un complejo análisis de evolución temporal que incorpora novedosas definiciones y formulaciones. e. Derivado de la definición de la metodología creada en esta Tesis para la realización de los análisis de evolución temporal, se ha podido definir un nuevo teorema matemático que se ha bautizado como “Familia de cuadriláteros de área constante”. 7. Especificación de la infraestructura física del Sistema de Ayuda al Capitán: parte fundamental de sistema es la infraestructura física sobre la que se sustentaría. Esta infraestructura estaría compuesta por sensores, actuadores, aplicaciones para dispositivos móviles, etc. En este capítulo se analizan los diferentes elementos que la constituirían y las tecnologías implicadas. 8. Especificación de la infraestructura de servicios. 9. Creación del Blog Virtual Environments (http://epcinnova-virtualenvironments.blogspot.com.es/) en el que se han publicado todas las pruebas realizadas en el capítulo que analiza los entornos virtuales como alternativa a los simuladores y a los ensayos en laboratorio o los simulacros, incluyendo en muchos casos la posibilidad de que el visitante del blog pueda realizar la simulación en el entorno virtual. Este blog también incluye otras secciones que se han trabajado durante la Tesis: • Recopilación de diferentes entornos virtuales existentes. • Diagrama que recopila información sobre accidentes tanto en el ámbito marítimo como en el terrestre (en desarrollo). • Esquema propuesto para el acopio de información obtenida a partir de un simulacro. 10. Esta Tesis es la base para el proyecto e-Flow (nombre de una de las aplicaciones que desarrolladas en esta obra), un proyecto en el que el autor de esta Tesis ha trabajado como Project Manager. En el proyecto participa un consorcio de empresas y la UPM, y tiene como objetivo trasladar a la realidad gran parte de los planteamientos e ideas presentadas en esta Tesis. Este proyecto incluye el desarrollo de la infraestructura física y de servicios que permitirán, entre otras cosas, implementar en infraestructuras complejas una plataforma que posibilita la evacuación dinámica y un control ubicuo de los sistemas de monitorización y actuación implementados. En estos momentos se está finalizando el proyecto, cuyo objetivo final es la implementación de un piloto en un Hospital. También destacamos los siguientes avances a nivel de difusión científico-tecnológico: • Ponencia en el “52 congreso de la Ingeniería Naval en España” presentando un artículo “e-Flow- Sistema integral inteligente de soporte a la evacuación”. En este artículo se trata tanto el proyecto e-Flow del que soy Project Manager, como esta Tesis Doctoral, al ser temas estrechamente vinculados. En 2014 se publicó en dos números de la Revista Ingeniería Naval el artículo presentado a estas jornadas. • Co-autor en el artículo “E-Flow: A communication system for user notification in dynamic evacuation scenarios” presentado en el 7th International Conference on Ubicuous Computing & Ambient Intelligence (UCAMI) celebrado en Costa Rica. Por último, una de las aportaciones más interesantes, es la definición de un gran número de líneas de investigación futuras en base a todos los avances realizados en esta Tesis. ABSTRACT With this Thesis a new approach for understanding evacuation process is considered, taking advantage of the existing and open technologies that will allow this process to be interpreted as a dynamic entity. The methodology involves not only tools that allows on.-time evacuation plans, but also creates a physical insfrastructure that makes possible to feed the system with information on real time so, considering in each moment the real situation as well as the specific emergency development it will be feasible to generate alternative plans that responds to the current emergency situation. In this respect, the system will store all this information and will feedback with solutions that will help the decision making along the evacuation process. The innovative and singular contributions of this Thesis are numerous and rich, summarised as follows: 1.- Complete state-of-art study: a. Detection and analysis of different projects on an international level that, although partially, deal with some aspects developed in this Thesis. b. Thorough study at a international level of the developed software - total or partially done - for the simulation of the human behaviour and evacuation processes analysis. A database has been generated that classifies in detail these applications allowing to perform a full analysis and leading to future evolution of its contents. Within the Thesis work, almost a hundred of developments have been analysed but the purpose is to keep up updating this database due to the broad applications and possibilities that it involves. 2. Development of an important chapter that studies the possibility of using virtual scenarios as mid-term alternative for the use of simulations. This section is divided in two blocks: a. Trials in virtual and real scenarios b. Trials in virutal scenarios (trials performed with several ones). 3. E-Flow net design development: Set of tools developed under Rhinoceros for the evacuation net design based on the elements defined in the Thesis: Nodes, Paths, Relations, Areas 4. E-Flow simulator development: Set of tools that uses Rhinoceros as a 3D simulator of human behaviour. This simulator, of my own design, includes a new and original algorithm of human behaviour that involves aspects that are not found in other simulators. This tool allows to perform groups programmed simulations which behaviour is based on their enviroment analysis and presence of dynamic references. It includes other important innovations as for example: tools for signals analysis, dynamic signal elements, easy obstacle adding etc... More over, a tool that allows the own scenario movement implementation has been created by simulating the own oscillation movement, with the purpose of playing the vessel movement's influences in the individuals' displacements. 5. In an advanced stage of the development, the possibility of generating a video recording of all the simulation was also integrated, then from that moment all tests have been filed (and keep on doing so) in a database that collects all simulation characteristics, failures detected, etc. These stored tests amounts to a total of 81 GB at the moment of finishing the Thesis work. Generation and analysis of paths regarding the evacuation net created with E-Flow design and the simulations performed with E-Flow net Simulator. a. Analysis for the optimisation of the network configuration based in the existing nodes per area. b. Definition of the processes previous to the calculation of the feasible paths c. Paths calculation: i. Analysis of the different algorithms on existance nowadays for the routes optimisation. ii. Development of a new family of algorithms that I have called “Minimum Decision Algorithm (MDA)”, being composed of: 1. MDA basic 2. MDA minimum 3. MDA of not spacial interference 4. MDA of expansion (es de extenderse) o enlargement ( es de crecimiento) 5. MDA of organised expansion for a single origin (of organised enlargement for a single origin) 6. MDA of organised expansion (of organised enlargement) iii. All these algorithms have been implemented in the E-Flow application created in the Thesis dfor the routes analysis and it is the core of the Captain's support system. d. Determination of the alternatives for the evacuation plan. After defining all possible paths, different processes of analysis existing for weighing-based criteria are described, thus to end defining the own development method proposed in this Thesis and that aims to respond in an agreggation of possible routes basis obtained by means of the MDA algorithms what is the routes' combination more suitable for the Plan or Plans in every situation. The methodology created fot the selection of the combinations of routes that determine a complete Plan is baesd in four basic criteria that after applying, offer the best alternatives. In this stage a complex analysis of the progress along time is also included, that adds original and innovative defintions and formulations. e. Originated from the methodology created in this Thesis for the perfoming of the analysy of the progress along time, a new mathematic theorem has been defined, that has been called as "Family of quadrilateral of constant area". 7. Specification of the physiscal infrastructure of the Captain's help system: essential part is this physical infrastructure that will support it. This system will be made of sensors, actuators, apps for mobile devices etc... Within this chapter the different elements and technologies that make up this infrastructure will be studied. 8. Specification for the services infrastructure. 9. Start up of the Blog. " Virtual Environments (http://epcinnova-virtualenvironments.blogspot.com.es/)" in which all tests performed have been published in terms of analysis of the virtual enviroments as alternative to the simulators as well as to the laboratory experiments or simulations, including in most of the cases the possibility that the visitor can perform the simulation within the virtual enviroment. This blog also includes other sections that have been worked along and within this Thesis: - Collection of different virtual scenarios existent. - Schema that gathers information concerning accidents for maritime and terrestrial areas (under development) - Schema proposed for the collecting of information obtained from a simulation. 10. This Thesis is the basis of the E-Flow project (name of one of the applications developed in this work), a project in which the Thesis' author has worked in as Project Manager. In the project takes part a consortium of firms as well as the UPM and the aim is to bring to real life most part of the approaches and ideas contained in this Thesis. This project includes the development of the physical infrastructure as well as the services that will allow, among others, implement in complex infrastrucutres a platform that will make possible a dynamic evacuation and a continuous control of the monitoring and acting systems implemented. At the moment the project is getting to an end which goal is the implementation of a pilot project in a Hospital. We also would like to highlight the following advances concerning the scientific-technology divulgation: • Talk in the " 52th Congress of the Naval Engineering in Spain" with the article "E-Flow . Intelligent system integrated for supporting evacuation". This paper is about project E-Flow which I am Project Manager of, as well as this Thesis for the Doctorate, being both closely related. Two papers published In 2014 in the Naval Engineering Magazine. • Co-author in the article “E-Flow: A communication system for user notification in dynamic evacuation scenarios” [17] introduced in the 7th International Conference on Ubicuous Computing & Ambient Intelligence (UCAMI) held in Costa Rica. Last, but not least, one of the more interesting contributions is the defintion of several lines of research in the future, based on the advances made in this Thesis.
Resumo:
A menudo, la fase del vuelo en ruta sobre áreas de baja densidad de tráfico, se desarrollan en espacios aéreos de alta cota, en los que el servicio de vigilancia es deficiente o simplemente no existente. En este tipo de espacio aéreo garantizar las separaciones entre aeronaves desde el segmento terrestre requiere de procedimientos adecuados a los medios disponibles y que, en general, desembocan en la utilización de unas mínimas de separación muy grandes. En este tipo de espacio aéreo, se ha planteado desde distintos organismos la posibilidad de delegar la responsabilidad de la separación a la aeronave, desarrollando ésta las funciones necesarias para poder asumir tal responsabilidad sin disminuir los umbrales de seguridad. Para que la aeronave pueda asumir la responsabilidad de la separación es necesario dotar a las tripulaciones de nuevos medios técnicos y procedimientos operacionales, los cuales trabajando de forma continua y automática permitan el desarrollo seguro del vuelo en esas circunstancias. El planteamiento de algunos de estos sistemas embarcados así como su validación desde el punto de vista de su aceptación por las tripulaciones es el objetivo del trabajo de investigación realizado y cuyos resultados se presentan en esta tesis. El sistema que se propone trata de resolver los riesgos con los tráficos circundantes garantizando la auto‐separación en vuelo de crucero, evitando y resolviendo conflictos. La aeronave que detecta un riesgo/conflicto negocia una propuesta de solución con la aeronave “intrusa”, una vez la propuesta ha sido negociada, el piloto confirma la maniobra a realizar por la aeronave, la aeronave radiodifunde un mensaje con las intenciones de la maniobra, seguidamente el piloto automático maniobra el avión para implementar la solución y el director de vuelo muestra al piloto la maniobra que se está realizando. ABSTRACT The flight in route phase over areas of low traffic density is usually performed in high altitude airspace, in which the surveillance system is deficient or simply nonexistent. In this type of airspace, to guarantee the separation between aircrafts from the ground, adequate procedures are required to be used with the available systems, and this generally leads to the use of high separation minima. Also, in this type of airspace, it has been discussed by several organizations the possibility of delegating the responsibility of the aircraft separation to the aircraft itself, it carrying out the necessary functions to take on such responsibility without lowering the safety threshold. In order for the aircraft to take on the responsibility of the separation, it is necessary to provide the crew with new technical means and operational procedures, which will result in safe flight under those circumstances. The discussion of some of these systems and their validation from the point of view of acceptance by the crews is the objective of this achieved research work, the findings of which are presented here. The proposed system assists in the surveillance providing the autopilot with information to guarantee the self‐separation with the surrounding in flight traffic, avoiding and solving conflicts. The aircraft which detects the risk/conflict starts a negotiation with the intruder aircraft for finding a conflict resolution, then the pilot of the aircraft approves the solution maneuver and the aircraft broadcasts a message with the maneuver which will be executed. The autopilot maneuvers the aircraft to execute the solution, the evolution of which is shown in the proposed system display and the flight director.
Resumo:
En este artículo se presenta un avance más en el proceso de aplicación de las últimas técnicas de adquisición de datos para la documentación del archivo de planos del IETcc, en el año en el que se celebra el 80 aniversario de su construcción. En este trabajo se expone la realización del levantamiento del comedor de personal, elemento singular del edificio, que ha sufrido modificaciones a través del tiempo. En una etapa posterior se editarán los datos, para realizar los planos que permitan la comparación con los que se conservan en el archivo del IETcc. Se ha utilizado el escáner láser, que ha pasado de ser una tecnología emergente a ser una técnica presente, útil y una alternativa real a la fotogrametría terrestre en las labores de reconocimiento y análisis del patrimonio arquitectónico.
Resumo:
Alcance y contenido: Executoria de hidalguía, iniciada en 1565, a favor de Antón Gallego, Alonso Gallego, Blas Mogollón [Blas Gallego Mogollón] y Miguel Gallego, y que resolvía el pleito que tenían estos con el Concejo de la villa de la Puebla de Alcocer (Badajoz), demostrándo su nobleza y limpieza de sangre y por tanto, declarándoles exentos de "pechar ni contribuir en los pechos y derramas reales y concejales ... de que eran libres y esemptos los hombres hijos dalgo"
Resumo:
El objetivo del trabajo es el desarrollo de un simulador del proceso de trasvase de mercancías de la carretera al ferrocarril en ejes de transporte seleccionados, con la estimación de la incertidumbre en cada una de las etapas en las que se descompone el proceso con el horizonte del año 2020. Las etapas son: estimación del tráfico terrestre -carretera y ferrocarril- de mercancías (total y por tipos) y en los ejes de transporte seleccionados, estimación de los factores de ocupación en ambos modos, estimación de las proporciones de trasvase modal (total y por tipos) en cada eje y finalmente la estimación del impacto medioambiental de las toneladas trasvasadas, en términos de emisiones contaminantes en toneladas de CO, CO2, NOx, CH4, NH3, etc. Cada una de estas estimaciones presenta incertidumbre, que debe ser cuantificada a través de un enfoque estadístico, de forma que la incertidumbre de la variable final o respuesta del proceso (emisiones) recoja la propagación de las incertidumbres a través de las etapas, para las que se proporcionan horquillas. El cálculo de la propagación de las incertidumbres no es factible analíticamente y por ello se recurre a la simulación estocástica de Monte Carlo. En este trabajo se presenta la metodología para la cuantificación de incertidumbre de los factores que intervienen en el proceso de trasvase de mercancías de la carretera a otro modo (ferrocarril).
Resumo:
La teledetección o percepción remota (remote sensing) es la ciencia que abarca la obtención de información (espectral, espacial, temporal) sobre un objeto, área o fenómeno a través del análisis de datos adquiridos por un dispositivo que no está en contacto con el elemento estudiado. Los datos obtenidos a partir de la teledetección para la observación de la superficie terrestre comúnmente son imágenes, que se caracterizan por contar con un sinnúmero de aplicaciones que están en continua evolución, por lo cual para solventar los constantes requerimientos de nuevas aplicaciones a menudo se proponen nuevos algoritmos que mejoran o facilitan algún proceso en particular. Para el desarrollo de dichos algoritmos, es preciso hacer uso de métodos matemáticos que permitan la manipulación de la información con algún fin específico. Dentro de estos métodos, el análisis multi-resolución se caracteriza por permitir analizar una señal en diferentes escalas, lo que facilita trabajar con datos que puedan tener resoluciones diferentes, tal es el caso de las imágenes obtenidas mediante teledetección. Una de las alternativas para la implementación de análisis multi-resolución es la Transformada Wavelet Compleja de Doble Árbol (DT-CWT). Esta transformada se implementa a partir de dos filtros reales y se caracteriza por presentar invariancia a traslaciones, precio a pagar por su característica de no ser críticamente muestreada. A partir de las características de la DT-CWT se propone su uso en el diseño de algoritmos de procesamiento de imagen, particularmente imágenes de teledetección. Estos nuevos algoritmos de procesamiento digital de imágenes de teledetección corresponden particularmente a fusión y detección de cambios. En este contexto esta tesis presenta tres algoritmos principales aplicados a fusión, evaluación de fusión y detección de cambios en imágenes. Para el caso de fusión de imágenes, se presenta un esquema general que puede ser utilizado con cualquier algoritmo de análisis multi-resolución; este algoritmo parte de la implementación mediante DT-CWT para luego extenderlo a un método alternativo, el filtro bilateral. En cualquiera de los dos casos la metodología implica que la inyección de componentes pueda realizarse mediante diferentes alternativas. En el caso del algoritmo de evaluación de fusión se presenta un nuevo esquema que hace uso de procesos de clasificación, lo que permite evaluar los resultados del proceso de fusión de forma individual para cada tipo de cobertura de uso de suelo que se defina en el proceso de evaluación. Esta metodología permite complementar los procesos de evaluación tradicionales y puede facilitar el análisis del impacto de la fusión sobre determinadas clases de suelo. Finalmente, los algoritmos de detección de cambios propuestos abarcan dos enfoques. El primero está orientado a la obtención de mapas de sequía en datos multi-temporales a partir de índices espectrales. El segundo enfoque propone la utilización de un índice global de calidad espectral como filtro espacial. La utilización de dicho filtro facilita la comparación espectral global entre dos imágenes, esto unido a la utilización de umbrales, conlleva a la obtención de imágenes diferencia que contienen la información de cambio. ABSTRACT Remote sensing is a science relates to information gathering (spectral, spatial, temporal) about an object, area or phenomenon, through the analysis of data acquired by a device that is not in contact with the studied item. In general, data obtained from remote sensing to observe the earth’s surface are images, which are characterized by having a number of applications that are constantly evolving. Therefore, to solve the constant requirements of applications, new algorithms are proposed to improve or facilitate a particular process. With the purpose of developing these algorithms, each application needs mathematical methods, such as the multiresolution analysis which allows to analyze a signal at different scales. One of the options is the Dual Tree Complex Wavelet Transform (DT-CWT) which is implemented from two real filters and is characterized by invariance to translations. Among the advantages of this transform is its successful application in image fusion and change detection areas. In this regard, this thesis presents three algorithms applied to image fusion, assessment for image fusion and change detection in multitemporal images. For image fusion, it is presented a general outline that can be used with any multiresolution analysis technique; this algorithm is proposed at first with DT-CWT and then extends to an alternative method, the bilateral filter. In either case the method involves injection of components by various means. For fusion assessment, the proposal is focused on a scheme that uses classification processes, which allows evaluating merger results individually for each type of land use coverage that is defined in evaluation process. This methodology allows complementing traditional assessment processes and can facilitate impact analysis of the merger on certain kinds of soil. Finally, two approaches of change detection algorithms are included. The first is aimed at obtaining drought maps in multitemporal data from spectral indices. The second one takes a global index of spectral quality as a spatial filter. The use of this filter facilitates global spectral comparison between two images and by means of thresholding, allows imaging containing change information.
Resumo:
Los objetivos propios del proyecto propuesto se centran en describir las fases necesarias del proceso de producción de la Base Cartográfica Nacional a escala 1:200.000, cuyo producto final es plasmado en un mapa cartográfico concreto; Mapa Provincial con la misma escala. Todas las tareas esenciales para su elaboración se realizan de acuerdo a la finalidad principal que persigue la creación de un mapa, que es la representación clara y concisa de los elementos geográficos que definen una extensión de territorio. Se pone de manifiesto las normas y reglas específicas que son necesarias para dicha producción, atendiendo las condiciones que presenta el modelo de la base de datos concreta, compuesto por la información válida con carácter oficial, ya que debe estar registrada por las instituciones del Estado, de forma que el conjunto de información sea la más adecuada a la realidad objetiva. Se siguen aquellas pautas referentes a la captura de los datos que componen dicho modelo, teniendo en cuenta la escala cartográfica a la que se representan y ciertas condiciones geométricas. Así como aquellas normas que guían los procesos de controles de calidad y generalización de la información geográfica. También, se establecen de forma fija la serie de estilos de representación de las geometrías componen el mapa, y la simbología utilizada para identificar las entidades definidas mediante elementos puntuales. Las reglas principales descritas son las concernientes a la edición de los conflictos cartográficos producidos a la hora de representar los datos reales. La BCN200 se crea con la finalidad principal de recopilar toda la información cartográfica que define el aspecto y el conjunto de detalles, tanto geográficos y naturales, como aquellos aportados por las construcciones realizadas por el ser humano, de la superficie terrestre que abarca el territorio nacional, con la finalidad de facilitar el desarrollo de tareas semiautomáticas para obtener una producción de diversas elaboraciones cartográficas, digitales o impresas.
Resumo:
La conciencia de la crisis de la modernidad -que comienza ya a finales del siglo XIX- ha cobrado más experiencia debido al conocimiento de los límites del desarrollo económico, ya que como parecía razonable pensar, también los recursos naturales son finitos. En 1972, el Club de Roma analizó las distintas opciones disponibles para conseguir armonizar el desarrollo sostenible y las limitaciones medioambientales. Fue en 1987 cuando la Comisión Mundial para el Medio Ambiente y el Desarrollo de la ONU definía por primera vez el concepto de desarrollo sostenible. Definición que posteriormente fue incorporada en todos los programas de la ONU y sirvió de eje, por ejemplo, a la Cumbre de la Tierra celebrada en Río de Janeiro en 1992. Parece evidente que satisfacer la demanda energética, fundamentalmente desde la Revolución Industrial en el s XIX, trajo consigo un creciente uso de los combustibles fósiles, con la consiguiente emisión de los gases de efecto invernadero (GEI) y el aumento de la temperatura global media terrestre. Esta temperatura se incrementó en los últimos cien años en una media de 0.74ºC. La mayor parte del incremento observado desde la mitad del siglo XX en esta temperatura media se debe, con una probabilidad de al menos el 90%, al aumento observado en los GEI antropogénicos, siendo uno de ellos el CO2 que proviene de la transformación del carbono de los combustibles fósiles durante su combustión. Ante el creciente uso de los combustibles fósiles, los proyectos CAC, proyectos de captura, transporte y almacenamiento, se presentan como una contribución al desarrollo sostenible ya que se trata de una tecnología que permite mitigar el cambio climático. Para valorar si la tecnología CAC es sostenible, habrá que comprobar si existe o no capacidad para almacenar el CO2 en una cantidad mayor a la de producción y durante el tiempo necesario que impone la evolución de la concentración de CO2 en la atmósfera para mantenerla por debajo de las 450ppmv (concentración de CO2 que propone el Panel Intergubernamental para el Cambio Climático). El desarrollo de los proyectos CAC completos pasa por la necesaria selección de adecuados almacenes de CO2 que sean capaces de soportar los efectos de las presiones de inyección, así como asegurar la capacidad de dichos almacenes y la estanqueidad del CO2 en los mismos. La caracterización geológica de un acuífero susceptible de ser almacén de CO2 debe conducir a determinar las propiedades que dicho almacén posee para asegurar un volumen adecuado de almacenamiento, una inyectabilidad del CO2 en el mismo a un ritmo adecuado y la estanqueidad del CO2 en dicho acuífero a largo plazo. El presente trabajo pretende estudiar los parámetros que tienen influencia en el cálculo de la capacidad del almacén, para lo que en primer lugar se ha desarrollado la tecnología necesaria para llevar a cabo la investigación mediante ensayos de laboratorio. Así, se ha desarrollado una patente, "ATAP, equipo para ensayos petrofísicos (P201231913)", con la que se ha llevado a cabo la parte experimental de este trabajo para la caracterización de los parámetros que tienen influencia en el cálculo de la capacidad del almacén. Una vez desarrollada la tecnología, se aborda el estudio de los distintos parámetros que tienen influencia en la capacidad del almacén realizando ensayos con ATAP. Estos ensayos definen el volumen del almacenamiento, llegándose a la conclusión de que en la determinación de este volumen, juegan un papel importante el alcance de los mecanismos trampa, físicos o químicos, del CO2 en el almacén. Ensayos que definen la capacidad del almacén de "aceptar" o "rechazar" el CO2 inyectado, la inyectabilidad, y por último, ensayos encaminados a determinar posibles fugas que se pueden dar a través de los pozos de inyección, definidos estos como caminos preferenciales de fugas en un almacén subterráneo de CO2. Queda de este modo caracterizada la estanqueidad del CO2 en el acuífero a largo plazo y su influencia obvia en la determinación de la capacidad del almacén. Unido al propósito de la estimación de la capacidad del almacén, se encuentra el propósito de asegurar la estanqueidad de dichos almacenes en el tiempo, y adelantarse a la evolución de la pluma de CO2 en el interior de dichos almacenes. Para cumplir este propósito, se ha desarrollado un modelo dinámico a escala de laboratorio, mediante el programa ECLIPSE 300, con el fin de establecer una metodología para el cálculo de la capacidad estimada del almacén, así como el estudio de la evolución de la pluma de CO2 dentro del acuífero a lo largo del tiempo, partiendo de los resultados obtenidos en los ensayos realizados en ATAP y con la modelización de la probeta de roca almacén empleada en dichos ensayos. Presentamos por tanto un trabajo que establece las bases metodológicas para el estudio de la influencia de distintos parámetros petrofísicos en el cálculo de la capacidad del almacén unidos al desarrollo tecnológico de ATAP y su utilización para la determinación de dichos parámetros aplicables a cada acuífero concreto de estudio. ABSTRACT The crisis of modernity –which begins at the end of 19th Century- has been more important due to the knowledge of the limits of economic development, since it appeared to be thought reasonable, the natural resources are finite. In 1972, The Club of Rome analyzed the different options available in order to harmonize the sustainability and the environment development. It was in 1987 when The Global Commission on The Environment and the Development of UN, defined for the first time the concept of Sustainable Development. This definition that was fully incorporated in all the UN programs and it was useful as an axis, for example, in La Cumbre de la Tierra summit in Río de Janeiro in 1992. It seems obvious to satisfy energetic demand, basically after The Industrial Revolution in 19th Century, which represented an increasing use of fossil fuels, therefore greenhouse gases emission and the increasing of global average temperature. This temperature increased in the last 100 years up to 0.74ºC. The major part of the temperature increase is due to the increase observed in Greenhouse gases with human origin, at least with 90% of probability. The most important gas is the CO2 because of its quantity. In the face of the increasing use of fossil fuels, the CCS projects, Carbon Capture and Storage projects, appear as a contribution of sustainable development since it is a technology for avoiding the climate change. In order to evaluate if CCS technology is sustainable, it will be necessary to prove if the capacity for CO2 storage is available or not in a quantity greater than the production one and during the time necessary to keep the CO2 concentration in the atmosphere lower than 450ppmv (concentration imposed by IPCC). The development of full CCS projects goes through the selection of good CO2 storages that are able to support the effects of pressure injection, and assure the capacity of such storages and the watertightness of CO2. The geological characterization of the aquifer that could be potential CO2 storage should lead to determine the properties that such storage has in order to assure the adequate storage volume, the CO2 injectivity in a good rate, and the watertightness of the CO2 in the long term. The present work aims to study the parameters that have influence on the calculation of storage capacity, and for that purpose the appropriate technology has been developed for carrying out the research by mean of laboratory tests. Thus, a patent has been developed, "ATAP, equipo para ensayos petrofísicos (P201231913)", that has been used for developing the experimental part of this work. Once the technology has been developed, the study of different parameters, that have influence on the capacity of the storage, has been addressed developing different tests in ATAP. These tests define the storage volume which is related to the scope of different CO2 trap mechanisms, physical or chemical, in the storage. Tests that define the capacity of the storage to “accept” or “reject” the injected CO2, the injectivity, and tests led to determine possible leakages through injection wells. In this way we could talk about the watertightness in the aquifer in the long term and its influence on the storage capacity estimation. Together with the purpose of the storage capacity estimation, is the purpose of assuring the watertightness of such storages in the long term and anticipating the evolution of CO2 plume inside such aquifers. In order to fulfill this purpose, a dynamic model has been developed with ECLIPSE 300, for stablishing the methodology for the calculation of storage capacity estimation and the evolution of the CO2 plume, starting out with the tests carried out in ATAP. We present this work that establishes the methodology bases for the study of the influence of different petrophysics parameters in the calculation of the capacity of the storage together with the technological development of ATAP and its utilization for the determination of such parameters applicable to each aquifer.
Resumo:
El incremento de la población con acceso a la televisión a mediados del siglo XX hizo necesaria la implantación de una normativa que regulara el acceso a este servicio a través de las infraestructuras comunes de telecomunicación. Estas infraestructuras están formadas por diversos elementos que pueden alterar los parámetros de calidad de la señal de televisión radiodifundida, actualmente bajo norma DVB-T. Normalmente, los diseños de las redes se hacen atendiendo a las atenuaciones que presentan los dispositivos pero sin tener en cuenta la influencia de los mismos sobre los parámetros de calidad de la señal. Por ello, es necesario conocer esta influencia para que, a la hora de diseñar una red, se cumplan no solo los requisitos de nivel de señal en las tomas de usuario sino que también se han de cumplir los requisitos de calidad (MER, relación portadora a ruido, CBER). Para llevar a cabo este estudio, en primer lugar es necesario conocer los equipos de generación y medida de señales DVB-T. El conocimiento de las características de estos equipos, las funciones que pueden realizar y sus limitaciones ayudan a llevar a cabo un buen estudio de los parámetros de calidad de la señal. Posteriormente, se realiza un estudio individual de los elementos utilizados para la construcción de una red de distribución de señal de televisión digital terrestre con el objetivo de comprobar su comportamiento en frecuencia, ya que según los fabricantes su respuesta en frecuencia es plana, y su influencia sobre la calidad de la señal. Además, se utilizarán elementos de distintas características para conocer la influencia de dichas características sobre los parámetros de calidad. Una vez llevado a cabo este estudio individual, se construye una infraestructura común de telecomunicaciones para realizar las medidas necesarias en las tomas de usuario y en puntos intermedios para así conocer cómo empeora la calidad de la señal a lo largo de este tipo de redes. ABSTRACT. The increase in population with access to television services in the middle of the 20th century, made it necessary to set a new rule to regulate this service access through the common telecommunications infrastructures. These infrastructures are composed by different elements which can alter the parameters of quality of the broadcasted television signal, nowadays under DVB-T standard. Networks design are usually made taking into account the loss of each device but without taking into account the influence on the quality parameters of the signal. Because of that, it is necessary to know this influence in order to meet not only the level requirements but also the quality requirements (MER, carrier-to-noise relation, CBER). To carry out this study, it is first necessary to understand the generation and measurement DVB-T signal equipment. The knowledge of the characteristics of these devices, their functions and limitations help to carry out a good study of the signal quality parameters. Subsequently, an individual examination of the elements used to build a distribution network of digital terrestrial television is performed in order to check its frequency dependence, since according to manufacturers’ datasheets the frequency is flat, and its influence on the signal quality parameters. In addition, elements of different characteristics are used to determine the influence of these characteristics on the quality parameters. Once done this single study, a common telecommunications infrastructure is built to perform the necessary measurements at the user points and at intermediate points in order to know how the quality of the signal over this kind of networks.