17 resultados para Sondeo estratigráfico
em Universidad Politécnica de Madrid
Resumo:
Este sondeo reúne los resultados de un cuestionario realizado a una serie de académicos y profesionales de referencia en disciplinas relacionadas con la ciudad y el gobierno de sus procesos — planificación urbana, geografía, sociología y antropología. El cuestionario incluía cuatro preguntas sencillas y directas. ¿Cuáles son los principales conflictos de la ciudad contemporánea? ¿Cuáles son los campos de acción clave para resolverlos? ¿De qué modo puede contribuir su disciplina a dicho empeño? ¿Podría mencionar algún ejemplo relevante de ese tipo de iniciativas? El resultado es un mosaico plural y multidisciplinar de miradas a nuestras formaciones urbanas del que emergen una serie de líneas generales de trabajo y un abanico de campos para futuras intervenciones. This survey shows the results of a questionnaire including a series of key scholars and professionals in fields related to urban processes and planning — town planning, geography, sociology and anthropology. The questionnaire raised four simple, straightforward questions. What are the most pressing conflicts of contemporary cities? What are the main fields of action for solving them? How can your discipline contribute with respect to this task? Could you mention an intervention that could serve as an example of that line of work? The result is a plural and multidisciplinary perspective on our urban formations, from which a series of research and work lines emerges.
Resumo:
El presente proyecto trata de describir las actuaciones necesarias para la perforación de un sondeo de investigación en el municipio de Biar (Alicante), con el fin de averiguar si es posible obtener agua en calidad y cantidad suficiente para el suministro de dicha población. Para ello se ha llevado a cabo un estudio hidrogeológico, que incluye un balance hídrico tanto de la masa de agua de Sierra Mariola como de los acuíferos implicados (Cabranta y Pinar de Camús), un estudio geofísico del entorno de la futura captación, además de indicar el proceso y los procedimientos de todas las fases constructivas de dicho proyecto (desde el acondicionamiento hasta el ensayo de bombeo, pasando por perforación, entubación, etc.) y la descripción de las actuaciones. El informe se completa con un estudio básico de seguridad y salud y su correspondiente evaluación de impacto ambiental.
Resumo:
El registro sedimentario del lago volcánico conocido como maar de Fuentillejo (Centro de España) ofrece la oportunidad de determinar la evolución paleoambiental durante el Pleistoceno medio y superior de la parte Centro-Sur de la Península Ibérica, objetivo principal de esta Tesis Doctoral. Se ha recopilado información sobre otras reconstrucciones paleoambientales en maares de todo el mundo y estudios paleoclimáticos realizados en el registro de la turbera de Padul, relativamente próxima al maar de Fuentillejo. Con ello, se pudo realizar el estado del arte.A lo largo del sondeo continuo (142,25 m) perforado en la parte central del maar de Fuentillejo en el año 2002, se han tomando un total de 613 muestras a intervalos de 20 cm para el análisis de biomarcadores. Los biomarcadores se obtuvieron mediante un equipo de extracción acelerada de disolventes (Dionex ASE 200) y fueron analizados con un cromatógrafo de gases (HP 6890) con detector selectivo de masas (HP 5973). La datación de sedimentos del maar de Fuentillejo ha sido complicada debido a la ausencia de restos orgánicos terrestres. Se seleccionaron seis muestras de sedimento para intentar datar por el método de racemización de aminoácidos: los resultados obtenidos no fueron buenos. Finalmente, el modelo de edad-profundidad se ha llevado a cabo mediante paleomagnetismo, dataciones 14C y U/Th. En base a una interpolación lineal de las edades medias calibradas se ha datado la base del registro en aproximadamente 355 ka. Se han identificado y cuantificado los n-alcanos, n-metil cetonas, ácidos n- alcanoicos y azufre orgánico del sedimento a lo largo del registro. La interpretación de los diferentes índices establecidos a partir de éstos permite independizar tres Unidades Geoquímicas generales (UG) y nueve Subunidades (S) que definen condiciones paleoambientales distintas (predominio en el aporte de vegetación terrestre/de macrofitas/acuática, lámina de agua más alta vs. más baja, periodos más húmedos vs. más secos).A partir de análisis estadísticos de los índices de n-alcanos (matriz de correlación y análisis de agrupaciones) se han definido tres asociaciones: Grupo 1 (condiciones ambientales más húmedas y fase con lámina de agua elevada), Grupo 2 (con condiciones intermedias) y Grupo 3 (las fases más secas y con lámina de agua más baja). Además, se establece un Indicador Paleoambiental (I.P.) que muestra variaciones notables correlacionables con escenarios paleoambientales distintos (más húmedos vs. más secos) distinguiendo veintiséis Episodios (E): cinco Secos, nueve Húmedos y doce Intermedios.En general, se encuentra una buena correspondencia entre estos Episodios (E) y los eventos paleoclimáticos cortos descritos por Vegas et al. (2010) en este registro, en base a la palinología y geoquímica, así como los Episodios del Oxígeno Marino (MIS) y Eventos Heinrich, que permiten suponer que las oscilaciones paleoclimatológicas registradas en el maar tienen un origen global. Esta correspondencia se confirma por el análisis espectral, que revela que los ciclos interpretados (103, 41, 26 y 23 ka) evidencian influencia orbital. Además, se ha realizado una correlación tentativa entre los episodios paleoambientales de larga duración obtenidos a partir del perfil suavizado del porcentaje relativo de C27 de la Cuenca de Padul (Granada, Sur de la Península Ibérica) y el perfil I.P. suavizado del maar de Fuentillejo, aunque hay diferencias que podrían ser explicadas por la vecindad de Padul a la zona de nieves perpetuas de Sierra Nevada lo que origina marcadas diferencias hidrológicas entre ambos sitios. El análisis por cadenas de Markov ha permitido determinar que los cambios paleoambientales reflejados por los biomarcadores no fueron, en la mayoría de los casos, bruscos pasando, normalmente, por estados transicionales.
Resumo:
La presente Tesis Doctoral fue desarrollada en el marco del proyecto Consolider-Ingenio 2010 CSD2008-00068 (TeraSense), financiado por el Ministerio de Ciencia e Innovación de España. Dentro este contexto, el grupo GTIC-Radiocomunicaciones de la Universidad Politécnica de Madrid (UPM), ha llevado a cabo una serie de estudios, los cuales se centran específicamente en propagación atmosférica bajo condiciones de ausencia de lluvia en 100 y 300 GHz. Durante la primera etapa de esta investigación se ha llevado a cabo la caracterización y estimación de la atenuación total atmosférica y temperatura de brillo en ambas frecuencias, usando para ello perfiles atmosféricos. Con este propósito, se han obtenido datos de sondeos realizados en la estación de Madrid/Barajas, correspondientes a un periodo de 5 años. A partir de esta base de datos, así como de modelos de estimación, y asumiendo la validez de la aproximación de Rayleigh hasta 300 GHz, se han calculado las distribuciones acumuladas anuales de gases, nubes, y atenuación total, además de los correspondientes niveles de temperatura de brillo. Los principales resultados muestran que, a medida que aumenta la frecuencia, el vapor de agua tiene una fuerte influencia negativa, la cual es claramente dominante en 300 GHz. Así mismo, los estadísticos anuales de temperatura de brillo en 100 GHz han mostrado que la estimación de la atenuación total, a partir de medidas radiométricas, podría realizarse durante la mayor parte del tiempo, salvo en condiciones de lluvia. En 300 GHz, esta estimación sería difícil de realizar a partir de esta técnica, siendo posible únicamente durante periodos caracterizados por bajas concentraciones de vapor de agua en la atmósfera y ausencia de precipitaciones. Se ha introducido en esta investigación un método para identificar la presencia de condiciones de lluvia durante la realización de un sondeo, con el objetivo de descartar estos eventos de los estadísticos anuales de atenuación en ambas frecuencias. Este tipo de escenarios son generalmente evitados durante la realización de medidas radiométricas o cálculos basados en datos de sondeos. El procedimiento de detección se basa en el análisis de un conjunto de parámetros, algunos de ellos extraídos de observaciones sinópticas de superficie, además de la definición de un umbral de contenido integrado de agua líquida, ILWC. El funcionamiento del método ha sido evaluado bajo diferentes condiciones climatológicas, correspondientes a tres estaciones diferentes en España, donde se verificó también la existencia de datos pluviométricos. El uso del método ha demostrado que, en ausencia de registros de intensidad de lluvia, puede ser una herramienta útil de detección, cuyo comportamiento es conservador, debido a que el número de eventos que descarta es siempre mayor que el observado por un pluviómetro. Los resultados que se obtienen son buenos cuando se comparan las distribuciones acumuladas anuales de atenuación total obtenidas excluyendo los eventos detectados por el método y por los registros pluviométricos. En colaboración con el Grupo de Microondas y Radar de la UPM, se ha realizado una campaña de medidas radiométricas en 99 GHz, entre el 11 y el 24 de abril de 2012, con el fin de estimar la atenuación total a lo largo de un trayecto inclinado. Las series temporales obtenidas son consistentes con lo que se esperaba de este tipo de medidas: un nivel de referencia de baja atenuación en ausencia de nubes o lluvia, y aparentemente una buena compensación de las variaciones en la ganancia del receptor gracias a un procedimiento manual de calibraciones con carga caliente. Así mismo, se han observado claramente los efectos de la presencia de nubes sobre los resultados, hecho que confirma la mayor sensibilidad de las medidas en esta frecuencia a la presencia de agua líquida, en comparación con medidas simultáneas realizadas por un radiómetro en 19.7 GHz. Finalmente, se han observado un buen nivel de correspondencia entre los valores de atenuación estimados por el radiómetro en 99 GHz y aquellos estimados mediante sondeos meteorológicos, lo cual constituye una conclusión valiosa de cara a futuras campañas de medidas de mayor duración.
Resumo:
This PhD thesis contributes to the problem of resource and service discovery in the context of the composable web. In the current web, mashup technologies allow developers reusing services and contents to build new web applications. However, developers face a problem of information flood when searching for appropriate services or resources for their combination. To contribute to overcoming this problem, a framework is defined for the discovery of services and resources. In this framework, three levels are defined for performing discovery at content, discovery and agente levels. The content level involves the information available in web resources. The web follows the Representational Stateless Transfer (REST) architectural style, in which resources are returned as representations from servers to clients. These representations usually employ the HyperText Markup Language (HTML), which, along with Content Style Sheets (CSS), describes the markup employed to render representations in a web browser. Although the use of SemanticWeb standards such as Resource Description Framework (RDF) make this architecture suitable for automatic processes to use the information present in web resources, these standards are too often not employed, so automation must rely on processing HTML. This process, often referred as Screen Scraping in the literature, is the content discovery according to the proposed framework. At this level, discovery rules indicate how the different pieces of data in resources’ representations are mapped onto semantic entities. By processing discovery rules on web resources, semantically described contents can be obtained out of them. The service level involves the operations that can be performed on the web. The current web allows users to perform different tasks such as search, blogging, e-commerce, or social networking. To describe the possible services in RESTful architectures, a high-level feature-oriented service methodology is proposed at this level. This lightweight description framework allows defining service discovery rules to identify operations in interactions with REST resources. The discovery is thus performed by applying discovery rules to contents discovered in REST interactions, in a novel process called service probing. Also, service discovery can be performed by modelling services as contents, i.e., by retrieving Application Programming Interface (API) documentation and API listings in service registries such as ProgrammableWeb. For this, a unified model for composable components in Mashup-Driven Development (MDD) has been defined after the analysis of service repositories from the web. The agent level involves the orchestration of the discovery of services and contents. At this level, agent rules allow to specify behaviours for crawling and executing services, which results in the fulfilment of a high-level goal. Agent rules are plans that allow introspecting the discovered data and services from the web and the knowledge present in service and content discovery rules to anticipate the contents and services to be found on specific resources from the web. By the definition of plans, an agent can be configured to target specific resources. The discovery framework has been evaluated on different scenarios, each one covering different levels of the framework. Contenidos a la Carta project deals with the mashing-up of news from electronic newspapers, and the framework was used for the discovery and extraction of pieces of news from the web. Similarly, in Resulta and VulneraNET projects the discovery of ideas and security knowledge in the web is covered, respectively. The service level is covered in the OMELETTE project, where mashup components such as services and widgets are discovered from component repositories from the web. The agent level is applied to the crawling of services and news in these scenarios, highlighting how the semantic description of rules and extracted data can provide complex behaviours and orchestrations of tasks in the web. The main contributions of the thesis are the unified framework for discovery, which allows configuring agents to perform automated tasks. Also, a scraping ontology has been defined for the construction of mappings for scraping web resources. A novel first-order logic rule induction algorithm is defined for the automated construction and maintenance of these mappings out of the visual information in web resources. Additionally, a common unified model for the discovery of services is defined, which allows sharing service descriptions. Future work comprises the further extension of service probing, resource ranking, the extension of the Scraping Ontology, extensions of the agent model, and contructing a base of discovery rules. Resumen La presente tesis doctoral contribuye al problema de descubrimiento de servicios y recursos en el contexto de la web combinable. En la web actual, las tecnologías de combinación de aplicaciones permiten a los desarrolladores reutilizar servicios y contenidos para construir nuevas aplicaciones web. Pese a todo, los desarrolladores afrontan un problema de saturación de información a la hora de buscar servicios o recursos apropiados para su combinación. Para contribuir a la solución de este problema, se propone un marco de trabajo para el descubrimiento de servicios y recursos. En este marco, se definen tres capas sobre las que se realiza descubrimiento a nivel de contenido, servicio y agente. El nivel de contenido involucra a la información disponible en recursos web. La web sigue el estilo arquitectónico Representational Stateless Transfer (REST), en el que los recursos son devueltos como representaciones por parte de los servidores a los clientes. Estas representaciones normalmente emplean el lenguaje de marcado HyperText Markup Language (HTML), que, unido al estándar Content Style Sheets (CSS), describe el marcado empleado para mostrar representaciones en un navegador web. Aunque el uso de estándares de la web semántica como Resource Description Framework (RDF) hace apta esta arquitectura para su uso por procesos automatizados, estos estándares no son empleados en muchas ocasiones, por lo que cualquier automatización debe basarse en el procesado del marcado HTML. Este proceso, normalmente conocido como Screen Scraping en la literatura, es el descubrimiento de contenidos en el marco de trabajo propuesto. En este nivel, un conjunto de reglas de descubrimiento indican cómo los diferentes datos en las representaciones de recursos se corresponden con entidades semánticas. Al procesar estas reglas sobre recursos web, pueden obtenerse contenidos descritos semánticamente. El nivel de servicio involucra las operaciones que pueden ser llevadas a cabo en la web. Actualmente, los usuarios de la web pueden realizar diversas tareas como búsqueda, blogging, comercio electrónico o redes sociales. Para describir los posibles servicios en arquitecturas REST, se propone en este nivel una metodología de alto nivel para descubrimiento de servicios orientada a funcionalidades. Este marco de descubrimiento ligero permite definir reglas de descubrimiento de servicios para identificar operaciones en interacciones con recursos REST. Este descubrimiento es por tanto llevado a cabo al aplicar las reglas de descubrimiento sobre contenidos descubiertos en interacciones REST, en un nuevo procedimiento llamado sondeo de servicios. Además, el descubrimiento de servicios puede ser llevado a cabo mediante el modelado de servicios como contenidos. Es decir, mediante la recuperación de documentación de Application Programming Interfaces (APIs) y listas de APIs en registros de servicios como ProgrammableWeb. Para ello, se ha definido un modelo unificado de componentes combinables para Mashup-Driven Development (MDD) tras el análisis de repositorios de servicios de la web. El nivel de agente involucra la orquestación del descubrimiento de servicios y contenidos. En este nivel, las reglas de nivel de agente permiten especificar comportamientos para el rastreo y ejecución de servicios, lo que permite la consecución de metas de mayor nivel. Las reglas de los agentes son planes que permiten la introspección sobre los datos y servicios descubiertos, así como sobre el conocimiento presente en las reglas de descubrimiento de servicios y contenidos para anticipar contenidos y servicios por encontrar en recursos específicos de la web. Mediante la definición de planes, un agente puede ser configurado para descubrir recursos específicos. El marco de descubrimiento ha sido evaluado sobre diferentes escenarios, cada uno cubriendo distintos niveles del marco. El proyecto Contenidos a la Carta trata de la combinación de noticias de periódicos digitales, y en él el framework se ha empleado para el descubrimiento y extracción de noticias de la web. De manera análoga, en los proyectos Resulta y VulneraNET se ha llevado a cabo un descubrimiento de ideas y de conocimientos de seguridad, respectivamente. El nivel de servicio se cubre en el proyecto OMELETTE, en el que componentes combinables como servicios y widgets se descubren en repositorios de componentes de la web. El nivel de agente se aplica al rastreo de servicios y noticias en estos escenarios, mostrando cómo la descripción semántica de reglas y datos extraídos permiten proporcionar comportamientos complejos y orquestaciones de tareas en la web. Las principales contribuciones de la tesis son el marco de trabajo unificado para descubrimiento, que permite configurar agentes para realizar tareas automatizadas. Además, una ontología de extracción ha sido definida para la construcción de correspondencias y extraer información de recursos web. Asimismo, un algoritmo para la inducción de reglas de lógica de primer orden se ha definido para la construcción y el mantenimiento de estas correspondencias a partir de la información visual de recursos web. Adicionalmente, se ha definido un modelo común y unificado para el descubrimiento de servicios que permite la compartición de descripciones de servicios. Como trabajos futuros se considera la extensión del sondeo de servicios, clasificación de recursos, extensión de la ontología de extracción y la construcción de una base de reglas de descubrimiento.
Resumo:
Este proyecto tiene como objetivo evaluar la idoneidad de una estructura geológica para el almacenamiento de CO2. Dicha estructura está situada en la cuenca de Almazán, más concretamente en el entorno del sondeo El Gredal. A lo largo del proyecto, se describen los criterios de selección técnicos y socio-económicos basados en la Ley 40/2010 y otras publicaciones (Bachu, Llamas y otros). También se describe la geología de la cuenca de Almazán y las características de las formaciones potencialmente favorables para almacenar CO2, como son la formación Buntsandstein y la formación Utrillas. Para analizar cuál de las dos formaciones es la más favorable para el almacenamiento de CO2, se aplicarán los criterios de selección técnicos y socio-económicos, comparando ambas formaciones. En base a toda la información recopilada y estudiada, se concluye que la formación Buntsandstein es la más idónea para almacenar CO2. ABSTRACT The aim of this Project is to evaluate the suitability of a geological structure for CO2 storage. This structure is located in the Almazan Basin, specifically in the surroundings of El Gredal well. Along the project, technical and socio-economic criteria based on the Law 40/2010 and others publications (Bachu, Llamas and others) will be described. The geology of the Almazan Basin and the characteristics of potentially favorable formations for CO2 storage, such as Buntsandstein and Utrillas formations will be also described. Technical selection and socio-economic criteria will be applied in order to analyze which of the two formations is the most favorable for CO2 storage. Based on all information gathered and studied, we conclude that the Buntsandstein formation is most suitable for CO2 storage
Resumo:
Resumen: El maar de Fuentillejo está localizado en la Región Volcánica Central de Campo de Calatrava (Ciudad Real). Desde su inicio se ha comportado como un sistema cerrado y presenta una potencia total de 142 m de sedimentos lacustres, organizados en 23 unidades sedimentarias. Se ha realizado un estudio de la susceptibilidad magnética y densidad aparente de los sedimentos, mediante un equipo de testificación multisensor Geotek. Para obtener la edad del registro se han efectuado dataciones absolutas mediante radiocarbono, U-Th y con el estudio de polaridad magnética, obteniéndose un modelo de edad que permite datar el sondeo FUENT-1 en torno a los 350 ka. Los datos del registro de susceptibilidad magnética, junto con las dataciones efectuadas, permiten identificar una secuencia de eventos erosivos relacionados con los últimos estadios glaciares (LGM: Ultimo Máximo Glaciar y los estadios isotópicos MIS 6 y 8). El registro de susceptibilidad magnética se encuentra atenuado por procesos de disolución de los óxidos de Fe-Ti. Abstract: The Fuentillejo maar is located in the Central Spanish Volcanic Field of Campo de Calatrava (Ciudad Real). Fuentillejo maar-lake was a closed system where up to 142 m depth of lacustrine sediments were deposited. Magnetic susceptibility and bulk density were measured by a GEOTEK multisensor core logger. The chronological framework was constructed based on radiocarbon and U-Th methods, as well as a detailed study of magnetic polarity, yielding an age model that covers last 350 ka. Intervals with terrigenous sediments correspond to high magnetic susceptibility values. These intervals were correlated with erosive events during the Last Glacial Maximum and the MIS 6 and 8 isotopic stages. The record of magnetic susceptibility is attenuated by disolution processes of Fe-Ti oxides.
Resumo:
La Universidad Politécnica de Madrid (UPM) y la Università degli Studi di Firenze (UniFi), bajo la coordinación técnica de AMPHOS21, participan desde 2009 en el proyecto de investigación “Estrategias de Monitorización de CO2 y otros gases en el estudio de Análogos Naturales”, financiado por la Fundación Ciudad de la Energía (CIUDEN) en el marco del Proyecto Compostilla OXYCFB300 (http://www.compostillaproject.eu), del Programa “European Energy Program for Recovery - EEPR”. El objetivo principal del proyecto fue el desarrollo y puesta a punto de metodologías de monitorización superficiales para su aplicación en el seguimiento y control de los emplazamientos donde se realice el almacenamiento geológico de CO2, analizando técnicas que permitan detectar y cuantificar las posibles fugas de CO2 a la atmósfera. Los trabajos se realizaron tanto en análogos naturales (españoles e italianos) como en la Planta de Desarrollo Tecnológico de Almacenamiento de CO2 de Hontomín. Las técnicas analizadas se centran en la medición de gases y aguas superficiales (de escorrentía y manantiales). En cuanto a la medición de gases se analizó el flujo de CO2 que emana desde el suelo a la atmósfera y la aplicabilidad de trazadores naturales (como el radón) para la detección e identificación de las fugas de CO2. En cuanto al análisis químico de las aguas se analizaron los datos geoquímicos e isotópicos y los gases disueltos en las aguas de los alrededores de la PDT de Hontomín, con objeto de determinar qué parámetros son los más apropiados para la detección de una posible migración del CO2 inyectado, o de la salmuera, a los ambientes superficiales. Las medidas de flujo de CO2 se realizaron con la técnica de la cámara de acúmulo. A pesar de ser una técnica desarrollada y aplicada en diferentes ámbitos científicos se estimó necesario adaptar un protocolo de medida y de análisis de datos a las características específicas de los proyectos de captura y almacenamiento de CO2 (CAC). Donde los flujos de CO2 esperados son bajos y en caso de producirse una fuga habrá que detectar pequeñas variaciones en los valores flujo con un “ruido” en la señal alto, debido a actividad biológica en el suelo. La medida de flujo de CO2 mediante la técnica de la cámara de acúmulo se puede realizar sin limpiar la superficie donde se coloca la cámara o limpiando y esperando al reequilibrio del flujo después de la distorsión al sistema. Sin embargo, los resultados obtenidos después de limpiar y esperar muestran menor dispersión, lo que nos indica que este procedimiento es el mejor para la monitorización de los complejos de almacenamiento geológico de CO2. El protocolo de medida resultante, utilizado para la obtención de la línea base de flujo de CO2 en Hontomín, sigue los siguiente pasos: a) con una espátula se prepara el punto de medición limpiando y retirando el recubrimiento vegetal o la primera capa compacta de suelo, b) se espera un tiempo para la realización de la medida de flujo, facilitando el reequilibrio del flujo del gas tras la alteración provocada en el suelo y c) se realiza la medida de flujo de CO2. Una vez realizada la medición de flujo de CO2, y detectada si existen zonas de anomalías, se debe estimar la cantidad de CO2 que se está escapando a la atmósfera (emanación total), con el objetivo de cuantificar la posible fuga. Existen un amplio rango de metodologías para realizar dicha estimación, siendo necesario entender cuáles son las más apropiadas para obtener el valor más representativo del sistema. En esta tesis se comparan seis técnicas estadísticas: media aritmética, estimador insegado de la media (aplicando la función de Sichel), remuestreo con reemplazamiento (bootstrap), separación en diferentes poblaciones mediante métodos gráficos y métodos basados en criterios de máxima verosimilitud, y la simulación Gaussiana secuencial. Para este análisis se realizaron ocho campañas de muestreo, tanto en la Planta de Desarrollo Tecnológico de Hontomón como en análogos naturales (italianos y españoles). Los resultados muestran que la simulación Gaussiana secuencial suele ser el método más preciso para realizar el cálculo, sin embargo, existen ocasiones donde otros métodos son más apropiados. Como consecuencia, se desarrolla un procedimiento de actuación para seleccionar el método que proporcione el mejor estimador. Este procedimiento consiste, en primer lugar, en realizar un análisis variográfico. Si existe una autocorrelación entre los datos, modelizada mediante el variograma, la mejor técnica para calcular la emanación total y su intervalo de confianza es la simulación Gaussiana secuencial (sGs). Si los datos son independientes se debe comprobar la distribución muestral, aplicando la media aritmética o el estimador insesgado de la media (Sichel) para datos normales o lognormales respectivamente. Cuando los datos no son normales o corresponden a una mezcla de poblaciones la mejor técnica de estimación es la de remuestreo con reemplazamiento (bootstrap). Siguiendo este procedimiento el máximo valor del intervalo de confianza estuvo en el orden del ±20/25%, con la mayoría de valores comprendidos entre ±3,5% y ±8%. La identificación de las diferentes poblaciones muestrales en los datos de flujo de CO2 puede ayudar a interpretar los resultados obtenidos, toda vez que esta distribución se ve afectada por la presencia de varios procesos geoquímicos como, por ejemplo, una fuente geológica o biológica del CO2. Así pues, este análisis puede ser una herramienta útil en el programa de monitorización, donde el principal objetivo es demostrar que no hay fugas desde el reservorio a la atmósfera y, si ocurren, detectarlas y cuantificarlas. Los resultados obtenidos muestran que el mejor proceso para realizar la separación de poblaciones está basado en criterios de máxima verosimilitud. Los procedimientos gráficos, aunque existen pautas para realizarlos, tienen un cierto grado de subjetividad en la interpretación de manera que los resultados son menos reproducibles. Durante el desarrollo de la tesis se analizó, en análogos naturales, la relación existente entre el CO2 y los isótopos del radón (222Rn y 220Rn), detectándose en todas las zonas de emisión de CO2 una relación positiva entre los valores de concentración de 222Rn en aire del suelo y el flujo de CO2. Comparando la concentración de 220Rn con el flujo de CO2 la relación no es tan clara, mientras que en algunos casos aumenta en otros se detecta una disminución, hecho que parece estar relacionado con la profundidad de origen del radón. Estos resultados confirmarían la posible aplicación de los isótopos del radón como trazadores del origen de los gases y su aplicación en la detección de fugas. Con respecto a la determinación de la línea base de flujo CO2 en la PDT de Hontomín, se realizaron mediciones con la cámara de acúmulo en las proximidades de los sondeos petrolíferos, perforados en los ochenta y denominados H-1, H-2, H-3 y H-4, en la zona donde se instalarán el sondeo de inyección (H-I) y el de monitorización (H-A) y en las proximidades de la falla sur. Desde noviembre de 2009 a abril de 2011 se realizaron siete campañas de muestreo, adquiriéndose más de 4.000 registros de flujo de CO2 con los que se determinó la línea base y su variación estacional. Los valores obtenidos fueron bajos (valores medios entre 5 y 13 g•m-2•d-1), detectándose pocos valores anómalos, principalmente en las proximidades del sondeo H-2. Sin embargo, estos valores no se pudieron asociar a una fuente profunda del CO2 y seguramente estuvieran más relacionados con procesos biológicos, como la respiración del suelo. No se detectaron valores anómalos cerca del sistema de fracturación (falla Ubierna), toda vez que en esta zona los valores de flujo son tan bajos como en el resto de puntos de muestreo. En este sentido, los valores de flujo de CO2 aparentemente están controlados por la actividad biológica, corroborado al obtenerse los menores valores durante los meses de otoño-invierno e ir aumentando en los periodos cálidos. Se calcularon dos grupos de valores de referencia, el primer grupo (UCL50) es 5 g•m-2•d-1 en las zonas no aradas en los meses de otoño-invierno y 3,5 y 12 g•m-2•d-1 en primavera-verano para zonas aradas y no aradas, respectivamente. El segundo grupo (UCL99) corresponde a 26 g•m-2•d- 1 durante los meses de otoño-invierno en las zonas no aradas y 34 y 42 g•m-2•d-1 para los meses de primavera-verano en zonas aradas y no aradas, respectivamente. Flujos mayores a estos valores de referencia podrían ser indicativos de una posible fuga durante la inyección y posterior a la misma. Los primeros datos geoquímicos e isotópicos de las aguas superficiales (de escorrentía y de manantiales) en el área de Hontomín–Huermeces fueron analizados. Los datos sugieren que las aguas estudiadas están relacionadas con aguas meteóricas con un circuito hidrogeológico superficial, caracterizadas por valores de TDS relativamente bajos (menor a 800 mg/L) y una fácie hidrogeoquímica de Ca2+(Mg2+)-HCO3 −. Algunas aguas de manantiales se caracterizan por concentraciones elevadas de NO3 − (concentraciones de hasta 123 mg/l), lo que sugiere una contaminación antropogénica. Se obtuvieron concentraciones anómalas de of Cl−, SO4 2−, As, B y Ba en dos manantiales cercanos a los sondeos petrolíferos y en el rio Ubierna, estos componentes son probablemente indicadores de una posible mezcla entre los acuíferos profundos y superficiales. El estudio de los gases disueltos en las aguas también evidencia el circuito superficial de las aguas. Estando, por lo general, dominado por la componente atmosférica (N2, O2 y Ar). Sin embargo, en algunos casos el gas predominante fue el CO2 (con concentraciones que llegan al 63% v/v), aunque los valores isotópicos del carbono (<-17,7 ‰) muestran que lo más probable es que esté relacionado con un origen biológico. Los datos geoquímicos e isotópicos de las aguas superficiales obtenidos en la zona de Hontomín se pueden considerar como el valor de fondo con el que comparar durante la fase operacional, la clausura y posterior a la clausura. En este sentido, la composición de los elementos mayoritarios y traza, la composición isotópica del carbono del CO2 disuelto y del TDIC (Carbono inorgánico disuelto) y algunos elementos traza se pueden considerar como parámetros adecuados para detectar la migración del CO2 a los ambientes superficiales. ABSTRACT Since 2009, a group made up of Universidad Politécnica de Madrid (UPM; Spain) and Università degli Studi Firenze (UniFi; Italy) has been taking part in a joint project called “Strategies for Monitoring CO2 and other Gases in Natural analogues”. The group was coordinated by AMPHOS XXI, a private company established in Barcelona. The Project was financially supported by Fundación Ciudad de la Energía (CIUDEN; Spain) as a part of the EC-funded OXYCFB300 project (European Energy Program for Recovery -EEPR-; www.compostillaproject.eu). The main objectives of the project were aimed to develop and optimize analytical methodologies to be applied at the surface to Monitor and Verify the feasibility of geologically stored carbon dioxide. These techniques were oriented to detect and quantify possible CO2 leakages to the atmosphere. Several investigations were made in natural analogues from Spain and Italy and in the Tecnchnological Development Plant for CO2 injection al Hontomín (Burgos, Spain). The studying techniques were mainly focused on the measurements of diffuse soil gases and surface and shallow waters. The soil-gas measurements included the determination of CO2 flux and the application to natural trace gases (e.g. radon) that may help to detect any CO2 leakage. As far as the water chemistry is concerned, geochemical and isotopic data related to surface and spring waters and dissolved gases in the area of the PDT of Hontomín were analyzed to determine the most suitable parameters to trace the migration of the injected CO2 into the near-surface environments. The accumulation chamber method was used to measure the diffuse emission of CO2 at the soil-atmosphere interface. Although this technique has widely been applied in different scientific areas, it was considered of the utmost importance to adapt the optimum methodology for measuring the CO2 soil flux and estimating the total CO2 output to the specific features of the site where CO2 is to be stored shortly. During the pre-injection phase CO2 fluxes are expected to be relatively low where in the intra- and post-injection phases, if leakages are to be occurring, small variation in CO2 flux might be detected when the CO2 “noise” is overcoming the biological activity of the soil (soil respiration). CO2 flux measurements by the accumulation chamber method could be performed without vegetation clearance or after vegetation clearance. However, the results obtained after clearance show less dispersion and this suggests that this procedure appears to be more suitable for monitoring CO2 Storage sites. The measurement protocol, applied for the determination of the CO2 flux baseline at Hontomín, has included the following steps: a) cleaning and removal of both the vegetal cover and top 2 cm of soil, b) waiting to reduce flux perturbation due to the soil removal and c) measuring the CO2 flux. Once completing the CO2 flux measurements and detected whether there were anomalies zones, the total CO2 output was estimated to quantify the amount of CO2 released to the atmosphere in each of the studied areas. There is a wide range of methodologies for the estimation of the CO2 output, which were applied to understand which one was the most representative. In this study six statistical methods are presented: arithmetic mean, minimum variances unbiased estimator, bootstrap resample, partitioning of data into different populations with a graphical and a maximum likelihood procedures, and sequential Gaussian simulation. Eight campaigns were carried out in the Hontomín CO2 Storage Technology Development Plant and in natural CO2 analogues. The results show that sequential Gaussian simulation is the most accurate method to estimate the total CO2 output and the confidential interval. Nevertheless, a variety of statistic methods were also used. As a consequence, an application procedure for selecting the most realistic method was developed. The first step to estimate the total emanation rate was the variogram analysis. If the relation among the data can be explained with the variogram, the best technique to calculate the total CO2 output and its confidence interval is the sequential Gaussian simulation method (sGs). If the data are independent, their distribution is to be analyzed. For normal and log-normal distribution the proper methods are the arithmetic mean and minimum variances unbiased estimator, respectively. If the data are not normal (log-normal) or are a mixture of different populations the best approach is the bootstrap resampling. According to these steps, the maximum confidence interval was about ±20/25%, with most of values between ±3.5% and ±8%. Partitioning of CO2 flux data into different populations may help to interpret the data as their distribution can be affected by different geochemical processes, e.g. geological or biological sources of CO2. Consequently, it may be an important tool in a monitoring CCS program, where the main goal is to demonstrate that there are not leakages from the reservoir to the atmosphere and, if occurring, to be able to detect and quantify it. Results show that the partitioning of populations is better performed by maximum likelihood criteria, since graphical procedures have a degree of subjectivity in the interpretation and results may not be reproducible. The relationship between CO2 flux and radon isotopes (222Rn and 220Rn) was studied in natural analogues. In all emissions zones, a positive relation between 222Rn and CO2 was observed. However, the relationship between activity of 220Rn and CO2 flux is not clear. In some cases the 220Rn activity indeed increased with the CO2 flux in other measurements a decrease was recognized. We can speculate that this effect was possibly related to the route (deep or shallow) of the radon source. These results may confirm the possible use of the radon isotopes as tracers for the gas origin and their application in the detection of leakages. With respect to the CO2 flux baseline at the TDP of Hontomín, soil flux measurements in the vicinity of oil boreholes, drilled in the eighties and named H-1 to H-4, and injection and monitoring wells were performed using an accumulation chamber. Seven surveys were carried out from November 2009 to summer 2011. More than 4,000 measurements were used to determine the baseline flux of CO2 and its seasonal variations. The measured values were relatively low (from 5 to 13 g•m-2•day-1) and few outliers were identified, mainly located close to the H-2 oil well. Nevertheless, these values cannot be associated to a deep source of CO2, being more likely related to biological processes, i.e. soil respiration. No anomalies were recognized close to the deep fault system (Ubierna Fault) detected by geophysical investigations. There, the CO2 flux is indeed as low as other measurement stations. CO2 fluxes appear to be controlled by the biological activity since the lowest values were recorded during autumn-winter seasons and they tend to increase in warm periods. Two reference CO2 flux values (UCL50 of 5 g•m-2•d-1 for non-ploughed areas in autumn-winter seasons and 3.5 and 12 g•m-2•d-1 for in ploughed and non-ploughed areas, respectively, in spring-summer time, and UCL99 of 26 g•m-2•d-1 for autumn-winter in not-ploughed areas and 34 and 42 g•m-2•d-1 for spring-summer in ploughed and not-ploughed areas, respectively, were calculated. Fluxes higher than these reference values could be indicative of possible leakage during the operational and post-closure stages of the storage project. The first geochemical and isotopic data related to surface and spring waters and dissolved gases in the area of Hontomín–Huermeces (Burgos, Spain) are presented and discussed. The chemical and features of the spring waters suggest that they are related to a shallow hydrogeological system as the concentration of the Total Dissolved Solids approaches 800 mg/L with a Ca2+(Mg2+)-HCO3 − composition, similar to that of the surface waters. Some spring waters are characterized by relatively high concentrations of NO3 − (up to 123 mg/L), unequivocally suggesting an anthropogenic source. Anomalous concentrations of Cl−, SO4 2−, As, B and Ba were measured in two springs, discharging a few hundred meters from the oil wells, and in the Rio Ubierna. These contents are possibly indicative of mixing processes between deep and shallow aquifers. The chemistry of the dissolved gases also evidences the shallow circuits of the Hontomín– Huermeces, mainly characterized by an atmospheric source as highlighted by the contents of N2, O2, Ar and their relative ratios. Nevertheless, significant concentrations (up to 63% by vol.) of isotopically negative CO2 (<−17.7‰ V-PDB) were found in some water samples, likely related to a biogenic source. The geochemical and isotopic data of the surface and spring waters in the surroundings of Hontomín can be considered as background values when intra- and post-injection monitoring programs will be carried out. In this respect, main and minor solutes, the isotopic carbon of dissolved CO2 and TDIC (Total Dissolved Inorganic Carbon) and selected trace elements can be considered as useful parameters to trace the migration of the injected CO2 into near-surface environments.
Resumo:
ELos biomarcadores (n-alcanos y ácidos n-alcanoicos) presentes en el registro sedimentario de la turbera de Las Conchas (Llanes, Asturias) han permitido identificar períodos de condiciones ambientales húmedas y secas a lo largo de 8.000 años cal BP que pueden ser extrapolados al resto de Europa. Para ello, se analizaron 78 muestras a lo largo de un sondeo de 3,20 m, empleando un cromatógrafo de gases con detector selectivo de masas. Las variaciones en el contenido de biomarcadores se relacionaron con la predominancia de especies de Sphagnum (típicas de condiciones de mayor humedad) o con especies propias de condiciones más secas, como especies de Ericacea (brezos). Se sugiere que los cambios en la distribución de la vegetación están relacionados con las condiciones paleohidrológicas y paleoambientales y, de esta manera, se distinguen cinco períodos secos alternados con cinco períodos húmedos que no están necesariamente unidos a cambios en la temperatura. ABSTRACT Biomarkers (n-alkanes and n-alkanoic acids) present in the sedimentary record of Las Conchas peat bog (Llanes, Asturias) allowed the identification of 5 dry and humid periods in the last 8,000 years cal BP which can be extrapolated to the rest of Europe. For this purpose, 78 samples were analyzed along a core of 3.2 m deep using a gas chromatograph equipped with a selective mass detector. Variations in the biomarker content are related to the predominance of Sphagnum species (typical of humid conditions) or other species typical of dryer conditions, such as Ericacea (heather). This suggests that changes in the distribution of the vegetation were related to palaeohydrological and palaeoenvironmental conditions and, thus, we may distinguish five dry periods alternating with five humid periods which are not necessarily linked to variations in temperature.
Resumo:
Mediante técnicas geofísicas (S.E.V.) y la caracterización hidroquímica de las aguas (determinación de aniones predominantes), se han obtenido datos sobre la estratigrafía y el funcionamiento de la Laguna efímera de El Hito (Cuenca), situada sobre yesos, y próxima al vecino emplazamiento del Almacén Temporal Centralizado (ATC) en Villar de Cañas. Asimismo, a partir del estudio del registro sedimentario de un sondeo manual en el que se recogieron muestras en las que se determinaron los compuestos orgánicos se realizó la reconstrucción de las condiciones paleoambientales. ABSTRACT Through geophysics techniques like vertical and electrical drillings, and hydrochemistry characterization of the waters (development of main anions), it has been obtained some data related to the stratigraphy and performance of the ephemeral lake in “El Hito”, Cuenca, Spain. El Hito´s lake is placed on a basin of plasters and it is next to site of the Centralized Temporary Storage in Villar de Cañas, Cuenca, Spain. Additionally, manual drillings will be conducted by collecting samples to determine the organic compounds in order to carry out a reconstruction of the paleoenvironmental conditions.
Resumo:
El objetivo del presente trabajo es evaluar los métodos de prospección geofísica que, además de servir para la caracterización hidrológica superficial en una finca de investigación vitivinícola, alcance la mayor resolutividad para la localización de contaminantes agrícolas. Con este fin se ha realizado, en primer lugar una revisión teórica de los métodos de prospección geofísica que, a priori, pueden considerarse más adecuados por cuanto reflejan en mayor medida las variaciones físicas derivadas de los efluentes químicos agrícolas de baja salinidad. Para alcanzar el objetivo del proyecto se ha realizado una serie de perfiles eléctricos de Tomografía Eléctrica y Polarización Inducida, además de un Sondeo de Resonancia Magnética Nuclear Se han obtenido mediante las técnicas tomográficas una caracterización del subsuelo para la determinación de la litología en profundidad con variaciones laterales bruscas, así como la porosidad de estas formaciones. La sección de cargabilidad (PI) ha permitido la detección de iones disueltos en el agua subterránea. Combinando estos resultados, con los obtenidos por Resonancia Magnética en la localización de las masas de agua y la permeabilidad de las rocas circundantes, somos capaces de determinar los agentes contaminantes así como su movilidad y distribución. La conclusión es que el método que resulta más efectivo para detección de contaminantes sería la combinación de todos ellos, puesto que son complementarios entre sí. ABSTRACT The main goal of this project is to evaluate the methods of geophysical prospection, also serving for surface hydrologic characterization in a research farm wine, reaching the most resoluteness for locating agricultural pollutants. To this end was made, first a theoretical review of geophysical prospecting methods that may be considered more suitable, a priori, as they reflect more closely the physical changes resulting from agricultural chemical measure low salinity. Reaching the objective of the project has made a series of Electrical Tomography profiles (ET) and Induced Polarization profiles (IP) also has conducted a drilling of Nuclear Magnetic Resonance (RMN). It was obtained by tomography characterization techniques for determining subsurface litho logy in depth and abrupt lateral variations, as well as the porosity of these formations. The chargeability Section (IP) has enabled detection of ions dissolved in groundwater. Combining these results with those that was obtained by Nuclear Magnetic Resonance with the location of groundwater body and the surrounding rocks permeability, we are able to determine the pollutants and the mobility and distribution of contaminants. The bottom line is the method more effective for detection of contaminants would be the combination of all of them because they are complementary in the environmental study.
Resumo:
Se realiza un estudio detallado del episodio cálido MIS 5 en la zona sureste de la Península Ibérica. Se realiza la reconstrucción paleoambiental a partir del estudio polínico y biomarcadores de un sondeo perforado en la costa de Almería. La cronología se estableció a partir del método de racemizaciónd e aminoácidos.Landwards of a MIS5 bar, a borehole core (SRA) was analyzed to establish the relationship between the lagoonal record and the raised beach deposits in the surroundings of the Antas river mouth and to reconstruct the Pleistocene palaeoenvironmental evolution 5 of the southern Mediterranean coast of the Iberian Peninsula. 63 samples were recovered for amino acid racemization dating, 86 samples for sedimentological and paleontological determination, 37 samples for pollen identification and 54 for biomarker analysis. AAR revealed that the borehole record contains MIS11, MIS6 and MIS5 deposits, the latter extensively represented. During the end of MIS6 and MIS5, a sand 10 barrier developed and created a shallow lagoon with alternating terrestrial inputs this process being common in other Mediterranean realms. Litho- and biofacies allowed the identification of distinct paleoenvironments through time, with the presence of a lagoonal environment alternating with alluvial fan progradation. Biomarkers indicated constant input from terrestrial plants, together with variable development of aquatic 15 macrophytes. The palynological content allowed the reconstruction of the paleoclimatological conditions during MIS6 and 5, with evidence of seven scenarios characterized by alternating arid and relatively humid conditions
Resumo:
Los sistemas empotrados han sido concebidos tradicionalmente como sistemas de procesamiento específicos que realizan una tarea fija durante toda su vida útil. Para cumplir con requisitos estrictos de coste, tamaño y peso, el equipo de diseño debe optimizar su funcionamiento para condiciones muy específicas. Sin embargo, la demanda de mayor versatilidad, un funcionamiento más inteligente y, en definitiva, una mayor capacidad de procesamiento comenzaron a chocar con estas limitaciones, agravado por la incertidumbre asociada a entornos de operación cada vez más dinámicos donde comenzaban a ser desplegados progresivamente. Esto trajo como resultado una necesidad creciente de que los sistemas pudieran responder por si solos a eventos inesperados en tiempo diseño tales como: cambios en las características de los datos de entrada y el entorno del sistema en general; cambios en la propia plataforma de cómputo, por ejemplo debido a fallos o defectos de fabricación; y cambios en las propias especificaciones funcionales causados por unos objetivos del sistema dinámicos y cambiantes. Como consecuencia, la complejidad del sistema aumenta, pero a cambio se habilita progresivamente una capacidad de adaptación autónoma sin intervención humana a lo largo de la vida útil, permitiendo que tomen sus propias decisiones en tiempo de ejecución. Éstos sistemas se conocen, en general, como sistemas auto-adaptativos y tienen, entre otras características, las de auto-configuración, auto-optimización y auto-reparación. Típicamente, la parte soft de un sistema es mayoritariamente la única utilizada para proporcionar algunas capacidades de adaptación a un sistema. Sin embargo, la proporción rendimiento/potencia en dispositivos software como microprocesadores en muchas ocasiones no es adecuada para sistemas empotrados. En este escenario, el aumento resultante en la complejidad de las aplicaciones está siendo abordado parcialmente mediante un aumento en la complejidad de los dispositivos en forma de multi/many-cores; pero desafortunadamente, esto hace que el consumo de potencia también aumente. Además, la mejora en metodologías de diseño no ha sido acorde como para poder utilizar toda la capacidad de cómputo disponible proporcionada por los núcleos. Por todo ello, no se están satisfaciendo adecuadamente las demandas de cómputo que imponen las nuevas aplicaciones. La solución tradicional para mejorar la proporción rendimiento/potencia ha sido el cambio a unas especificaciones hardware, principalmente usando ASICs. Sin embargo, los costes de un ASIC son altamente prohibitivos excepto en algunos casos de producción en masa y además la naturaleza estática de su estructura complica la solución a las necesidades de adaptación. Los avances en tecnologías de fabricación han hecho que la FPGA, una vez lenta y pequeña, usada como glue logic en sistemas mayores, haya crecido hasta convertirse en un dispositivo de cómputo reconfigurable de gran potencia, con una cantidad enorme de recursos lógicos computacionales y cores hardware empotrados de procesamiento de señal y de propósito general. Sus capacidades de reconfiguración han permitido combinar la flexibilidad propia del software con el rendimiento del procesamiento en hardware, lo que tiene la potencialidad de provocar un cambio de paradigma en arquitectura de computadores, pues el hardware no puede ya ser considerado más como estático. El motivo es que como en el caso de las FPGAs basadas en tecnología SRAM, la reconfiguración parcial dinámica (DPR, Dynamic Partial Reconfiguration) es posible. Esto significa que se puede modificar (reconfigurar) un subconjunto de los recursos computacionales en tiempo de ejecución mientras el resto permanecen activos. Además, este proceso de reconfiguración puede ser ejecutado internamente por el propio dispositivo. El avance tecnológico en dispositivos hardware reconfigurables se encuentra recogido bajo el campo conocido como Computación Reconfigurable (RC, Reconfigurable Computing). Uno de los campos de aplicación más exóticos y menos convencionales que ha posibilitado la computación reconfigurable es el conocido como Hardware Evolutivo (EHW, Evolvable Hardware), en el cual se encuentra enmarcada esta tesis. La idea principal del concepto consiste en convertir hardware que es adaptable a través de reconfiguración en una entidad evolutiva sujeta a las fuerzas de un proceso evolutivo inspirado en el de las especies biológicas naturales, que guía la dirección del cambio. Es una aplicación más del campo de la Computación Evolutiva (EC, Evolutionary Computation), que comprende una serie de algoritmos de optimización global conocidos como Algoritmos Evolutivos (EA, Evolutionary Algorithms), y que son considerados como algoritmos universales de resolución de problemas. En analogía al proceso biológico de la evolución, en el hardware evolutivo el sujeto de la evolución es una población de circuitos que intenta adaptarse a su entorno mediante una adecuación progresiva generación tras generación. Los individuos pasan a ser configuraciones de circuitos en forma de bitstreams caracterizados por descripciones de circuitos reconfigurables. Seleccionando aquellos que se comportan mejor, es decir, que tienen una mejor adecuación (o fitness) después de ser evaluados, y usándolos como padres de la siguiente generación, el algoritmo evolutivo crea una nueva población hija usando operadores genéticos como la mutación y la recombinación. Según se van sucediendo generaciones, se espera que la población en conjunto se aproxime a la solución óptima al problema de encontrar una configuración del circuito adecuada que satisfaga las especificaciones. El estado de la tecnología de reconfiguración después de que la familia de FPGAs XC6200 de Xilinx fuera retirada y reemplazada por las familias Virtex a finales de los 90, supuso un gran obstáculo para el avance en hardware evolutivo; formatos de bitstream cerrados (no conocidos públicamente); dependencia de herramientas del fabricante con soporte limitado de DPR; una velocidad de reconfiguración lenta; y el hecho de que modificaciones aleatorias del bitstream pudieran resultar peligrosas para la integridad del dispositivo, son algunas de estas razones. Sin embargo, una propuesta a principios de los años 2000 permitió mantener la investigación en el campo mientras la tecnología de DPR continuaba madurando, el Circuito Virtual Reconfigurable (VRC, Virtual Reconfigurable Circuit). En esencia, un VRC en una FPGA es una capa virtual que actúa como un circuito reconfigurable de aplicación específica sobre la estructura nativa de la FPGA que reduce la complejidad del proceso reconfiguración y aumenta su velocidad (comparada con la reconfiguración nativa). Es un array de nodos computacionales especificados usando descripciones HDL estándar que define recursos reconfigurables ad-hoc: multiplexores de rutado y un conjunto de elementos de procesamiento configurables, cada uno de los cuales tiene implementadas todas las funciones requeridas, que pueden seleccionarse a través de multiplexores tal y como ocurre en una ALU de un microprocesador. Un registro grande actúa como memoria de configuración, por lo que la reconfiguración del VRC es muy rápida ya que tan sólo implica la escritura de este registro, el cual controla las señales de selección del conjunto de multiplexores. Sin embargo, esta capa virtual provoca: un incremento de área debido a la implementación simultánea de cada función en cada nodo del array más los multiplexores y un aumento del retardo debido a los multiplexores, reduciendo la frecuencia de funcionamiento máxima. La naturaleza del hardware evolutivo, capaz de optimizar su propio comportamiento computacional, le convierten en un buen candidato para avanzar en la investigación sobre sistemas auto-adaptativos. Combinar un sustrato de cómputo auto-reconfigurable capaz de ser modificado dinámicamente en tiempo de ejecución con un algoritmo empotrado que proporcione una dirección de cambio, puede ayudar a satisfacer los requisitos de adaptación autónoma de sistemas empotrados basados en FPGA. La propuesta principal de esta tesis está por tanto dirigida a contribuir a la auto-adaptación del hardware de procesamiento de sistemas empotrados basados en FPGA mediante hardware evolutivo. Esto se ha abordado considerando que el comportamiento computacional de un sistema puede ser modificado cambiando cualquiera de sus dos partes constitutivas: una estructura hard subyacente y un conjunto de parámetros soft. De esta distinción, se derivan dos lineas de trabajo. Por un lado, auto-adaptación paramétrica, y por otro auto-adaptación estructural. El objetivo perseguido en el caso de la auto-adaptación paramétrica es la implementación de técnicas de optimización evolutiva complejas en sistemas empotrados con recursos limitados para la adaptación paramétrica online de circuitos de procesamiento de señal. La aplicación seleccionada como prueba de concepto es la optimización para tipos muy específicos de imágenes de los coeficientes de los filtros de transformadas wavelet discretas (DWT, DiscreteWavelet Transform), orientada a la compresión de imágenes. Por tanto, el objetivo requerido de la evolución es una compresión adaptativa y más eficiente comparada con los procedimientos estándar. El principal reto radica en reducir la necesidad de recursos de supercomputación para el proceso de optimización propuesto en trabajos previos, de modo que se adecúe para la ejecución en sistemas empotrados. En cuanto a la auto-adaptación estructural, el objetivo de la tesis es la implementación de circuitos auto-adaptativos en sistemas evolutivos basados en FPGA mediante un uso eficiente de sus capacidades de reconfiguración nativas. En este caso, la prueba de concepto es la evolución de tareas de procesamiento de imagen tales como el filtrado de tipos desconocidos y cambiantes de ruido y la detección de bordes en la imagen. En general, el objetivo es la evolución en tiempo de ejecución de tareas de procesamiento de imagen desconocidas en tiempo de diseño (dentro de un cierto grado de complejidad). En este caso, el objetivo de la propuesta es la incorporación de DPR en EHW para evolucionar la arquitectura de un array sistólico adaptable mediante reconfiguración cuya capacidad de evolución no había sido estudiada previamente. Para conseguir los dos objetivos mencionados, esta tesis propone originalmente una plataforma evolutiva que integra un motor de adaptación (AE, Adaptation Engine), un motor de reconfiguración (RE, Reconfiguration Engine) y un motor computacional (CE, Computing Engine) adaptable. El el caso de adaptación paramétrica, la plataforma propuesta está caracterizada por: • un CE caracterizado por un núcleo de procesamiento hardware de DWT adaptable mediante registros reconfigurables que contienen los coeficientes de los filtros wavelet • un algoritmo evolutivo como AE que busca filtros wavelet candidatos a través de un proceso de optimización paramétrica desarrollado específicamente para sistemas caracterizados por recursos de procesamiento limitados • un nuevo operador de mutación simplificado para el algoritmo evolutivo utilizado, que junto con un mecanismo de evaluación rápida de filtros wavelet candidatos derivado de la literatura actual, asegura la viabilidad de la búsqueda evolutiva asociada a la adaptación de wavelets. En el caso de adaptación estructural, la plataforma propuesta toma la forma de: • un CE basado en una plantilla de array sistólico reconfigurable de 2 dimensiones compuesto de nodos de procesamiento reconfigurables • un algoritmo evolutivo como AE que busca configuraciones candidatas del array usando un conjunto de funcionalidades de procesamiento para los nodos disponible en una biblioteca accesible en tiempo de ejecución • un RE hardware que explota la capacidad de reconfiguración nativa de las FPGAs haciendo un uso eficiente de los recursos reconfigurables del dispositivo para cambiar el comportamiento del CE en tiempo de ejecución • una biblioteca de elementos de procesamiento reconfigurables caracterizada por bitstreams parciales independientes de la posición, usados como el conjunto de configuraciones disponibles para los nodos de procesamiento del array Las contribuciones principales de esta tesis se pueden resumir en la siguiente lista: • Una plataforma evolutiva basada en FPGA para la auto-adaptación paramétrica y estructural de sistemas empotrados compuesta por un motor computacional (CE), un motor de adaptación (AE) evolutivo y un motor de reconfiguración (RE). Esta plataforma se ha desarrollado y particularizado para los casos de auto-adaptación paramétrica y estructural. • En cuanto a la auto-adaptación paramétrica, las contribuciones principales son: – Un motor computacional adaptable mediante registros que permite la adaptación paramétrica de los coeficientes de una implementación hardware adaptativa de un núcleo de DWT. – Un motor de adaptación basado en un algoritmo evolutivo desarrollado específicamente para optimización numérica, aplicada a los coeficientes de filtros wavelet en sistemas empotrados con recursos limitados. – Un núcleo IP de DWT auto-adaptativo en tiempo de ejecución para sistemas empotrados que permite la optimización online del rendimiento de la transformada para compresión de imágenes en entornos específicos de despliegue, caracterizados por tipos diferentes de señal de entrada. – Un modelo software y una implementación hardware de una herramienta para la construcción evolutiva automática de transformadas wavelet específicas. • Por último, en cuanto a la auto-adaptación estructural, las contribuciones principales son: – Un motor computacional adaptable mediante reconfiguración nativa de FPGAs caracterizado por una plantilla de array sistólico en dos dimensiones de nodos de procesamiento reconfigurables. Es posible mapear diferentes tareas de cómputo en el array usando una biblioteca de elementos sencillos de procesamiento reconfigurables. – Definición de una biblioteca de elementos de procesamiento apropiada para la síntesis autónoma en tiempo de ejecución de diferentes tareas de procesamiento de imagen. – Incorporación eficiente de la reconfiguración parcial dinámica (DPR) en sistemas de hardware evolutivo, superando los principales inconvenientes de propuestas previas como los circuitos reconfigurables virtuales (VRCs). En este trabajo también se comparan originalmente los detalles de implementación de ambas propuestas. – Una plataforma tolerante a fallos, auto-curativa, que permite la recuperación funcional online en entornos peligrosos. La plataforma ha sido caracterizada desde una perspectiva de tolerancia a fallos: se proponen modelos de fallo a nivel de CLB y de elemento de procesamiento, y usando el motor de reconfiguración, se hace un análisis sistemático de fallos para un fallo en cada elemento de procesamiento y para dos fallos acumulados. – Una plataforma con calidad de filtrado dinámica que permite la adaptación online a tipos de ruido diferentes y diferentes comportamientos computacionales teniendo en cuenta los recursos de procesamiento disponibles. Por un lado, se evolucionan filtros con comportamientos no destructivos, que permiten esquemas de filtrado en cascada escalables; y por otro, también se evolucionan filtros escalables teniendo en cuenta requisitos computacionales de filtrado cambiantes dinámicamente. Este documento está organizado en cuatro partes y nueve capítulos. La primera parte contiene el capítulo 1, una introducción y motivación sobre este trabajo de tesis. A continuación, el marco de referencia en el que se enmarca esta tesis se analiza en la segunda parte: el capítulo 2 contiene una introducción a los conceptos de auto-adaptación y computación autonómica (autonomic computing) como un campo de investigación más general que el muy específico de este trabajo; el capítulo 3 introduce la computación evolutiva como la técnica para dirigir la adaptación; el capítulo 4 analiza las plataformas de computación reconfigurables como la tecnología para albergar hardware auto-adaptativo; y finalmente, el capítulo 5 define, clasifica y hace un sondeo del campo del hardware evolutivo. Seguidamente, la tercera parte de este trabajo contiene la propuesta, desarrollo y resultados obtenidos: mientras que el capítulo 6 contiene una declaración de los objetivos de la tesis y la descripción de la propuesta en su conjunto, los capítulos 7 y 8 abordan la auto-adaptación paramétrica y estructural, respectivamente. Finalmente, el capítulo 9 de la parte 4 concluye el trabajo y describe caminos de investigación futuros. ABSTRACT Embedded systems have traditionally been conceived to be specific-purpose computers with one, fixed computational task for their whole lifetime. Stringent requirements in terms of cost, size and weight forced designers to highly optimise their operation for very specific conditions. However, demands for versatility, more intelligent behaviour and, in summary, an increased computing capability began to clash with these limitations, intensified by the uncertainty associated to the more dynamic operating environments where they were progressively being deployed. This brought as a result an increasing need for systems to respond by themselves to unexpected events at design time, such as: changes in input data characteristics and system environment in general; changes in the computing platform itself, e.g., due to faults and fabrication defects; and changes in functional specifications caused by dynamically changing system objectives. As a consequence, systems complexity is increasing, but in turn, autonomous lifetime adaptation without human intervention is being progressively enabled, allowing them to take their own decisions at run-time. This type of systems is known, in general, as selfadaptive, and are able, among others, of self-configuration, self-optimisation and self-repair. Traditionally, the soft part of a system has mostly been so far the only place to provide systems with some degree of adaptation capabilities. However, the performance to power ratios of software driven devices like microprocessors are not adequate for embedded systems in many situations. In this scenario, the resulting rise in applications complexity is being partly addressed by rising devices complexity in the form of multi and many core devices; but sadly, this keeps on increasing power consumption. Besides, design methodologies have not been improved accordingly to completely leverage the available computational power from all these cores. Altogether, these factors make that the computing demands new applications pose are not being wholly satisfied. The traditional solution to improve performance to power ratios has been the switch to hardware driven specifications, mainly using ASICs. However, their costs are highly prohibitive except for some mass production cases and besidesthe static nature of its structure complicates the solution to the adaptation needs. The advancements in fabrication technologies have made that the once slow, small FPGA used as glue logic in bigger systems, had grown to be a very powerful, reconfigurable computing device with a vast amount of computational logic resources and embedded, hardened signal and general purpose processing cores. Its reconfiguration capabilities have enabled software-like flexibility to be combined with hardware-like computing performance, which has the potential to cause a paradigm shift in computer architecture since hardware cannot be considered as static anymore. This is so, since, as is the case with SRAMbased FPGAs, Dynamic Partial Reconfiguration (DPR) is possible. This means that subsets of the FPGA computational resources can now be changed (reconfigured) at run-time while the rest remains active. Besides, this reconfiguration process can be triggered internally by the device itself. This technological boost in reconfigurable hardware devices is actually covered under the field known as Reconfigurable Computing. One of the most exotic fields of application that Reconfigurable Computing has enabled is the known as Evolvable Hardware (EHW), in which this dissertation is framed. The main idea behind the concept is turning hardware that is adaptable through reconfiguration into an evolvable entity subject to the forces of an evolutionary process, inspired by that of natural, biological species, that guides the direction of change. It is yet another application of the field of Evolutionary Computation (EC), which comprises a set of global optimisation algorithms known as Evolutionary Algorithms (EAs), considered as universal problem solvers. In analogy to the biological process of evolution, in EHW the subject of evolution is a population of circuits that tries to get adapted to its surrounding environment by progressively getting better fitted to it generation after generation. Individuals become circuit configurations representing bitstreams that feature reconfigurable circuit descriptions. By selecting those that behave better, i.e., with a higher fitness value after being evaluated, and using them as parents of the following generation, the EA creates a new offspring population by using so called genetic operators like mutation and recombination. As generations succeed one another, the whole population is expected to approach to the optimum solution to the problem of finding an adequate circuit configuration that fulfils system objectives. The state of reconfiguration technology after Xilinx XC6200 FPGA family was discontinued and replaced by Virtex families in the late 90s, was a major obstacle for advancements in EHW; closed (non publicly known) bitstream formats; dependence on manufacturer tools with highly limiting support of DPR; slow speed of reconfiguration; and random bitstream modifications being potentially hazardous for device integrity, are some of these reasons. However, a proposal in the first 2000s allowed to keep investigating in this field while DPR technology kept maturing, the Virtual Reconfigurable Circuit (VRC). In essence, a VRC in an FPGA is a virtual layer acting as an application specific reconfigurable circuit on top of an FPGA fabric that reduces the complexity of the reconfiguration process and increases its speed (compared to native reconfiguration). It is an array of computational nodes specified using standard HDL descriptions that define ad-hoc reconfigurable resources; routing multiplexers and a set of configurable processing elements, each one containing all the required functions, which are selectable through functionality multiplexers as in microprocessor ALUs. A large register acts as configuration memory, so VRC reconfiguration is very fast given it only involves writing this register, which drives the selection signals of the set of multiplexers. However, large overheads are introduced by this virtual layer; an area overhead due to the simultaneous implementation of every function in every node of the array plus the multiplexers, and a delay overhead due to the multiplexers, which also reduces maximum frequency of operation. The very nature of Evolvable Hardware, able to optimise its own computational behaviour, makes it a good candidate to advance research in self-adaptive systems. Combining a selfreconfigurable computing substrate able to be dynamically changed at run-time with an embedded algorithm that provides a direction for change, can help fulfilling requirements for autonomous lifetime adaptation of FPGA-based embedded systems. The main proposal of this thesis is hence directed to contribute to autonomous self-adaptation of the underlying computational hardware of FPGA-based embedded systems by means of Evolvable Hardware. This is tackled by considering that the computational behaviour of a system can be modified by changing any of its two constituent parts: an underlying hard structure and a set of soft parameters. Two main lines of work derive from this distinction. On one side, parametric self-adaptation and, on the other side, structural self-adaptation. The goal pursued in the case of parametric self-adaptation is the implementation of complex evolutionary optimisation techniques in resource constrained embedded systems for online parameter adaptation of signal processing circuits. The application selected as proof of concept is the optimisation of Discrete Wavelet Transforms (DWT) filters coefficients for very specific types of images, oriented to image compression. Hence, adaptive and improved compression efficiency, as compared to standard techniques, is the required goal of evolution. The main quest lies in reducing the supercomputing resources reported in previous works for the optimisation process in order to make it suitable for embedded systems. Regarding structural self-adaptation, the thesis goal is the implementation of self-adaptive circuits in FPGA-based evolvable systems through an efficient use of native reconfiguration capabilities. In this case, evolution of image processing tasks such as filtering of unknown and changing types of noise and edge detection are the selected proofs of concept. In general, evolving unknown image processing behaviours (within a certain complexity range) at design time is the required goal. In this case, the mission of the proposal is the incorporation of DPR in EHW to evolve a systolic array architecture adaptable through reconfiguration whose evolvability had not been previously checked. In order to achieve the two stated goals, this thesis originally proposes an evolvable platform that integrates an Adaptation Engine (AE), a Reconfiguration Engine (RE) and an adaptable Computing Engine (CE). In the case of parametric adaptation, the proposed platform is characterised by: • a CE featuring a DWT hardware processing core adaptable through reconfigurable registers that holds wavelet filters coefficients • an evolutionary algorithm as AE that searches for candidate wavelet filters through a parametric optimisation process specifically developed for systems featured by scarce computing resources • a new, simplified mutation operator for the selected EA, that together with a fast evaluation mechanism of candidate wavelet filters derived from existing literature, assures the feasibility of the evolutionary search involved in wavelets adaptation In the case of structural adaptation, the platform proposal takes the form of: • a CE based on a reconfigurable 2D systolic array template composed of reconfigurable processing nodes • an evolutionary algorithm as AE that searches for candidate configurations of the array using a set of computational functionalities for the nodes available in a run time accessible library • a hardware RE that exploits native DPR capabilities of FPGAs and makes an efficient use of the available reconfigurable resources of the device to change the behaviour of the CE at run time • a library of reconfigurable processing elements featured by position-independent partial bitstreams used as the set of available configurations for the processing nodes of the array Main contributions of this thesis can be summarised in the following list. • An FPGA-based evolvable platform for parametric and structural self-adaptation of embedded systems composed of a Computing Engine, an evolutionary Adaptation Engine and a Reconfiguration Engine. This platform is further developed and tailored for both parametric and structural self-adaptation. • Regarding parametric self-adaptation, main contributions are: – A CE adaptable through reconfigurable registers that enables parametric adaptation of the coefficients of an adaptive hardware implementation of a DWT core. – An AE based on an Evolutionary Algorithm specifically developed for numerical optimisation applied to wavelet filter coefficients in resource constrained embedded systems. – A run-time self-adaptive DWT IP core for embedded systems that allows for online optimisation of transform performance for image compression for specific deployment environments characterised by different types of input signals. – A software model and hardware implementation of a tool for the automatic, evolutionary construction of custom wavelet transforms. • Lastly, regarding structural self-adaptation, main contributions are: – A CE adaptable through native FPGA fabric reconfiguration featured by a two dimensional systolic array template of reconfigurable processing nodes. Different processing behaviours can be automatically mapped in the array by using a library of simple reconfigurable processing elements. – Definition of a library of such processing elements suited for autonomous runtime synthesis of different image processing tasks. – Efficient incorporation of DPR in EHW systems, overcoming main drawbacks from the previous approach of virtual reconfigurable circuits. Implementation details for both approaches are also originally compared in this work. – A fault tolerant, self-healing platform that enables online functional recovery in hazardous environments. The platform has been characterised from a fault tolerance perspective: fault models at FPGA CLB level and processing elements level are proposed, and using the RE, a systematic fault analysis for one fault in every processing element and for two accumulated faults is done. – A dynamic filtering quality platform that permits on-line adaptation to different types of noise and different computing behaviours considering the available computing resources. On one side, non-destructive filters are evolved, enabling scalable cascaded filtering schemes; and on the other, size-scalable filters are also evolved considering dynamically changing computational filtering requirements. This dissertation is organized in four parts and nine chapters. First part contains chapter 1, the introduction to and motivation of this PhD work. Following, the reference framework in which this dissertation is framed is analysed in the second part: chapter 2 features an introduction to the notions of self-adaptation and autonomic computing as a more general research field to the very specific one of this work; chapter 3 introduces evolutionary computation as the technique to drive adaptation; chapter 4 analyses platforms for reconfigurable computing as the technology to hold self-adaptive hardware; and finally chapter 5 defines, classifies and surveys the field of Evolvable Hardware. Third part of the work follows, which contains the proposal, development and results obtained: while chapter 6 contains an statement of the thesis goals and the description of the proposal as a whole, chapters 7 and 8 address parametric and structural self-adaptation, respectively. Finally, chapter 9 in part 4 concludes the work and describes future research paths.
Resumo:
La Turbera de Padul, en la Provincia de Granada, ofrece unas posibilidades de estudio muy atractivas desde el punto de vista de la reconstrucción paleoambiental. Se trata de una fosa tectónica subsidente de naturaleza detrítica, a cuyo techo aparecen alternantes niveles de turba. El sondeo, de 107 metros, se realizó en un punto donde los estratos de turba aparecen a mayor profundidad, lo que permite obtener un registro geoquímico orgánico con mucho detalle con una antigüedad de hasta 1Ma. Se tomaron muestras cada 20 cm para el análisis de biomarcadores. Estos biomarcadores se obtuvieron mediante extracción Soxhlet, posterior separación de fracciones de diferente polaridad mediante Cromatografía en Columna, con Gel de Sílice y Alúmina, y posteriormente el análisis e identificación por Cromatografía de Gases - Espectrometría de masas, con confirmación de los compuestos químicos identificados por comparación con Bibliotecas de Espectros de Masas. La datación del sondeo se realizó utilizando distintos métodos como datación por 14C, U/Th, y datación por racemización de aminoácidos. Los resultados dataron el muro del sondeo con una antigüedad de 1 millón de años. El estudio de los biomarcadores ha permitido identificar episodios con distintas características en un escenario complejo, como es la Turbera de Padul, donde el aporte de agua por fusión nival complica la interpretación paleoambiental, y es la responsable de la existencia de la lámina de agua en la turbera en periodos secos con temperaturas elevadas. Se han identificado series de n-alcanos, de n-metilcetonas y series de nalcanoles, que han permitido identificar la aportación de materia orgánica de distintas fuentes al sedimento y por tanto la interpretación paleoambiental. La identificación de diterpenoides fenólicos (cis-Totatol, trans-Totarol y Ferruginol) han permitido identificar episodios de clima templado y húmedo con proliferación de cupresáceas, y precipitaciones abundantes. Por otro lado, se han identificado triterpenoides como el Friedelan-3-ona (Friedelin) y el A-norfriedel-8en-10-ona, cuya relación como precursor (Friedelin) y producto (A-norfriedel-8en-10-ona) ha permitido identificar episodios con fluctuaciones del espesor de la lámina de agua y aporte de material vegetal. ABSTRACT The Bog of Padul, in the province of Granada, offers very attractive possibilities for the study of paleoenvironmental reconstruction. It is a subsiding graben of detrital nature, whose upper part appear alternating peat levels. The core of 107 meters, obtained from a borehole drilled in a place where the layers of peat appear deeper, allowing to obtain organic geochemist information along the last 1 million years. Every 20 cm samples for biomarkers analysis were taken. These biomarkers were obtained by Soxhlet extraction, subsequent separation of fractions of different polarity by column chromatography with silica gel and alumina, and then analyzed and identified by gas chromatography - mass spectrometry, with confirmation of the chemicals identified by comparison to mass spectral libraries. The dating of the core was conducted using different methods such as 14C dating, U/Th, and amino acid racemization dating. The results dated the base of the core to be 1 million years old. The study has identified biomarkers episodes with different characteristics in a complex scenario, such as the Bog of Padul, where the contribution of snowmelt water complicates the paleoenvironmental interpretation, and is responsible for the existence of a sheet of water in dry periods with high temperatures. There have been identified series of n-alkanes, n-methyl ketones and series of n-alkanols that have shown the contribution of different organic matter sources to the sediment and therefore allowed to paleo interpretation. The identification of phenolic diterpenoids (cis-Totatol, trans-Totarol and Ferruginol) have identified episodes of mild and humid climate with proliferation of Cupressaceae, and abundant rainfall. In addition, triterpenoids have been identified, as the friedelan-3-one (friedelin) and the A-norfriedel-8en-10-one, whose relationship as precursor (friedelin) and product (A-norfriedel-8en-10-one) has identified episodes with fluctuations on the thickness of the sheet of water and supply of plant material debris.
Resumo:
Esta tesis doctoral tiene como objeto el acercamiento histórico-constructivo a la realidad material de las fortificaciones edificadas en el centro de la Península Ibérica durante los primeros siglos de la Edad Media. El marco geográfico se extiende desde el cauce del río Duero, delimitado por los valles de sus afluentes, el Duratón, al oeste, y el Escalote al este, hasta las cumbres del Sistema Central oriental en su entronque con el Ibérico, para descender por la falda sur de la sierra hasta los valles altos del Lozoya, Jarama y Henares. Siguiendo las demarcaciones actuales, el marco de estudio ocupa parcialmente las provincias de Soria, Guadalajara, Madrid, Segovia, Burgos y Valladolid. Desde un punto de vista cronológico, el espacio temporal se inicia con la conquista musulmana de la Península Ibérica de 711 y culmina con la incorporación definitiva al reino de Castilla de las zonas estudiadas, en torno al año 1150. Se trata de un espacio de transición, tanto desde el punto de vista social como ecológico. Los territorios al sur de la sierra correspondían a los confines septentrionales de la Marca Media de al-Andalus, mientras que la falta norte, los extrema durii, fueron un territorio escasamente poblado y desorganizado, foco de la expansión de los reinos de León y Castilla y zona de conflicto con al-Andalus a principios del siglo X. Un territorio tan amplio y heterogéneo, unido a una compleja evolución histórica y social y la parquedad de las fuentes escritas, ha necesitado de un acercamiento con una metodología de tipo mixto, en la que han convergido las técnicas propias de la documentación histórica, de la arqueología y de la historia de la construcción. Esta metodología parte de un exhaustivo vaciado bibliográfico, tras lo cual se planteó una prospección arqueológica dirigida que permitió realizar un catálogo de elementos fortificados en el área de estudio susceptibles de contener fases altomedievales. Sobre cada uno de los elementos localizados se realizó una toma de datos de tipo gráfico métrico y constructivo. Cruzando los datos recabados en cada edificio con técnicas propias de la estratigrafía e historia de la construcción se identificaron y aislaron las fases de la cronología analizada. Entre las fortificaciones que evidenciaron fases altomedievales y atendiendo a su singularidad, representatividad y calidad estratigráfica se ha profundizado en el análisis de nueve casos de estudio: el conjunto fortificado de Atienza, el castillo de Cogolludo, el recinto amurallado de Buitrago de Lozoya, el castillo de Caracena, la iglesia parroquial de la Inmaculada Concepción de Mezquetillas, la alcazaba de Gormaz, la torre de San Andrés de Sepúlveda, la iglesia parroquial de San Miguel de Ayllón y la fortificación rupestre de Alcolea de las Peñas. La investigación ha servido para dos fines principales. El primero se centra en el aspecto material. En este sentido no solo se ha identificado la presencia o ausencia de fases altomedievales en cado uno de los edificio lo que ha permitido realizar una lectura territorial, la caracterización de las diferentes técnicas y materiales constructivos y valorar la posibilidad de establecer una cronotipología. El segundo se centra en aspectos históricos y sociales. La vinculación de estos restos materiales con la documentación histórica ha devenido en un medio para conocer la historia de las gentes que construyeron estos edificios, la motivación que les llevó a emprender tales proyectos, así como el contexto en el que cada una de estas fortificaciones desempeñó las funciones para las que fue creada. Este estudio ha puesto de manifiesto la ruptura que supuso la ocupación estatal de esta zona por parte del ejército cordobés desde mediados del siglo X, tanto desde el punto de vista social como constructivo. Se ha podido documentar materialmente esta ocupación tras la restauración de Medinaceli, en torno a 946, y la sucedida tras la toma de Sepúlveda por parte de Almanzor en 984, diferenciándose claramente las técnicas constructivas propias de este momento, ejecutadas directamente por talleres foráneos, procedentes de Córdoba y Toledo. La posición estratigráfica de estas fábricas diagnósticas ha permito identificar fases constructivas inmediatamente anteriores y posteriores a este momento. También se ha podido comprobar la hipótesis inicial en relación a la pérdida de conocimientos constructivos durante el final de la Antigüedad y los primeros siglos del medievo en la zona estudiada. La sillería y la explotación de canteras, así como el ciclo productivo del ladrillo por completo, son recuperados sin recurrir a un sustrato tecnológico local, propiciados de manera efímera por la ocupación califal. Cuando se produce el desmembramiento del califato a partir del año 1010 estas técnicas se vuelven a abandonar. A finales del siglo XI y principios del siglo XII se produce un nuevo cambio en la construcción, recuperándose de nuevo estas técnicas de la mano del románico y del establecimiento de la red parroquial diocesana. En una zona y periodo histórico apenas explotado por la investigación, esta tesis doctoral busca no solo establecer una metodología de trabajo sino sentar las bases para futuros estudios, tanto desde el punto de vista particular, profundizando en el estudio constructivo y estratigráfico de cada uno de los elementos recogidos, como en otros aspectos más trasversales. ABSTRACT This doctoral thesis has a constructive historical material approach to the reality of the fortifications built in the center of the Iberian Peninsula during the first centuries of the middle Ages. The geographical framework extends from the Duero´s riverbed, bounded by the valleys of its tributaries, the Duratón on the west, and the Escalote on the east, until to the peaks of the eastern Central System at its connection with the Iberian, to descend the hillside of the mountain range to the high valleys of Lozoya, Jarama and Henares. Following the current demarcations under this framework study, partially cover the provinces of Soria, Guadalajara, Madrid, Segovia, Burgos and Valladolid. From a chronological point of view, the temporal space began with the Muslim conquest of the Iberian Peninsula in 711 A.D and ends with the final incorporation into the Kingdom of Castile in the studied areas, around the year 1150 A.D. It is a transitional gathering point, both socially and ecologically. The southern territories of the Sierra or mountain range corresponded to the northern boundaries of the Middle mark of al- Andalus , while the northern missing, the extrema Durii , were a disorganized sparsely populated territory and point of the expansion of the kingdoms of Leon and Castile and zone of conflict with al- Andalus at the beginning of the tenth century. Such a wide and diverse territory, connected with a complex historical, social evolution and the lack of written sources , has required an approach with a mixed type methodology, which have converged the techniques of historical documentation of the archeology and building history. This methodology comes from a comprehensive bibliographic study, after which an archaeological survey was directed that allowed building a fortified elements ‘catalog in the study area likely to contain high medieval period phases were raised. On each of the elements located one metric data collection and constructive graphic type was performed. Checking against the data collected in each building with its own history of stratigraphy and construction techniques and finally, they were identified and isolated the timing analysis phases. Among the early medieval fortifications that showed high period Medieval phases and according to its uniqueness , representativeness and stratigraphy’s quality of the nine case studies : the fortified complex of Atienza, Cogolludo Castle, the Buitrago de Lozoya´s walled enclosure , the Caracena´s castle , the Mezquetillas´ parish church, the Gormaz´s fortress, the San Andres toser in Sepulveda, the church of San Miguel de Ayllón and the Alcolea de las Peñas´ rock fortress. This research study has served two main purposes. The first focuses on the material side. In this sense it does not only identified the presence or absence of early medieval period phases in each one of the building, which has allowed a territorial reading and the characterization of the different construction techniques and materials, but it also assess the possibility of establishing a chrono–typology. The second focuses on historical and social aspects. The bound of these materials remains with the historical documentation has become a means to know the history of the people who built these buildings, the motivation that led them to undertake such projects as well as the context in which each of these fortifications played the functions for which it was created. This study has revealed the breach that led to the state occupation of the Cordovan army in this area by since mid-tenth century, from the social point of view and also from the structural one. It has been materially document this occupation after the restoration of Medinaceli, around 946, and succeeded after taking Sepulveda by Almanzor in 984, clearly differentiating their own building techniques currently implemented directly by foreign workshops, from Cordova and Toledo. The stratigraphic position of these factories has made it possible to identify earlier and later construction phases at this time. It has also been able to verify the initial hypothesis in relation with constructive knowledge loss during late antiquity and early medieval centuries in the studied area. Also ashlar, masonries as well as the brick production is recovered without resorting to a local technological substrate, fleetingly brought about by the Caliphate occupation. When the dismemberment of the Caliphate is produced from the year 1010 these techniques were abandoned again. In the late eleventh and early twelfth century these techniques are recovered from Romanesque and a new change came, also from the establishment of the diocesan parish network. In one historical period that has been hardly exploited by research, this thesis seeks not only to establish a working methodology but lay the groundwork for future studies, both from the particular point of view, paying special attention in the constructive and stratigraphic studies of each of the evidence collected , and additionally in other more transversal aspects.