617 resultados para Capa freática
Resumo:
El objetivo de este proyecto es desarrollar un equipo para la realización de un ensayo de emisión de gases. Con esto se pretende simplificar el ensayo de calentamiento de sólidos y emisión de gases y hacerlo más fiable. Para la realización de este proyecto se utilizo un método de ensayo más rudimentario pero también eficaz. Así mismo se analizara el fenómeno de la autocombustión y las propiedades de distintos tipos de biomasa, en concreto dos tipos: astillas de madera y pellets de madera. Las propiedades que son caso de estudio son: las emisiones de gases que se producen durante el proceso de autocombustión; y las temperaturas de inflamación en capa a diferentes tamaños de grano y grosores de capa. Para analizar las propiedades de las muestras de biomasa se realizaran dos tipos de ensayos: ensayos de extracción de gases, y ensayos de temperatura mínima de inflamación en capa. Abstract: The main object of this Project is to develop an equipment to simplify our gas emissions test. During this project a more elementary method was used, however this method is extremely efficient. Also the self-heating phenomenon will be analyzed and several kinds of biomass properties, specifically two: wood chops and wood pellets. The properties that will be analyzed are: gas emissions during the self-heating process; and layer inflammation temperatures at several grain size and layer thickness. The biomass properties will be analyzed with two different tests: gas extraction tests, and TIMc.
Resumo:
Este Proyecto Final de Carrera se centra principalmente en el estudio de las tecnologías aplicadas al Hogar Digital (HD) y así poder desarrollar nuevas herramientas aplicadas a este Sector. La primera tecnología estudiada es LonWorks que se escogió porque en la EUITT se cuenta con un entorno domótico donde se aplica esta tecnología, materializado como una maqueta de una instalación LonWorks en un HD. Sobre este entorno se ha desarrollado una nueva forma de gestionar y controlar los elementos de una Red LonWorks mediante la tecnología Universal Plug & Play (UPnP). Los dispositivos LonWorks han sido recubiertos con una capa con la que se consigue tratar los elementos LonWorks como dispositivos UPnP, pudiendo de esta manera trabajar bajo un mismo formato de dispositivo. Este formato está definido por un documento denominado Descripción del Dispositivo UPnP. Por tanto, no es necesario conocer el estado de los dispositivos de la Red LonWorks, sino únicamente trabajar bajo una Red UPnP, creando nuevos dispositivos UPnP, puntos de Control y servicios a partir de los elementos LonWorks. Una vez realizado el recubrimiento del sistema LonWorks con UPnP, se ha definido y desarrollado una aplicación para Android que, permite controlar los elementos de la maqueta del HD desde un Smartphone o una Tablet. El acceso a la Red LonWorks de la maqueta del HD se hace a través de la interfaz Web Services SOAP/XML del dispositivo iLON100. ABSTRACT. This Final Degree Project is mainly focused on the study of the technologies applied to Digital Home and thus be able to develop new tools applied to this area. The first study is LonWorks technology which was chosen because the EUITT has a domotic environment where this technology is applied, materialized as a demonstrator of a LonWorks installation in HD. With this environment has developed a new way to manage and control the elements of a LonWorks network through technology by Universal Plug & Play (UPnP). LonWorks devices are covered with a layer and it is achieved LonWorks elements treat as UPnP devices. In this way the LonWorks elements can work under one device format. This format is defined by a document called UPnP Device Description. Therefore, it isn't necessary to know the state of the LonWorks network devices, but only work under an UPnP network, creating new UPnP devices, control points and services from LonWorks elements. After backfill of LonWorks system with UPnP, have being defined and developed an Android application that allow controlling the elements of the mockup of HD from Smartphone or a Tablet. The LonWorks network Access of the mockup of HD is done through the Web Interface Services SOAP / XML iLON100 device.
Resumo:
La Universidad Politécnica de Madrid (UPM) y la Università degli Studi di Firenze (UniFi), bajo la coordinación técnica de AMPHOS21, participan desde 2009 en el proyecto de investigación “Estrategias de Monitorización de CO2 y otros gases en el estudio de Análogos Naturales”, financiado por la Fundación Ciudad de la Energía (CIUDEN) en el marco del Proyecto Compostilla OXYCFB300 (http://www.compostillaproject.eu), del Programa “European Energy Program for Recovery - EEPR”. El objetivo principal del proyecto fue el desarrollo y puesta a punto de metodologías de monitorización superficiales para su aplicación en el seguimiento y control de los emplazamientos donde se realice el almacenamiento geológico de CO2, analizando técnicas que permitan detectar y cuantificar las posibles fugas de CO2 a la atmósfera. Los trabajos se realizaron tanto en análogos naturales (españoles e italianos) como en la Planta de Desarrollo Tecnológico de Almacenamiento de CO2 de Hontomín. Las técnicas analizadas se centran en la medición de gases y aguas superficiales (de escorrentía y manantiales). En cuanto a la medición de gases se analizó el flujo de CO2 que emana desde el suelo a la atmósfera y la aplicabilidad de trazadores naturales (como el radón) para la detección e identificación de las fugas de CO2. En cuanto al análisis químico de las aguas se analizaron los datos geoquímicos e isotópicos y los gases disueltos en las aguas de los alrededores de la PDT de Hontomín, con objeto de determinar qué parámetros son los más apropiados para la detección de una posible migración del CO2 inyectado, o de la salmuera, a los ambientes superficiales. Las medidas de flujo de CO2 se realizaron con la técnica de la cámara de acúmulo. A pesar de ser una técnica desarrollada y aplicada en diferentes ámbitos científicos se estimó necesario adaptar un protocolo de medida y de análisis de datos a las características específicas de los proyectos de captura y almacenamiento de CO2 (CAC). Donde los flujos de CO2 esperados son bajos y en caso de producirse una fuga habrá que detectar pequeñas variaciones en los valores flujo con un “ruido” en la señal alto, debido a actividad biológica en el suelo. La medida de flujo de CO2 mediante la técnica de la cámara de acúmulo se puede realizar sin limpiar la superficie donde se coloca la cámara o limpiando y esperando al reequilibrio del flujo después de la distorsión al sistema. Sin embargo, los resultados obtenidos después de limpiar y esperar muestran menor dispersión, lo que nos indica que este procedimiento es el mejor para la monitorización de los complejos de almacenamiento geológico de CO2. El protocolo de medida resultante, utilizado para la obtención de la línea base de flujo de CO2 en Hontomín, sigue los siguiente pasos: a) con una espátula se prepara el punto de medición limpiando y retirando el recubrimiento vegetal o la primera capa compacta de suelo, b) se espera un tiempo para la realización de la medida de flujo, facilitando el reequilibrio del flujo del gas tras la alteración provocada en el suelo y c) se realiza la medida de flujo de CO2. Una vez realizada la medición de flujo de CO2, y detectada si existen zonas de anomalías, se debe estimar la cantidad de CO2 que se está escapando a la atmósfera (emanación total), con el objetivo de cuantificar la posible fuga. Existen un amplio rango de metodologías para realizar dicha estimación, siendo necesario entender cuáles son las más apropiadas para obtener el valor más representativo del sistema. En esta tesis se comparan seis técnicas estadísticas: media aritmética, estimador insegado de la media (aplicando la función de Sichel), remuestreo con reemplazamiento (bootstrap), separación en diferentes poblaciones mediante métodos gráficos y métodos basados en criterios de máxima verosimilitud, y la simulación Gaussiana secuencial. Para este análisis se realizaron ocho campañas de muestreo, tanto en la Planta de Desarrollo Tecnológico de Hontomón como en análogos naturales (italianos y españoles). Los resultados muestran que la simulación Gaussiana secuencial suele ser el método más preciso para realizar el cálculo, sin embargo, existen ocasiones donde otros métodos son más apropiados. Como consecuencia, se desarrolla un procedimiento de actuación para seleccionar el método que proporcione el mejor estimador. Este procedimiento consiste, en primer lugar, en realizar un análisis variográfico. Si existe una autocorrelación entre los datos, modelizada mediante el variograma, la mejor técnica para calcular la emanación total y su intervalo de confianza es la simulación Gaussiana secuencial (sGs). Si los datos son independientes se debe comprobar la distribución muestral, aplicando la media aritmética o el estimador insesgado de la media (Sichel) para datos normales o lognormales respectivamente. Cuando los datos no son normales o corresponden a una mezcla de poblaciones la mejor técnica de estimación es la de remuestreo con reemplazamiento (bootstrap). Siguiendo este procedimiento el máximo valor del intervalo de confianza estuvo en el orden del ±20/25%, con la mayoría de valores comprendidos entre ±3,5% y ±8%. La identificación de las diferentes poblaciones muestrales en los datos de flujo de CO2 puede ayudar a interpretar los resultados obtenidos, toda vez que esta distribución se ve afectada por la presencia de varios procesos geoquímicos como, por ejemplo, una fuente geológica o biológica del CO2. Así pues, este análisis puede ser una herramienta útil en el programa de monitorización, donde el principal objetivo es demostrar que no hay fugas desde el reservorio a la atmósfera y, si ocurren, detectarlas y cuantificarlas. Los resultados obtenidos muestran que el mejor proceso para realizar la separación de poblaciones está basado en criterios de máxima verosimilitud. Los procedimientos gráficos, aunque existen pautas para realizarlos, tienen un cierto grado de subjetividad en la interpretación de manera que los resultados son menos reproducibles. Durante el desarrollo de la tesis se analizó, en análogos naturales, la relación existente entre el CO2 y los isótopos del radón (222Rn y 220Rn), detectándose en todas las zonas de emisión de CO2 una relación positiva entre los valores de concentración de 222Rn en aire del suelo y el flujo de CO2. Comparando la concentración de 220Rn con el flujo de CO2 la relación no es tan clara, mientras que en algunos casos aumenta en otros se detecta una disminución, hecho que parece estar relacionado con la profundidad de origen del radón. Estos resultados confirmarían la posible aplicación de los isótopos del radón como trazadores del origen de los gases y su aplicación en la detección de fugas. Con respecto a la determinación de la línea base de flujo CO2 en la PDT de Hontomín, se realizaron mediciones con la cámara de acúmulo en las proximidades de los sondeos petrolíferos, perforados en los ochenta y denominados H-1, H-2, H-3 y H-4, en la zona donde se instalarán el sondeo de inyección (H-I) y el de monitorización (H-A) y en las proximidades de la falla sur. Desde noviembre de 2009 a abril de 2011 se realizaron siete campañas de muestreo, adquiriéndose más de 4.000 registros de flujo de CO2 con los que se determinó la línea base y su variación estacional. Los valores obtenidos fueron bajos (valores medios entre 5 y 13 g•m-2•d-1), detectándose pocos valores anómalos, principalmente en las proximidades del sondeo H-2. Sin embargo, estos valores no se pudieron asociar a una fuente profunda del CO2 y seguramente estuvieran más relacionados con procesos biológicos, como la respiración del suelo. No se detectaron valores anómalos cerca del sistema de fracturación (falla Ubierna), toda vez que en esta zona los valores de flujo son tan bajos como en el resto de puntos de muestreo. En este sentido, los valores de flujo de CO2 aparentemente están controlados por la actividad biológica, corroborado al obtenerse los menores valores durante los meses de otoño-invierno e ir aumentando en los periodos cálidos. Se calcularon dos grupos de valores de referencia, el primer grupo (UCL50) es 5 g•m-2•d-1 en las zonas no aradas en los meses de otoño-invierno y 3,5 y 12 g•m-2•d-1 en primavera-verano para zonas aradas y no aradas, respectivamente. El segundo grupo (UCL99) corresponde a 26 g•m-2•d- 1 durante los meses de otoño-invierno en las zonas no aradas y 34 y 42 g•m-2•d-1 para los meses de primavera-verano en zonas aradas y no aradas, respectivamente. Flujos mayores a estos valores de referencia podrían ser indicativos de una posible fuga durante la inyección y posterior a la misma. Los primeros datos geoquímicos e isotópicos de las aguas superficiales (de escorrentía y de manantiales) en el área de Hontomín–Huermeces fueron analizados. Los datos sugieren que las aguas estudiadas están relacionadas con aguas meteóricas con un circuito hidrogeológico superficial, caracterizadas por valores de TDS relativamente bajos (menor a 800 mg/L) y una fácie hidrogeoquímica de Ca2+(Mg2+)-HCO3 −. Algunas aguas de manantiales se caracterizan por concentraciones elevadas de NO3 − (concentraciones de hasta 123 mg/l), lo que sugiere una contaminación antropogénica. Se obtuvieron concentraciones anómalas de of Cl−, SO4 2−, As, B y Ba en dos manantiales cercanos a los sondeos petrolíferos y en el rio Ubierna, estos componentes son probablemente indicadores de una posible mezcla entre los acuíferos profundos y superficiales. El estudio de los gases disueltos en las aguas también evidencia el circuito superficial de las aguas. Estando, por lo general, dominado por la componente atmosférica (N2, O2 y Ar). Sin embargo, en algunos casos el gas predominante fue el CO2 (con concentraciones que llegan al 63% v/v), aunque los valores isotópicos del carbono (<-17,7 ‰) muestran que lo más probable es que esté relacionado con un origen biológico. Los datos geoquímicos e isotópicos de las aguas superficiales obtenidos en la zona de Hontomín se pueden considerar como el valor de fondo con el que comparar durante la fase operacional, la clausura y posterior a la clausura. En este sentido, la composición de los elementos mayoritarios y traza, la composición isotópica del carbono del CO2 disuelto y del TDIC (Carbono inorgánico disuelto) y algunos elementos traza se pueden considerar como parámetros adecuados para detectar la migración del CO2 a los ambientes superficiales. ABSTRACT Since 2009, a group made up of Universidad Politécnica de Madrid (UPM; Spain) and Università degli Studi Firenze (UniFi; Italy) has been taking part in a joint project called “Strategies for Monitoring CO2 and other Gases in Natural analogues”. The group was coordinated by AMPHOS XXI, a private company established in Barcelona. The Project was financially supported by Fundación Ciudad de la Energía (CIUDEN; Spain) as a part of the EC-funded OXYCFB300 project (European Energy Program for Recovery -EEPR-; www.compostillaproject.eu). The main objectives of the project were aimed to develop and optimize analytical methodologies to be applied at the surface to Monitor and Verify the feasibility of geologically stored carbon dioxide. These techniques were oriented to detect and quantify possible CO2 leakages to the atmosphere. Several investigations were made in natural analogues from Spain and Italy and in the Tecnchnological Development Plant for CO2 injection al Hontomín (Burgos, Spain). The studying techniques were mainly focused on the measurements of diffuse soil gases and surface and shallow waters. The soil-gas measurements included the determination of CO2 flux and the application to natural trace gases (e.g. radon) that may help to detect any CO2 leakage. As far as the water chemistry is concerned, geochemical and isotopic data related to surface and spring waters and dissolved gases in the area of the PDT of Hontomín were analyzed to determine the most suitable parameters to trace the migration of the injected CO2 into the near-surface environments. The accumulation chamber method was used to measure the diffuse emission of CO2 at the soil-atmosphere interface. Although this technique has widely been applied in different scientific areas, it was considered of the utmost importance to adapt the optimum methodology for measuring the CO2 soil flux and estimating the total CO2 output to the specific features of the site where CO2 is to be stored shortly. During the pre-injection phase CO2 fluxes are expected to be relatively low where in the intra- and post-injection phases, if leakages are to be occurring, small variation in CO2 flux might be detected when the CO2 “noise” is overcoming the biological activity of the soil (soil respiration). CO2 flux measurements by the accumulation chamber method could be performed without vegetation clearance or after vegetation clearance. However, the results obtained after clearance show less dispersion and this suggests that this procedure appears to be more suitable for monitoring CO2 Storage sites. The measurement protocol, applied for the determination of the CO2 flux baseline at Hontomín, has included the following steps: a) cleaning and removal of both the vegetal cover and top 2 cm of soil, b) waiting to reduce flux perturbation due to the soil removal and c) measuring the CO2 flux. Once completing the CO2 flux measurements and detected whether there were anomalies zones, the total CO2 output was estimated to quantify the amount of CO2 released to the atmosphere in each of the studied areas. There is a wide range of methodologies for the estimation of the CO2 output, which were applied to understand which one was the most representative. In this study six statistical methods are presented: arithmetic mean, minimum variances unbiased estimator, bootstrap resample, partitioning of data into different populations with a graphical and a maximum likelihood procedures, and sequential Gaussian simulation. Eight campaigns were carried out in the Hontomín CO2 Storage Technology Development Plant and in natural CO2 analogues. The results show that sequential Gaussian simulation is the most accurate method to estimate the total CO2 output and the confidential interval. Nevertheless, a variety of statistic methods were also used. As a consequence, an application procedure for selecting the most realistic method was developed. The first step to estimate the total emanation rate was the variogram analysis. If the relation among the data can be explained with the variogram, the best technique to calculate the total CO2 output and its confidence interval is the sequential Gaussian simulation method (sGs). If the data are independent, their distribution is to be analyzed. For normal and log-normal distribution the proper methods are the arithmetic mean and minimum variances unbiased estimator, respectively. If the data are not normal (log-normal) or are a mixture of different populations the best approach is the bootstrap resampling. According to these steps, the maximum confidence interval was about ±20/25%, with most of values between ±3.5% and ±8%. Partitioning of CO2 flux data into different populations may help to interpret the data as their distribution can be affected by different geochemical processes, e.g. geological or biological sources of CO2. Consequently, it may be an important tool in a monitoring CCS program, where the main goal is to demonstrate that there are not leakages from the reservoir to the atmosphere and, if occurring, to be able to detect and quantify it. Results show that the partitioning of populations is better performed by maximum likelihood criteria, since graphical procedures have a degree of subjectivity in the interpretation and results may not be reproducible. The relationship between CO2 flux and radon isotopes (222Rn and 220Rn) was studied in natural analogues. In all emissions zones, a positive relation between 222Rn and CO2 was observed. However, the relationship between activity of 220Rn and CO2 flux is not clear. In some cases the 220Rn activity indeed increased with the CO2 flux in other measurements a decrease was recognized. We can speculate that this effect was possibly related to the route (deep or shallow) of the radon source. These results may confirm the possible use of the radon isotopes as tracers for the gas origin and their application in the detection of leakages. With respect to the CO2 flux baseline at the TDP of Hontomín, soil flux measurements in the vicinity of oil boreholes, drilled in the eighties and named H-1 to H-4, and injection and monitoring wells were performed using an accumulation chamber. Seven surveys were carried out from November 2009 to summer 2011. More than 4,000 measurements were used to determine the baseline flux of CO2 and its seasonal variations. The measured values were relatively low (from 5 to 13 g•m-2•day-1) and few outliers were identified, mainly located close to the H-2 oil well. Nevertheless, these values cannot be associated to a deep source of CO2, being more likely related to biological processes, i.e. soil respiration. No anomalies were recognized close to the deep fault system (Ubierna Fault) detected by geophysical investigations. There, the CO2 flux is indeed as low as other measurement stations. CO2 fluxes appear to be controlled by the biological activity since the lowest values were recorded during autumn-winter seasons and they tend to increase in warm periods. Two reference CO2 flux values (UCL50 of 5 g•m-2•d-1 for non-ploughed areas in autumn-winter seasons and 3.5 and 12 g•m-2•d-1 for in ploughed and non-ploughed areas, respectively, in spring-summer time, and UCL99 of 26 g•m-2•d-1 for autumn-winter in not-ploughed areas and 34 and 42 g•m-2•d-1 for spring-summer in ploughed and not-ploughed areas, respectively, were calculated. Fluxes higher than these reference values could be indicative of possible leakage during the operational and post-closure stages of the storage project. The first geochemical and isotopic data related to surface and spring waters and dissolved gases in the area of Hontomín–Huermeces (Burgos, Spain) are presented and discussed. The chemical and features of the spring waters suggest that they are related to a shallow hydrogeological system as the concentration of the Total Dissolved Solids approaches 800 mg/L with a Ca2+(Mg2+)-HCO3 − composition, similar to that of the surface waters. Some spring waters are characterized by relatively high concentrations of NO3 − (up to 123 mg/L), unequivocally suggesting an anthropogenic source. Anomalous concentrations of Cl−, SO4 2−, As, B and Ba were measured in two springs, discharging a few hundred meters from the oil wells, and in the Rio Ubierna. These contents are possibly indicative of mixing processes between deep and shallow aquifers. The chemistry of the dissolved gases also evidences the shallow circuits of the Hontomín– Huermeces, mainly characterized by an atmospheric source as highlighted by the contents of N2, O2, Ar and their relative ratios. Nevertheless, significant concentrations (up to 63% by vol.) of isotopically negative CO2 (<−17.7‰ V-PDB) were found in some water samples, likely related to a biogenic source. The geochemical and isotopic data of the surface and spring waters in the surroundings of Hontomín can be considered as background values when intra- and post-injection monitoring programs will be carried out. In this respect, main and minor solutes, the isotopic carbon of dissolved CO2 and TDIC (Total Dissolved Inorganic Carbon) and selected trace elements can be considered as useful parameters to trace the migration of the injected CO2 into near-surface environments.
Resumo:
Analizar el trasfondo sociotécnico de la infotecnología y por tanto la que probablemente sea su variable mayor, el impacto de la tecnología en los ciudadanos comunes, requiere ajustar la lente de observación sobre esa capa visible del arsenal tecnológico que podemos denominar 'tecnologías de, o para, la vida cotidiana'. Como escribí en (Fumero y Sáez Vacas, 2006), estos ciudadanos comunes "no son programadores, ni ingenieros informáticos o electrónicos o de telecomunicación, ni participantes incansables en una campus-party, ni expertos en cadenas de producción o en diseño gráfico, ni nada especializado en cualquier rama de la infotecnología.
Resumo:
El objetivo de este estudio fue evaluar los factores micrometeorológicos que afectan a la regeneración del pino resinero en la Tierra de Pinares Segoviana. Se registró durante un período vegetativo completo la temperatura del suelo y la temperatura de la capa de aire más próximo al suelo. La temperatura del suelo alcanzó máximos de 56 ºC desde el mes de julio a septiembre, en períodos de más de 4 horas seguidas durante 2-5 días consecutivos y la temperatura del aire más próximo al suelo, donde viven las plántulas recién nacidas, alcanzó valores de hasta 56 ºC desde junio a septiembre, durante períodos de más de 4,5 horas en periodos de 7 días consecutivos. En las plántulas objeto de estudio se identificaron heridas en el cuello de la raíz lo que indica que las altas temperaturas producen cambios fisiológicos y morfológicos en las plántulas comprometiendo su supervivencia y la de la regeneración de estos montes. El análisis estadístico mostró que los puntos de muestreo seleccionados no presentaron grandes diferencias respecto a las variables microclimáticas consideradas.
Resumo:
El objetivo de este estudio fue evaluar los factores micrometeorológicos que afectan a la regeneración del pino resinero en la Tierra de Pinares Segoviana. Se registró durante un período vegetativo completo la temperatura del suelo y la temperatura de la capa de aire más próximo al suelo. La temperatura del suelo alcanzó máximos de 56 ºC desde el mes de julio a septiembre, en períodos de más de 4 horas seguidas durante 2-5 días consecutivos y la temperatura del aire más próximo al suelo, donde viven las plántulas recién nacidas, alcanzó valores de hasta 56 ºC desde junio a septiembre, durante períodos de más de 4,5 horas en periodos de 7 días consecutivos. En las plántulas objeto de estudio se identificaron heridas en el cuello de la raíz lo que indica que las altas temperaturas producen cambios fisiológicos y morfológicos en las plántulas comprometiendo su supervivencia y la de la regeneración de estos montes. El análisis estadístico mostró que los puntos de muestreo seleccionados no presentaron grandes diferencias respecto a las variables microclimáticas consideradas.
Resumo:
Las microbalanzas de cristal de cuarzo (QCM), son mecanismos piezoeléctricos, para transformarlos en sensores químicos es necesario recubrirlos con una capa de material capaz de capturar las moléculas del ambiente. Cuando una masa es adsorbida sobre la superficie del cristal, la frecuencia de oscilación cambia en proporción a la cantidad de masa (Di Natale et al. 1997). La respuesta de los sensores depende de numerosos factores que pueden ser difíciles de controlar, tales como la temperatura y la humedad del gas portador. Todos estos factores producen cambios en la selectividad de los sensores que afectan a la reproducibilidad de las medidas. A pesar de la existencia de numerosos estudios no existe ningún procedimiento establecido para la calibración de las QCM en relación con la sensibilidad necesaria en los sensores para el aseguramiento de la calidad en pera o en otras frutas.
Resumo:
Plan de explotación de una cuenca carbonífera en que existen varias capas de hulla separadas entre sí por terrenos estériles cuyos espesores varían de 2 a 16 metros.las capas tienen una potencia comprendida entre los límites de 0.90 a 2.83 metros siendo su inclinación media de 14º.Los terrenos estériles superiores a las capas tienen un espesor de 120 metros y a 95 metros de la superficie hay una capa acuífera de 0.80 de espesor.Son abundantes las aguas y los gases explosivos: la hulla resulta muy mezclada con pizarra y hay que someterla a las operaciones del lavado.Las circunstancias de la localidad exigen para la mejor salida de los productos la transformación de la hulla en cok.
Resumo:
El objetivo principal de este trabajo experimental, es evaluar el uso de paneles solares como opción de elemento de sombreo en viveros, tanto de gran escala como de pequeña superficie. Esta opción podría elegirse tanto en el caso de no disponer de red de suministro eléctrico cercano así como en el caso de preferir no depender de una fuente de energía eléctrica exterior. Como hecho novedoso, se ha elegido paneles solares flexibles de capa fina y poco peso, que serían situados en la cubierta del invernadero. Dicha elección permite que los paneles se adapten a la forma de la cubierta, sea cual fuere.
Resumo:
El óxido nitroso (N2O) es un potente gas de efecto invernadero (GHG) proveniente mayoritariamente de la fertilización nitrogenada de los suelos agrícolas. Identificar estrategias de manejo de la fertilización que reduzcan estas emisiones sin suponer un descenso de los rendimientos es vital tanto a nivel económico como medioambiental. Con ese propósito, en esta Tesis se han evaluado: (i) estrategias de manejo directo de la fertilización (inhibidores de la nitrificación/ureasa); y (ii) interacciones de los fertilizantes con (1) el manejo del agua, (2) residuos de cosecha y (3) diferentes especies de plantas. Para conseguirlo se llevaron a cabo meta-análisis, incubaciones de laboratorio, ensayos en invernadero y experimentos de campo. Los inhibidores de la nitrificación y de la actividad ureasa se proponen habitualmente como medidas para reducir las pérdidas de nitrógeno (N), por lo que su aplicación estaría asociada al uso eficiente del N por parte de los cultivos (NUE). Sin embargo, su efecto sobre los rendimientos es variable. Con el objetivo de evaluar en una primera fase su efectividad para incrementar el NUE y la productividad de los cultivos, se llevó a cabo un meta-análisis. Los inhibidores de la nitrificación dicyandiamide (DCD) y 3,4-dimetilepyrazol phosphate (DMPP) y el inhibidor de la ureasa N-(n-butyl) thiophosphoric triamide (NBPT) fueron seleccionados para el análisis ya que generalmente son considerados las mejores opciones disponibles comercialmente. Nuestros resultados mostraron que su uso puede ser recomendado con el fin de incrementar tanto el rendimiento del cultivo como el NUE (incremento medio del 7.5% y 12.9%, respectivamente). Sin embargo, se observó que su efectividad depende en gran medida de los factores medioambientales y de manejo de los estudios evaluados. Una mayor respuesta fue encontrada en suelos de textura gruesa, sistemas irrigados y/o en cultivos que reciben altas tasas de fertilizante nitrogenado. En suelos alcalinos (pH ≥ 8), el inhibidor de la ureasa NBPT produjo el mayor efecto. Dado que su uso representa un coste adicional para los agricultores, entender las mejores prácticas que permitan maximizar su efectividad es necesario para posteriormente realizar comparaciones efectivas con otras prácticas que incrementen la productividad de los cultivos y el NUE. En base a los resultados del meta-análisis, se seleccionó el NBPT como un inhibidor con gran potencial. Inicialmente desarrollado para reducir la volatilización de amoniaco (NH3), en los últimos años algunos investigadores han demostrado en estudios de campo un efecto mitigador de este inhibidor sobre las pérdidas de N2O provenientes de suelos fertilizados bajo condiciones de baja humedad del suelo. Dada la alta variabilidad de los experimentos de campo, donde la humedad del suelo cambia rápidamente, ha sido imposible entender mecanísticamente el potencial de los inhibidores de la ureasa (UIs) para reducir emisiones de N2O y su dependencia con respecto al porcentaje de poros llenos de agua del suelo (WFPS). Por lo tanto se realizó una incubación en laboratorio con el propósito de evaluar cuál es el principal mecanismo biótico tras las emisiones de N2O cuando se aplican UIs bajo diferentes condiciones de humedad del suelo (40, 60 y 80% WFPS), y para analizar hasta qué punto el WFPS regula el efecto del inhibidor sobre las emisiones de N2O. Un segundo UI (i.e. PPDA) fue utilizado para comparar el efecto del NBPT con el de otro inhibidor de la ureasa disponible comercialmente; esto nos permitió comprobar si el efecto de NBPT es específico de ese inhibidor o no. Las emisiones de N2O al 40% WFPS fueron despreciables, siendo significativamente más bajas que las de todos los tratamientos fertilizantes al 60 y 80% WFPS. Comparado con la urea sin inhibidor, NBPT+U redujo las emisiones de N2O al 60% WFPS pero no tuvo efecto al 80% WFPS. La aplicación de PPDA incrementó significativamente las emisiones con respecto a la urea al 80% WFPS mientras que no se encontró un efecto significativo al 60% WFPS. Al 80% WFPS la desnitrificación fue la principal fuente de las emisiones de N2O en todos los tratamientos mientras que al 60% tanto la nitrificación como la desnitrificación tuvieron un papel relevante. Estos resultados muestran que un correcto manejo del NBPT puede suponer una estrategia efectiva para mitigar las emisiones de N2O. Con el objetivo de trasladar nuestros resultados de los estudios previos a condiciones de campo reales, se desarrolló un experimento en el que se evaluó la efectividad del NBPT para reducir pérdidas de N y aumentar la productividad durante un cultivo de cebada (Hordeum vulgare L.) en secano Mediterráneo. Se determinó el rendimiento del cultivo, las concentraciones de N mineral del suelo, el carbono orgánico disuelto (DOC), el potencial de desnitrificación, y los flujos de NH3, N2O y óxido nítrico (NO). La adición del inhibidor redujo las emisiones de NH3 durante los 30 días posteriores a la aplicación de urea en un 58% y las emisiones netas de N2O y NO durante los 95 días posteriores a la aplicación de urea en un 86 y 88%, respectivamente. El uso de NBPT también incrementó el rendimiento en grano en un 5% y el consumo de N en un 6%, aunque ninguno de estos incrementos fue estadísticamente significativo. Bajo las condiciones experimentales dadas, estos resultados demuestran el potencial del inhibidor de la ureasa NBPT para mitigar las emisiones de NH3, N2O y NO provenientes de suelos arables fertilizados con urea, mediante la ralentización de la hidrólisis de la urea y posterior liberación de menores concentraciones de NH4 + a la capa superior del suelo. El riego por goteo combinado con la aplicación dividida de fertilizante nitrogenado disuelto en el agua de riego (i.e. fertirriego por goteo) se considera normalmente una práctica eficiente para el uso del agua y de los nutrientes. Algunos de los principales factores (WFPS, NH4 + y NO3 -) que regulan las emisiones de GHGs (i.e. N2O, CO2 y CH4) y NO pueden ser fácilmente manipulados por medio del fertirriego por goteo sin que se generen disminuciones del rendimiento. Con ese propósito se evaluaron opciones de manejo para reducir estas emisiones en un experimento de campo durante un cultivo de melón (Cucumis melo L.). Los tratamientos incluyeron distintas frecuencias de riego (semanal/diario) y tipos de fertilizantes nitrogenados (urea/nitrato cálcico) aplicados por fertirriego. Fertirrigar con urea en lugar de nitrato cálcico aumentó las emisiones de N2O y NO por un factor de 2.4 y 2.9, respectivamente (P < 0.005). El riego diario redujo las emisiones de NO un 42% (P < 0.005) pero aumentó las emisiones de CO2 un 21% (P < 0.05) comparado con el riego semanal. Analizando el Poder de Calentamiento global en base al rendimiento así como los factores de emisión del NO, concluimos que el fertirriego semanal con un fertilizante de tipo nítrico es la mejor opción para combinar productividad agronómica con sostenibilidad medioambiental en este tipo de agroecosistemas. Los suelos agrícolas en las áreas semiáridas Mediterráneas se caracterizan por su bajo contenido en materia orgánica y bajos niveles de fertilidad. La aplicación de residuos de cosecha y/o abonos es una alternativa sostenible y eficiente desde el punto de vista económico para superar este problema. Sin embargo, estas prácticas podrían inducir cambios importantes en las emisiones de N2O de estos agroecosistemas, con impactos adicionales en las emisiones de CO2. En este contexto se llevó a cabo un experimento de campo durante un cultivo de cebada (Hordeum vulgare L.) bajo condiciones Mediterráneas para evaluar el efecto de combinar residuos de cosecha de maíz con distintos inputs de fertilizantes nitrogenados (purín de cerdo y/o urea) en estas emisiones. La incorporación de rastrojo de maíz incrementó las emisiones de N2O durante el periodo experimental un 105%. Sin embargo, las emisiones de NO se redujeron significativamente en las parcelas enmendadas con rastrojo. La sustitución parcial de urea por purín de cerdo redujo las emisiones netas de N2O un 46 y 39%, con y sin incorporación de residuo de cosecha respectivamente. Las emisiones netas de NO se redujeron un 38 y un 17% para estos mismos tratamientos. El ratio molar DOC:NO3 - demostró predecir consistentemente las emisiones de N2O y NO. El efecto principal de la interacción entre el fertilizante nitrogenado y el rastrojo de maíz se dio a los 4-6 meses de su aplicación, generando un aumento del N2O y una disminución del NO. La sustitución de urea por purín de cerdo puede considerarse una buena estrategia de manejo dado que el uso de este residuo orgánico redujo las emisiones de óxidos de N. Los pastos de todo el mundo proveen numerosos servicios ecosistémicos pero también suponen una importante fuente de emisión de N2O, especialmente en respuesta a la deposición de N proveniente del ganado mientras pasta. Para explorar el papel de las plantas como mediadoras de estas emisiones, se analizó si las emisiones de N2O dependen de la riqueza en especies herbáceas y/o de la composición específica de especies, en ausencia y presencia de una deposición de orina. Las hipótesis fueron: 1) las emisiones de N2O tienen una relación negativa con la productividad de las plantas; 2) mezclas de cuatro especies generan menores emisiones que monocultivos (dado que su productividad será mayor); 3) las emisiones son menores en combinaciones de especies con distinta morfología radicular y alta biomasa de raíz; y 4) la identidad de las especies clave para reducir el N2O depende de si hay orina o no. Se establecieron monocultivos y mezclas de dos y cuatro especies comunes en pastos con rasgos funcionales divergentes: Lolium perenne L. (Lp), Festuca arundinacea Schreb. (Fa), Phleum pratense L. (Php) y Poa trivialis L. (Pt), y se cuantificaron las emisiones de N2O durante 42 días. No se encontró relación entre la riqueza en especies y las emisiones de N2O. Sin embargo, estas emisiones fueron significativamente menores en ciertas combinaciones de especies. En ausencia de orina, las comunidades de plantas Fa+Php actuaron como un sumidero de N2O, mientras que los monocultivos de estas especies constituyeron una fuente de N2O. Con aplicación de orina la comunidad Lp+Pt redujo (P < 0.001) las emisiones de N2O un 44% comparado con los monocultivos de Lp. Las reducciones de N2O encontradas en ciertas combinaciones de especies pudieron explicarse por una productividad total mayor y por una complementariedad en la morfología radicular. Este estudio muestra que la composición de especies herbáceas es un componente clave que define las emisiones de N2O de los ecosistemas de pasto. La selección de combinaciones de plantas específicas en base a la deposición de N esperada puede, por lo tanto, ser clave para la mitigación de las emisiones de N2O. ABSTRACT Nitrous oxide (N2O) is a potent greenhouse gas (GHG) directly linked to applications of nitrogen (N) fertilizers to agricultural soils. Identifying mitigation strategies for these emissions based on fertilizer management without incurring in yield penalties is of economic and environmental concern. With that aim, this Thesis evaluated: (i) the use of nitrification and urease inhibitors; and (ii) interactions of N fertilizers with (1) water management, (2) crop residues and (3) plant species richness/identity. Meta-analysis, laboratory incubations, greenhouse mesocosm and field experiments were carried out in order to understand and develop effective mitigation strategies. Nitrification and urease inhibitors are proposed as means to reduce N losses, thereby increasing crop nitrogen use efficiency (NUE). However, their effect on crop yield is variable. A meta-analysis was initially conducted to evaluate their effectiveness at increasing NUE and crop productivity. Commonly used nitrification inhibitors (dicyandiamide (DCD) and 3,4-dimethylepyrazole phosphate (DMPP)) and the urease inhibitor N-(n-butyl) thiophosphoric triamide (NBPT) were selected for analysis as they are generally considered the best available options. Our results show that their use can be recommended in order to increase both crop yields and NUE (grand mean increase of 7.5% and 12.9%, respectively). However, their effectiveness was dependent on the environmental and management factors of the studies evaluated. Larger responses were found in coarse-textured soils, irrigated systems and/or crops receiving high nitrogen fertilizer rates. In alkaline soils (pH ≥ 8), the urease inhibitor NBPT produced the largest effect size. Given that their use represents an additional cost for farmers, understanding the best management practices to maximize their effectiveness is paramount to allow effective comparison with other practices that increase crop productivity and NUE. Based on the meta-analysis results, NBPT was identified as a mitigation option with large potential. Urease inhibitors (UIs) have shown to promote high N use efficiency by reducing ammonia (NH3) volatilization. In the last few years, however, some field researches have shown an effective mitigation of UIs over N2O losses from fertilized soils under conditions of low soil moisture. Given the inherent high variability of field experiments where soil moisture content changes rapidly, it has been impossible to mechanistically understand the potential of UIs to reduce N2O emissions and its dependency on the soil water-filled pore space (WFPS). An incubation experiment was carried out aiming to assess what is the main biotic mechanism behind N2O emission when UIs are applied under different soil moisture conditions (40, 60 and 80% WFPS), and to analyze to what extent the soil WFPS regulates the effect of the inhibitor over N2O emissions. A second UI (i.e. PPDA) was also used aiming to compare the effect of NBPT with that of another commercially available urease inhibitor; this allowed us to see if the effect of NBPT was inhibitor-specific or not. The N2O emissions at 40% WFPS were almost negligible, being significantly lower from all fertilized treatments than that produced at 60 and 80% WFPS. Compared to urea alone, NBPT+U reduced the N2O emissions at 60% WFPS but had no effect at 80% WFPS. The application of PPDA significantly increased the emissions with respect to U at 80% WFPS whereas no significant effect was found at 60% WFPS. At 80% WFPS denitrification was the main source of N2O emissions for all treatments. Both nitrification and denitrification had a determinant role on these emissions at 60% WFPS. These results suggest that adequate management of the UI NBPT can provide, under certain soil conditions, an opportunity for N2O mitigation. We translated our previous results to realistic field conditions by means of a field experiment with a barley crop (Hordeum vulgare L.) under rainfed Mediterranean conditions in which we evaluated the effectiveness of NBPT to reduce N losses and increase crop yields. Crop yield, soil mineral N concentrations, dissolved organic carbon (DOC), denitrification potential, NH3, N2O and nitric oxide (NO) fluxes were measured during the growing season. The inclusion of the inhibitor reduced NH3 emissions in the 30 d following urea application by 58% and net N2O and NO emissions in the 95 d following urea application by 86 and 88%, respectively. NBPT addition also increased grain yield by 5% and N uptake by 6%, although neither increase was statistically significant. Under the experimental conditions presented here, these results demonstrate the potential of the urease inhibitor NBPT in abating NH3, N2O and NO emissions from arable soils fertilized with urea, slowing urea hydrolysis and releasing lower concentrations of NH4 + to the upper soil layer. Drip irrigation combined with split application of N fertilizer dissolved in the irrigation water (i.e. drip fertigation) is commonly considered best management practice for water and nutrient efficiency. Some of the main factors (WFPS, NH4 + and NO3 -) regulating the emissions of GHGs (i.e. N2O, carbon dioxide (CO2) and methane (CH4)) and NO can easily be manipulated by drip fertigation without yield penalties. In this study, we tested management options to reduce these emissions in a field experiment with a melon (Cucumis melo L.) crop. Treatments included drip irrigation frequency (weekly/daily) and type of N fertilizer (urea/calcium nitrate) applied by fertigation. Crop yield, environmental parameters, soil mineral N concentrations, N2O, NO, CH4, and CO2 fluxes were measured during the growing season. Fertigation with urea instead of calcium nitrate increased N2O and NO emissions by a factor of 2.4 and 2.9, respectively (P < 0.005). Daily irrigation reduced NO emissions by 42% (P < 0.005) but increased CO2 emissions by 21% (P < 0.05) compared with weekly irrigation. Based on yield-scaled Global Warming Potential as well as NO emission factors, we conclude that weekly fertigation with a NO3 --based fertilizer is the best option to combine agronomic productivity with environmental sustainability. Agricultural soils in semiarid Mediterranean areas are characterized by low organic matter contents and low fertility levels. Application of crop residues and/or manures as amendments is a cost-effective and sustainable alternative to overcome this problem. However, these management practices may induce important changes in the nitrogen oxide emissions from these agroecosystems, with additional impacts on CO2 emissions. In this context, a field experiment was carried out with a barley (Hordeum vulgare L.) crop under Mediterranean conditions to evaluate the effect of combining maize (Zea mays L.) residues and N fertilizer inputs (organic and/or mineral) on these emissions. Crop yield and N uptake, soil mineral N concentrations, dissolved organic carbon (DOC), denitrification capacity, N2O, NO and CO2 fluxes were measured during the growing season. The incorporation of maize stover increased N2O emissions during the experimental period by c. 105 %. Conversely, NO emissions were significantly reduced in the plots amended with crop residues. The partial substitution of urea by pig slurry reduced net N2O emissions by 46 and 39 %, with and without the incorporation of crop residues respectively. Net emissions of NO were reduced 38 and 17 % for the same treatments. Molar DOC:NO3 - ratio was found to be a robust predictor of N2O and NO fluxes. The main effect of the interaction between crop residue and N fertilizer application occurred in the medium term (4-6 month after application), enhancing N2O emissions and decreasing NO emissions as consequence of residue incorporation. The substitution of urea by pig slurry can be considered a good management strategy since N2O and NO emissions were reduced by the use of the organic residue. Grassland ecosystems worldwide provide many important ecosystem services but they also function as a major source of N2O, especially in response to N deposition by grazing animals. In order to explore the role of plants as mediators of these emissions, we tested whether and how N2O emissions are dependent on grass species richness and/or specific grass species composition in the absence and presence of urine deposition. We hypothesized that: 1) N2O emissions relate negatively to plant productivity; 2) four-species mixtures have lower emissions than monocultures (as they are expected to be more productive); 3) emissions are lowest in combinations of species with diverging root morphology and high root biomass; and 4) the identity of the key species that reduce N2O emissions is dependent on urine deposition. We established monocultures and two- and four-species mixtures of common grass species with diverging functional traits: Lolium perenne L. (Lp), Festuca arundinacea Schreb. (Fa), Phleum pratense L. (Php) and Poa trivialis L. (Pt), and quantified N2O emissions for 42 days. We found no relation between plant species richness and N2O emissions. However, N2O emissions were significantly reduced in specific plant species combinations. In the absence of urine, plant communities of Fa+Php acted as a sink for N2O, whereas the monocultures of these species constituted a N2O source. With urine application Lp+Pt plant communities reduced (P < 0.001) N2O emissions by 44% compared to monocultures of Lp. Reductions in N2O emissions by species mixtures could be explained by total biomass productivity and by complementarity in root morphology. Our study shows that plant species composition is a key component underlying N2O emissions from grassland ecosystems. Selection of specific grass species combinations in the context of the expected nitrogen deposition regimes may therefore provide a key management practice for mitigation of N2O emissions.
Resumo:
Esta tesis doctoral se centra principalmente en técnicas de ataque y contramedidas relacionadas con ataques de canal lateral (SCA por sus siglas en inglés), que han sido propuestas dentro del campo de investigación académica desde hace 17 años. Las investigaciones relacionadas han experimentado un notable crecimiento en las últimas décadas, mientras que los diseños enfocados en la protección sólida y eficaz contra dichos ataques aún se mantienen como un tema de investigación abierto, en el que se necesitan iniciativas más confiables para la protección de la información persona de empresa y de datos nacionales. El primer uso documentado de codificación secreta se remonta a alrededor de 1700 B.C., cuando los jeroglíficos del antiguo Egipto eran descritos en las inscripciones. La seguridad de la información siempre ha supuesto un factor clave en la transmisión de datos relacionados con inteligencia diplomática o militar. Debido a la evolución rápida de las técnicas modernas de comunicación, soluciones de cifrado se incorporaron por primera vez para garantizar la seguridad, integridad y confidencialidad de los contextos de transmisión a través de cables sin seguridad o medios inalámbricos. Debido a las restricciones de potencia de cálculo antes de la era del ordenador, la técnica de cifrado simple era un método más que suficiente para ocultar la información. Sin embargo, algunas vulnerabilidades algorítmicas pueden ser explotadas para restaurar la regla de codificación sin mucho esfuerzo. Esto ha motivado nuevas investigaciones en el área de la criptografía, con el fin de proteger el sistema de información ante sofisticados algoritmos. Con la invención de los ordenadores se ha acelerado en gran medida la implementación de criptografía segura, que ofrece resistencia eficiente encaminada a obtener mayores capacidades de computación altamente reforzadas. Igualmente, sofisticados cripto-análisis han impulsado las tecnologías de computación. Hoy en día, el mundo de la información ha estado involucrado con el campo de la criptografía, enfocada a proteger cualquier campo a través de diversas soluciones de cifrado. Estos enfoques se han fortalecido debido a la unificación optimizada de teorías matemáticas modernas y prácticas eficaces de hardware, siendo posible su implementación en varias plataformas (microprocesador, ASIC, FPGA, etc.). Las necesidades y requisitos de seguridad en la industria son las principales métricas de conducción en el diseño electrónico, con el objetivo de promover la fabricación de productos de gran alcance sin sacrificar la seguridad de los clientes. Sin embargo, una vulnerabilidad en la implementación práctica encontrada por el Prof. Paul Kocher, et al en 1996 implica que un circuito digital es inherentemente vulnerable a un ataque no convencional, lo cual fue nombrado posteriormente como ataque de canal lateral, debido a su fuente de análisis. Sin embargo, algunas críticas sobre los algoritmos criptográficos teóricamente seguros surgieron casi inmediatamente después de este descubrimiento. En este sentido, los circuitos digitales consisten típicamente en un gran número de celdas lógicas fundamentales (como MOS - Metal Oxide Semiconductor), construido sobre un sustrato de silicio durante la fabricación. La lógica de los circuitos se realiza en función de las innumerables conmutaciones de estas células. Este mecanismo provoca inevitablemente cierta emanación física especial que puede ser medida y correlacionada con el comportamiento interno del circuito. SCA se puede utilizar para revelar datos confidenciales (por ejemplo, la criptografía de claves), analizar la arquitectura lógica, el tiempo e incluso inyectar fallos malintencionados a los circuitos que se implementan en sistemas embebidos, como FPGAs, ASICs, o tarjetas inteligentes. Mediante el uso de la comparación de correlación entre la cantidad de fuga estimada y las fugas medidas de forma real, información confidencial puede ser reconstruida en mucho menos tiempo y computación. Para ser precisos, SCA básicamente cubre una amplia gama de tipos de ataques, como los análisis de consumo de energía y radiación ElectroMagnética (EM). Ambos se basan en análisis estadístico y, por lo tanto, requieren numerosas muestras. Los algoritmos de cifrado no están intrínsecamente preparados para ser resistentes ante SCA. Es por ello que se hace necesario durante la implementación de circuitos integrar medidas que permitan camuflar las fugas a través de "canales laterales". Las medidas contra SCA están evolucionando junto con el desarrollo de nuevas técnicas de ataque, así como la continua mejora de los dispositivos electrónicos. Las características físicas requieren contramedidas sobre la capa física, que generalmente se pueden clasificar en soluciones intrínsecas y extrínsecas. Contramedidas extrínsecas se ejecutan para confundir la fuente de ataque mediante la integración de ruido o mala alineación de la actividad interna. Comparativamente, las contramedidas intrínsecas están integradas en el propio algoritmo, para modificar la aplicación con el fin de minimizar las fugas medibles, o incluso hacer que dichas fugas no puedan ser medibles. Ocultación y Enmascaramiento son dos técnicas típicas incluidas en esta categoría. Concretamente, el enmascaramiento se aplica a nivel algorítmico, para alterar los datos intermedios sensibles con una máscara de manera reversible. A diferencia del enmascaramiento lineal, las operaciones no lineales que ampliamente existen en criptografías modernas son difíciles de enmascarar. Dicho método de ocultación, que ha sido verificado como una solución efectiva, comprende principalmente la codificación en doble carril, que está ideado especialmente para aplanar o eliminar la fuga dependiente de dato en potencia o en EM. En esta tesis doctoral, además de la descripción de las metodologías de ataque, se han dedicado grandes esfuerzos sobre la estructura del prototipo de la lógica propuesta, con el fin de realizar investigaciones enfocadas a la seguridad sobre contramedidas de arquitectura a nivel lógico. Una característica de SCA reside en el formato de las fuentes de fugas. Un típico ataque de canal lateral se refiere al análisis basado en la potencia, donde la capacidad fundamental del transistor MOS y otras capacidades parásitas son las fuentes esenciales de fugas. Por lo tanto, una lógica robusta resistente a SCA debe eliminar o mitigar las fugas de estas micro-unidades, como las puertas lógicas básicas, los puertos I/O y las rutas. Las herramientas EDA proporcionadas por los vendedores manipulan la lógica desde un nivel más alto, en lugar de realizarlo desde el nivel de puerta, donde las fugas de canal lateral se manifiestan. Por lo tanto, las implementaciones clásicas apenas satisfacen estas necesidades e inevitablemente atrofian el prototipo. Por todo ello, la implementación de un esquema de diseño personalizado y flexible ha de ser tomado en cuenta. En esta tesis se presenta el diseño y la implementación de una lógica innovadora para contrarrestar SCA, en la que se abordan 3 aspectos fundamentales: I. Se basa en ocultar la estrategia sobre el circuito en doble carril a nivel de puerta para obtener dinámicamente el equilibrio de las fugas en las capas inferiores; II. Esta lógica explota las características de la arquitectura de las FPGAs, para reducir al mínimo el gasto de recursos en la implementación; III. Se apoya en un conjunto de herramientas asistentes personalizadas, incorporadas al flujo genérico de diseño sobre FPGAs, con el fin de manipular los circuitos de forma automática. El kit de herramientas de diseño automático es compatible con la lógica de doble carril propuesta, para facilitar la aplicación práctica sobre la familia de FPGA del fabricante Xilinx. En este sentido, la metodología y las herramientas son flexibles para ser extendido a una amplia gama de aplicaciones en las que se desean obtener restricciones mucho más rígidas y sofisticadas a nivel de puerta o rutado. En esta tesis se realiza un gran esfuerzo para facilitar el proceso de implementación y reparación de lógica de doble carril genérica. La viabilidad de las soluciones propuestas es validada mediante la selección de algoritmos criptográficos ampliamente utilizados, y su evaluación exhaustiva en comparación con soluciones anteriores. Todas las propuestas están respaldadas eficazmente a través de ataques experimentales con el fin de validar las ventajas de seguridad del sistema. El presente trabajo de investigación tiene la intención de cerrar la brecha entre las barreras de implementación y la aplicación efectiva de lógica de doble carril. En esencia, a lo largo de esta tesis se describirá un conjunto de herramientas de implementación para FPGAs que se han desarrollado para trabajar junto con el flujo de diseño genérico de las mismas, con el fin de lograr crear de forma innovadora la lógica de doble carril. Un nuevo enfoque en el ámbito de la seguridad en el cifrado se propone para obtener personalización, automatización y flexibilidad en el prototipo de circuito de bajo nivel con granularidad fina. Las principales contribuciones del presente trabajo de investigación se resumen brevemente a continuación: Lógica de Precharge Absorbed-DPL logic: El uso de la conversión de netlist para reservar LUTs libres para ejecutar la señal de precharge y Ex en una lógica DPL. Posicionamiento entrelazado Row-crossed con pares idénticos de rutado en redes de doble carril, lo que ayuda a aumentar la resistencia frente a la medición EM selectiva y mitigar los impactos de las variaciones de proceso. Ejecución personalizada y herramientas de conversión automática para la generación de redes idénticas para la lógica de doble carril propuesta. (a) Para detectar y reparar conflictos en las conexiones; (b) Detectar y reparar las rutas asimétricas. (c) Para ser utilizado en otras lógicas donde se requiere un control estricto de las interconexiones en aplicaciones basadas en Xilinx. Plataforma CPA de pruebas personalizadas para el análisis de EM y potencia, incluyendo la construcción de dicha plataforma, el método de medición y análisis de los ataques. Análisis de tiempos para cuantificar los niveles de seguridad. División de Seguridad en la conversión parcial de un sistema de cifrado complejo para reducir los costes de la protección. Prueba de concepto de un sistema de calefacción auto-adaptativo para mitigar los impactos eléctricos debido a la variación del proceso de silicio de manera dinámica. La presente tesis doctoral se encuentra organizada tal y como se detalla a continuación: En el capítulo 1 se abordan los fundamentos de los ataques de canal lateral, que abarca desde conceptos básicos de teoría de modelos de análisis, además de la implementación de la plataforma y la ejecución de los ataques. En el capítulo 2 se incluyen las estrategias de resistencia SCA contra los ataques de potencia diferencial y de EM. Además de ello, en este capítulo se propone una lógica en doble carril compacta y segura como contribución de gran relevancia, así como también se presentará la transformación lógica basada en un diseño a nivel de puerta. Por otra parte, en el Capítulo 3 se abordan los desafíos relacionados con la implementación de lógica en doble carril genérica. Así mismo, se describirá un flujo de diseño personalizado para resolver los problemas de aplicación junto con una herramienta de desarrollo automático de aplicaciones propuesta, para mitigar las barreras de diseño y facilitar los procesos. En el capítulo 4 se describe de forma detallada la elaboración e implementación de las herramientas propuestas. Por otra parte, la verificación y validaciones de seguridad de la lógica propuesta, así como un sofisticado experimento de verificación de la seguridad del rutado, se describen en el capítulo 5. Por último, un resumen de las conclusiones de la tesis y las perspectivas como líneas futuras se incluyen en el capítulo 6. Con el fin de profundizar en el contenido de la tesis doctoral, cada capítulo se describe de forma más detallada a continuación: En el capítulo 1 se introduce plataforma de implementación hardware además las teorías básicas de ataque de canal lateral, y contiene principalmente: (a) La arquitectura genérica y las características de la FPGA a utilizar, en particular la Xilinx Virtex-5; (b) El algoritmo de cifrado seleccionado (un módulo comercial Advanced Encryption Standard (AES)); (c) Los elementos esenciales de los métodos de canal lateral, que permiten revelar las fugas de disipación correlacionadas con los comportamientos internos; y el método para recuperar esta relación entre las fluctuaciones físicas en los rastros de canal lateral y los datos internos procesados; (d) Las configuraciones de las plataformas de pruebas de potencia / EM abarcadas dentro de la presente tesis. El contenido de esta tesis se amplia y profundiza a partir del capítulo 2, en el cual se abordan varios aspectos claves. En primer lugar, el principio de protección de la compensación dinámica de la lógica genérica de precarga de doble carril (Dual-rail Precharge Logic-DPL) se explica mediante la descripción de los elementos compensados a nivel de puerta. En segundo lugar, la lógica PA-DPL es propuesta como aportación original, detallando el protocolo de la lógica y un caso de aplicación. En tercer lugar, dos flujos de diseño personalizados se muestran para realizar la conversión de doble carril. Junto con ello, se aclaran las definiciones técnicas relacionadas con la manipulación por encima de la netlist a nivel de LUT. Finalmente, una breve discusión sobre el proceso global se aborda en la parte final del capítulo. El Capítulo 3 estudia los principales retos durante la implementación de DPLs en FPGAs. El nivel de seguridad de las soluciones de resistencia a SCA encontradas en el estado del arte se ha degenerado debido a las barreras de implantación a través de herramientas EDA convencionales. En el escenario de la arquitectura FPGA estudiada, se discuten los problemas de los formatos de doble carril, impactos parásitos, sesgo tecnológico y la viabilidad de implementación. De acuerdo con estas elaboraciones, se plantean dos problemas: Cómo implementar la lógica propuesta sin penalizar los niveles de seguridad, y cómo manipular un gran número de celdas y automatizar el proceso. El PA-DPL propuesto en el capítulo 2 se valida con una serie de iniciativas, desde características estructurales como doble carril entrelazado o redes de rutado clonadas, hasta los métodos de aplicación tales como las herramientas de personalización y automatización de EDA. Por otra parte, un sistema de calefacción auto-adaptativo es representado y aplicado a una lógica de doble núcleo, con el fin de ajustar alternativamente la temperatura local para equilibrar los impactos negativos de la variación del proceso durante la operación en tiempo real. El capítulo 4 se centra en los detalles de la implementación del kit de herramientas. Desarrollado sobre una API third-party, el kit de herramientas personalizado es capaz de manipular los elementos de la lógica de circuito post P&R ncd (una versión binaria ilegible del xdl) convertido al formato XDL Xilinx. El mecanismo y razón de ser del conjunto de instrumentos propuestos son cuidadosamente descritos, que cubre la detección de enrutamiento y los enfoques para la reparación. El conjunto de herramientas desarrollado tiene como objetivo lograr redes de enrutamiento estrictamente idénticos para la lógica de doble carril, tanto para posicionamiento separado como para el entrelazado. Este capítulo particularmente especifica las bases técnicas para apoyar las implementaciones en los dispositivos de Xilinx y su flexibilidad para ser utilizado sobre otras aplicaciones. El capítulo 5 se enfoca en la aplicación de los casos de estudio para la validación de los grados de seguridad de la lógica propuesta. Se discuten los problemas técnicos detallados durante la ejecución y algunas nuevas técnicas de implementación. (a) Se discute el impacto en el proceso de posicionamiento de la lógica utilizando el kit de herramientas propuesto. Diferentes esquemas de implementación, tomando en cuenta la optimización global en seguridad y coste, se verifican con los experimentos con el fin de encontrar los planes de posicionamiento y reparación optimizados; (b) las validaciones de seguridad se realizan con los métodos de correlación y análisis de tiempo; (c) Una táctica asintótica se aplica a un núcleo AES sobre BCDL estructurado para validar de forma sofisticada el impacto de enrutamiento sobre métricas de seguridad; (d) Los resultados preliminares utilizando el sistema de calefacción auto-adaptativa sobre la variación del proceso son mostrados; (e) Se introduce una aplicación práctica de las herramientas para un diseño de cifrado completa. Capítulo 6 incluye el resumen general del trabajo presentado dentro de esta tesis doctoral. Por último, una breve perspectiva del trabajo futuro se expone, lo que puede ampliar el potencial de utilización de las contribuciones de esta tesis a un alcance más allá de los dominios de la criptografía en FPGAs. ABSTRACT This PhD thesis mainly concentrates on countermeasure techniques related to the Side Channel Attack (SCA), which has been put forward to academic exploitations since 17 years ago. The related research has seen a remarkable growth in the past decades, while the design of solid and efficient protection still curiously remain as an open research topic where more reliable initiatives are required for personal information privacy, enterprise and national data protections. The earliest documented usage of secret code can be traced back to around 1700 B.C., when the hieroglyphs in ancient Egypt are scribed in inscriptions. Information security always gained serious attention from diplomatic or military intelligence transmission. Due to the rapid evolvement of modern communication technique, crypto solution was first incorporated by electronic signal to ensure the confidentiality, integrity, availability, authenticity and non-repudiation of the transmitted contexts over unsecure cable or wireless channels. Restricted to the computation power before computer era, simple encryption tricks were practically sufficient to conceal information. However, algorithmic vulnerabilities can be excavated to restore the encoding rules with affordable efforts. This fact motivated the development of modern cryptography, aiming at guarding information system by complex and advanced algorithms. The appearance of computers has greatly pushed forward the invention of robust cryptographies, which efficiently offers resistance relying on highly strengthened computing capabilities. Likewise, advanced cryptanalysis has greatly driven the computing technologies in turn. Nowadays, the information world has been involved into a crypto world, protecting any fields by pervasive crypto solutions. These approaches are strong because of the optimized mergence between modern mathematical theories and effective hardware practices, being capable of implement crypto theories into various platforms (microprocessor, ASIC, FPGA, etc). Security needs from industries are actually the major driving metrics in electronic design, aiming at promoting the construction of systems with high performance without sacrificing security. Yet a vulnerability in practical implementation found by Prof. Paul Kocher, et al in 1996 implies that modern digital circuits are inherently vulnerable to an unconventional attack approach, which was named as side-channel attack since then from its analysis source. Critical suspicions to theoretically sound modern crypto algorithms surfaced almost immediately after this discovery. To be specifically, digital circuits typically consist of a great number of essential logic elements (as MOS - Metal Oxide Semiconductor), built upon a silicon substrate during the fabrication. Circuit logic is realized relying on the countless switch actions of these cells. This mechanism inevitably results in featured physical emanation that can be properly measured and correlated with internal circuit behaviors. SCAs can be used to reveal the confidential data (e.g. crypto-key), analyze the logic architecture, timing and even inject malicious faults to the circuits that are implemented in hardware system, like FPGA, ASIC, smart Card. Using various comparison solutions between the predicted leakage quantity and the measured leakage, secrets can be reconstructed at much less expense of time and computation. To be precisely, SCA basically encloses a wide range of attack types, typically as the analyses of power consumption or electromagnetic (EM) radiation. Both of them rely on statistical analyses, and hence require a number of samples. The crypto algorithms are not intrinsically fortified with SCA-resistance. Because of the severity, much attention has to be taken into the implementation so as to assemble countermeasures to camouflage the leakages via "side channels". Countermeasures against SCA are evolving along with the development of attack techniques. The physical characteristics requires countermeasures over physical layer, which can be generally classified into intrinsic and extrinsic vectors. Extrinsic countermeasures are executed to confuse the attacker by integrating noise, misalignment to the intra activities. Comparatively, intrinsic countermeasures are built into the algorithm itself, to modify the implementation for minimizing the measurable leakage, or making them not sensitive any more. Hiding and Masking are two typical techniques in this category. Concretely, masking applies to the algorithmic level, to alter the sensitive intermediate values with a mask in reversible ways. Unlike the linear masking, non-linear operations that widely exist in modern cryptographies are difficult to be masked. Approved to be an effective counter solution, hiding method mainly mentions dual-rail logic, which is specially devised for flattening or removing the data-dependent leakage in power or EM signatures. In this thesis, apart from the context describing the attack methodologies, efforts have also been dedicated to logic prototype, to mount extensive security investigations to countermeasures on logic-level. A characteristic of SCA resides on the format of leak sources. Typical side-channel attack concerns the power based analysis, where the fundamental capacitance from MOS transistors and other parasitic capacitances are the essential leak sources. Hence, a robust SCA-resistant logic must eliminate or mitigate the leakages from these micro units, such as basic logic gates, I/O ports and routings. The vendor provided EDA tools manipulate the logic from a higher behavioral-level, rather than the lower gate-level where side-channel leakage is generated. So, the classical implementations barely satisfy these needs and inevitably stunt the prototype. In this case, a customized and flexible design scheme is appealing to be devised. This thesis profiles an innovative logic style to counter SCA, which mainly addresses three major aspects: I. The proposed logic is based on the hiding strategy over gate-level dual-rail style to dynamically overbalance side-channel leakage from lower circuit layer; II. This logic exploits architectural features of modern FPGAs, to minimize the implementation expenses; III. It is supported by a set of assistant custom tools, incorporated by the generic FPGA design flow, to have circuit manipulations in an automatic manner. The automatic design toolkit supports the proposed dual-rail logic, facilitating the practical implementation on Xilinx FPGA families. While the methodologies and the tools are flexible to be expanded to a wide range of applications where rigid and sophisticated gate- or routing- constraints are desired. In this thesis a great effort is done to streamline the implementation workflow of generic dual-rail logic. The feasibility of the proposed solutions is validated by selected and widely used crypto algorithm, for thorough and fair evaluation w.r.t. prior solutions. All the proposals are effectively verified by security experiments. The presented research work attempts to solve the implementation troubles. The essence that will be formalized along this thesis is that a customized execution toolkit for modern FPGA systems is developed to work together with the generic FPGA design flow for creating innovative dual-rail logic. A method in crypto security area is constructed to obtain customization, automation and flexibility in low-level circuit prototype with fine-granularity in intractable routings. Main contributions of the presented work are summarized next: Precharge Absorbed-DPL logic: Using the netlist conversion to reserve free LUT inputs to execute the Precharge and Ex signal in a dual-rail logic style. A row-crossed interleaved placement method with identical routing pairs in dual-rail networks, which helps to increase the resistance against selective EM measurement and mitigate the impacts from process variations. Customized execution and automatic transformation tools for producing identical networks for the proposed dual-rail logic. (a) To detect and repair the conflict nets; (b) To detect and repair the asymmetric nets. (c) To be used in other logics where strict network control is required in Xilinx scenario. Customized correlation analysis testbed for EM and power attacks, including the platform construction, measurement method and attack analysis. A timing analysis based method for quantifying the security grades. A methodology of security partitions of complex crypto systems for reducing the protection cost. A proof-of-concept self-adaptive heating system to mitigate electrical impacts over process variations in dynamic dual-rail compensation manner. The thesis chapters are organized as follows: Chapter 1 discusses the side-channel attack fundamentals, which covers from theoretic basics to analysis models, and further to platform setup and attack execution. Chapter 2 centers to SCA-resistant strategies against generic power and EM attacks. In this chapter, a major contribution, a compact and secure dual-rail logic style, will be originally proposed. The logic transformation based on bottom-layer design will be presented. Chapter 3 is scheduled to elaborate the implementation challenges of generic dual-rail styles. A customized design flow to solve the implementation problems will be described along with a self-developed automatic implementation toolkit, for mitigating the design barriers and facilitating the processes. Chapter 4 will originally elaborate the tool specifics and construction details. The implementation case studies and security validations for the proposed logic style, as well as a sophisticated routing verification experiment, will be described in Chapter 5. Finally, a summary of thesis conclusions and perspectives for future work are included in Chapter 5. To better exhibit the thesis contents, each chapter is further described next: Chapter 1 provides the introduction of hardware implementation testbed and side-channel attack fundamentals, and mainly contains: (a) The FPGA generic architecture and device features, particularly of Virtex-5 FPGA; (b) The selected crypto algorithm - a commercially and extensively used Advanced Encryption Standard (AES) module - is detailed; (c) The essentials of Side-Channel methods are profiled. It reveals the correlated dissipation leakage to the internal behaviors, and the method to recover this relationship between the physical fluctuations in side-channel traces and the intra processed data; (d) The setups of the power/EM testing platforms enclosed inside the thesis work are given. The content of this thesis is expanded and deepened from chapter 2, which is divided into several aspects. First, the protection principle of dynamic compensation of the generic dual-rail precharge logic is explained by describing the compensated gate-level elements. Second, the novel DPL is originally proposed by detailing the logic protocol and an implementation case study. Third, a couple of custom workflows are shown next for realizing the rail conversion. Meanwhile, the technical definitions that are about to be manipulated above LUT-level netlist are clarified. A brief discussion about the batched process is given in the final part. Chapter 3 studies the implementation challenges of DPLs in FPGAs. The security level of state-of-the-art SCA-resistant solutions are decreased due to the implementation barriers using conventional EDA tools. In the studied FPGA scenario, problems are discussed from dual-rail format, parasitic impact, technological bias and implementation feasibility. According to these elaborations, two problems arise: How to implement the proposed logic without crippling the security level; and How to manipulate a large number of cells and automate the transformation. The proposed PA-DPL in chapter 2 is legalized with a series of initiatives, from structures to implementation methods. Furthermore, a self-adaptive heating system is depicted and implemented to a dual-core logic, assumed to alternatively adjust local temperature for balancing the negative impacts from silicon technological biases on real-time. Chapter 4 centers to the toolkit system. Built upon a third-party Application Program Interface (API) library, the customized toolkit is able to manipulate the logic elements from post P&R circuit (an unreadable binary version of the xdl one) converted to Xilinx xdl format. The mechanism and rationale of the proposed toolkit are carefully convoyed, covering the routing detection and repairing approaches. The developed toolkit aims to achieve very strictly identical routing networks for dual-rail logic both for separate and interleaved placement. This chapter particularly specifies the technical essentials to support the implementations in Xilinx devices and the flexibility to be expanded to other applications. Chapter 5 focuses on the implementation of the case studies for validating the security grades of the proposed logic style from the proposed toolkit. Comprehensive implementation techniques are discussed. (a) The placement impacts using the proposed toolkit are discussed. Different execution schemes, considering the global optimization in security and cost, are verified with experiments so as to find the optimized placement and repair schemes; (b) Security validations are realized with correlation, timing methods; (c) A systematic method is applied to a BCDL structured module to validate the routing impact over security metric; (d) The preliminary results using the self-adaptive heating system over process variation is given; (e) A practical implementation of the proposed toolkit to a large design is introduced. Chapter 6 includes the general summary of the complete work presented inside this thesis. Finally, a brief perspective for the future work is drawn which might expand the potential utilization of the thesis contributions to a wider range of implementation domains beyond cryptography on FPGAs.
Resumo:
Esta tesis constituye un gran avance en el conocimiento del estudio y análisis de inestabilidades hidrodinámicas desde un punto de vista físico y teórico, como consecuencia de haber desarrollado innovadoras técnicas para la resolución computacional eficiente y precisa de la parte principal del espectro correspondiente a los problemas de autovalores (EVP) multidimensionales que gobiernan la inestabilidad de flujos con dos o tres direcciones espaciales inhomogéneas, denominados problemas de estabilidad global lineal. En el contexto del trabajo de desarrollo de herramientas computacionales presentado en la tesis, la discretización mediante métodos de diferencias finitas estables de alto orden de los EVP bidimensionales y tridimensionales que se derivan de las ecuaciones de Navier-Stokes linealizadas sobre flujos con dos o tres direcciones espaciales inhomogéneas, ha permitido una aceleración de cuatro órdenes de magnitud en su resolución. Esta mejora de eficiencia numérica se ha conseguido gracias al hecho de que usando estos esquemas de diferencias finitas, técnicas eficientes de resolución de problemas lineales son utilizables, explotando el alto nivel de dispersión o alto número de elementos nulos en las matrices involucradas en los problemas tratados. Como más notable consecuencia cabe destacar que la resolución de EVPs multidimensionales de inestabilidad global, que hasta la fecha necesitaban de superordenadores, se ha podido realizar en ordenadores de sobremesa. Además de la solución de problemas de estabilidad global lineal, el mencionado desarrollo numérico facilitó la extensión de las ecuaciones de estabilidad parabolizadas (PSE) lineales y no lineales para analizar la inestabilidad de flujos que dependen fuertemente en dos direcciones espaciales y suavemente en la tercera con las ecuaciones de estabilidad parabolizadas tridimensionales (PSE-3D). Precisamente la capacidad de extensión del novedoso algoritmo PSE-3D para el estudio de interacciones no lineales de los modos de estabilidad, desarrollado íntegramente en esta tesis, permite la predicción de transición en flujos complejos de gran interés industrial y por lo tanto extiende el concepto clásico de PSE, el cuál ha sido empleado exitosamente durante las pasadas tres décadas en el mismo contexto para problemas de capa límite bidimensional. Típicos ejemplos de flujos incompresibles se han analizado en este trabajo sin la necesidad de recurrir a restrictivas presuposiciones usadas en el pasado. Se han estudiado problemas vorticales como es el caso de un vórtice aislado o sistemas de vórtices simulando la estela de alas, en los que la homogeneidad axial no se impone y así se puede considerar la difusión viscosa del flujo. Además, se ha estudiado el chorro giratorio turbulento, cuya inestabilidad se utiliza para mejorar las características de funcionamiento de combustores. En la tesis se abarcan adicionalmente problemas de flujos compresibles. Se presenta el estudio de inestabilidad de flujos de borde de ataque a diferentes velocidades de vuelo. También se analiza la estela formada por un elemento rugoso aislado en capa límite supersónica e hipersónica, mostrando excelentes comparaciones con resultados obtenidos mediante simulación numérica directa. Finalmente, nuevas inestabilidades se han identificado en el flujo hipersónico a Mach 7 alrededor de un cono elíptico que modela el vehículo de pruebas en vuelo HIFiRE-5. Los resultados comparan favorablemente con experimentos en vuelo, lo que subraya aún más el potencial de las metodologías de análisis de estabilidad desarrolladas en esta tesis. ABSTRACT The present thesis constitutes a step forward in advancing the frontiers of knowledge of fluid flow instability from a physical point of view, as a consequence of having been successful in developing groundbreaking methodologies for the efficient and accurate computation of the leading part of the spectrum pertinent to multi-dimensional eigenvalue problems (EVP) governing instability of flows with two or three inhomogeneous spatial directions. In the context of the numerical work presented in this thesis, the discretization of the spatial operator resulting from linearization of the Navier-Stokes equations around flows with two or three inhomogeneous spatial directions by variable-high-order stable finite-difference methods has permitted a speedup of four orders of magnitude in the solution of the corresponding two- and three-dimensional EVPs. This improvement of numerical performance has been achieved thanks to the high-sparsity level offered by the high-order finite-difference schemes employed for the discretization of the operators. This permitted use of efficient sparse linear algebra techniques without sacrificing accuracy and, consequently, solutions being obtained on typical workstations, as opposed to the previously employed supercomputers. Besides solution of the two- and three-dimensional EVPs of global linear instability, this development paved the way for the extension of the (linear and nonlinear) Parabolized Stability Equations (PSE) to analyze instability of flows which depend in a strongly-coupled inhomogeneous manner on two spatial directions and weakly on the third. Precisely the extensibility of the novel PSE-3D algorithm developed in the framework of the present thesis to study nonlinear flow instability permits transition prediction in flows of industrial interest, thus extending the classic PSE concept which has been successfully employed in the same context to boundary-layer type of flows over the last three decades. Typical examples of incompressible flows, the instability of which was analyzed in the present thesis without the need to resort to the restrictive assumptions used in the past, range from isolated vortices, and systems thereof, in which axial homogeneity is relaxed to consider viscous diffusion, as well as turbulent swirling jets, the instability of which is exploited in order to improve flame-holding properties of combustors. The instability of compressible subsonic and supersonic leading edge flows has been solved, and the wake of an isolated roughness element in a supersonic and hypersonic boundary-layer has also been analyzed with respect to its instability: excellent agreement with direct numerical simulation results has been obtained in all cases. Finally, instability analysis of Mach number 7 ow around an elliptic cone modeling the HIFiRE-5 flight test vehicle has unraveled flow instabilities near the minor-axis centerline, results comparing favorably with flight test predictions.
Resumo:
En la construcción se puede almacenar calor a través de calor sensible y calor latente. El almacenamiento por calor latente es menos utilizado en aplicaciones arquitectónicas que el calor sensible, pero su capacidad de acumulación es mucho mayor. L a utilización de calor latente a través de materiales de cambio de fase (PCM), puede producir mejoras en el acondicionamiento térmico y reducir el consumo de energía por calefacción en los edificios. Por su posibilidad de uso en morteros de cemento, las pa rafinas microencapsuladas aparecen como una buena alternativa tecnológica dentro de los materiales de construcción. Existe un grupo de problemas relacionados con el cambio de comportamiento que experimenta el mortero dependiendo de las cantidades incorpora das de PCM microencapsulado. En el presente trabajo se expone su aplicación a morteros de cemento en cantidades de 5, 10 y 20 %, y relaciones agua/cemento de 0,50 ; 0,70 y 0,90. Los resultados permiten ver los efectos en las propiedades del mortero, observá ndose disminución de resistencia y densidad, así como también cambios en el comportamiento de mezclas en estado fresco de mortero con PCM. Agregado en la mezcla, permite acumular mayores cantidades de energía sin aumentar el espesor de la capa de mortero.
Resumo:
El interés por los sistemas fotovoltaicos de concentración (CPV) ha resurgido en los últimos años amparado por el desarrollo de células multiunión de muy alta eficiencia basadas en semiconductores de los grupos III-V. Estas células han permitido obtener módulos de concentración con eficiencias que prácticamente duplican las del panel plano y que llegan al 35% en los módulos récord. Esta tesis está dedicada al diseño y la implementación experimental de nuevos conceptos que permitan obtener módulos CPV que no sólo alcancen una eficiencia alta en condiciones estándar sino que, además, sean lo suficientemente tolerantes a errores de montaje, seguimiento, temperatura y variaciones espectrales para que la energía que producen a lo largo del año sea máxima. Una de las primeras cuestiones que se abordan es el diseño de elementos ópticos secundarios para sistemas cuyo primario es una lente de Fresnel y que permiten, para una concentración fija, aumentar el ángulo de aceptancia y la tolerancia del sistema. Varios secundarios reflexivos y refractivos han sido diseñados y analizados mediante trazado de rayos. En particular, utilizando óptica anidólica y basándose en el diseño de una sola etapa conocido como ‘concentrador dieléctrico que funciona por reflexión total interna‘, se ha diseñado, fabricado y caracterizado un secundario con salida cuadrada que, usado junto con una lente de Fresnel, permite alcanzar simultáneamente una elevada eficiencia, concentración y aceptancia. Además, se ha propuesto y prototipado un método alternativo de fabricación para otro de los secundarios, denominado domo, consistente en el sobremoldeo de silicona sobre células solares. Una de las características que impregna todo el trabajo realizado en esta tesis es la aproximación holística en el diseño de módulos CPV, es decir, se ha prestado especial atención al diseño conjunto de la célula y la óptica para garantizar que el sistema total alcance la mayor eficiencia posible. En este sentido muchos sistemas ópticos desarrollados en esta tesis han sido diseñados, caracterizados y optimizados teniendo en cuenta que el ajuste de corriente entre las distintas subcélulas que comprenden la célula multiunión bajo el concentrador sea muy próximo a uno. La capa antirreflectante sobre la célula funciona, en cierto modo, como interfaz entre la óptica y la célula, por lo que se ha diseñado un método de optimización de capas antirreflectantes que considera no sólo el amplio rango de longitudes de onda para el que las células multiunión son sensibles sino también la distribución angular de intensidad sobre la célula creada por la óptica de concentración. Además, la cuestión de la falta de uniformidad también se ha abordado mediante la comparación de las distribuciones espectrales y espaciales de irradiancia que crean diferentes ópticas (simuladas mediante trazado de rayos y fotografiadas) y las pérdidas de eficiencia que experimentan las células iluminadas por dichas ópticas de concentración medidas experimentalmente. El efecto de la temperatura en la óptica de concentración también ha sido objeto de estudio de esta tesis. En particular, mediante simulaciones de elementos finitos se han dado los primeros pasos para el análisis de las deformaciones que sufren los dientes de las lentes de Fresnel híbridas (vidrio-silicona), así como el cambio de índice de refracción con la temperatura y la influencia de ambos efectos sobre el funcionamiento de los sistemas. Se ha implementado un modelo que tiene por objeto considerar las variaciones ambientales, principalmente temperatura y contenido espectral de la radiación directa, así como las sensibilidades térmica y espectral de los sistemas CPV, con el fin de maximizar la energía producida por un módulo de concentración a lo largo de un año en un emplazamiento determinado. Los capítulos 5 y 6 de este libro están dedicados al diseño, fabricación y caracterización de un nuevo concepto de módulo fotovoltaico denominado FluidReflex y basado en una única etapa reflexiva con dieléctrico fluido. En este nuevo concepto la presencia del fluido aporta algunas ventajas significativas como son: un aumento del producto concentración por aceptancia (CAP, en sus siglas en inglés) alcanzable al rodear la célula con un medio cuyo índice de refracción es mayor que uno, una mejora de la eficiencia óptica al disminuir las pérdidas por reflexión de Fresnel en varias interfaces, una mejora de la disipación térmica ya que el calor que se concentra junto a la célula se trasmite por convección natural y conducción en el fluido y un aislamiento eléctrico mejorado. Mediante la construcción y medida de varios prototipos de unidad elemental se ha demostrado que no existe ninguna razón fundamental que impida la implementación práctica del concepto teórico alcanzando una elevada eficiencia. Se ha realizado un análisis de fluidos candidatos probando la existencia de al menos dos de ellos que cumplen todos los requisitos (en particular el de estabilidad bajo condiciones de luz concentrada) para formar parte del sistema de concentración FluidReflex. Por ´ultimo, se han diseñado, fabricado y caracterizado varios prototipos preindustriales de módulos FluidReflex para lo cual ha sido necesario optimizar el proceso de fabricación de la óptica multicavidad a fin de mantener el buen comportamiento óptico obtenido en la fabricación de la unidad elemental. Los distintos prototipos han sido medidos, tanto en el laboratorio como bajo el sol real, analizando el ajuste de corriente de la célula iluminada por el concentrador FluidReflex bajo diferentes distribuciones espectrales de la radiación incidente así como el excelente comportamiento térmico del módulo. ABSTRACT A renewed interest in concentrating photovoltaic (CPV) systems has emerged in recent years encouraged by the development of high-efficiency multijunction solar cells based in IIIV semiconductors that have led to CPV module efficiencies which practically double that of flat panel PV and which reach 35% for record modules. This thesis is devoted to the design and experimental implementation of new concepts for obtaining CPV modules that not only achieve high efficiency under standard conditions but also have such a wide tolerance to assembly errors, tracking, temperature and spectral variations, that the energy generated by them throughout the year is maximized. One of the first addressed issues is the design of secondary optical elements whose primary optics is a Fresnel lens and which, for a fixed concentration, allow an increased acceptance angle and tolerance of the system. Several reflective and refractive secondaries have been designed and analyzed using ray tracing. In particular, using nonimaging optics and based on the single-stage design known as ‘dielectric totally internally reflecting concentrator’, a secondary with square output has been designed, fabricated and characterized. Used together with a Fresnel lens, the secondary can simultaneously achieve high efficiency, concentration and acceptance. Furthermore, an alternative method has been proposed and prototyped for the fabrication of the secondary named dome. The optics is manufactured by direct overmolding of silicone over the solar cells. One characteristic that permeates all the work done in this thesis is the holistic approach in the design of CPV modules, meaning that special attention has been paid to the joint design of the solar cell and the optics to ensure that the total system achieves the highest attainable efficiency. In this regard, many optical systems developed in the thesis have been designed, characterized and optimized considering that the current matching among the subcells within the multijunction solar cell beneath the optics must be close to one. Antireflective coating over the cell acts, somehow, as an interface between the optics and the cell. Consequently, a method has been designed to optimize antireflective coatings that takes into account not only the broad wavelength range that multijunction solar cells are sensitive to but also the angular intensity distribution created by the concentrating optics. In addition, the issue of non-uniformity has also been addressed by comparing the spectral and spatial distributions of irradiance created by different optics (simulated by ray tracing and photographed) and the efficiency losses experienced by cells illuminated by those concentrating optics experimentally determined. The effect of temperature on the concentrating optics has also been studied in this thesis. In particular, finite element simulations have been use to analyze the deformations experienced by the facets of hybrid (silicon-glass) Fresnel lenses, the change of refractive index with temperature and the influence of both effects on the system performance. A model has been implemented which take into consideration atmospheric variations, mainly temperature and spectral content of the direct normal irradiance, as well as thermal and spectral sensitivities of systems, with the aim of maximizing the energy harvested by a CPV module throughout the year in a particular location. Chapters 5 and 6 of this book are devoted to the design, fabrication, and characterization of a new concentrator concept named FluidReflex and based on a single-stage reflective optics with fluid dielectric. In this new concept, the presence of the fluid provides some significant advantages such as: an increased concentration acceptance angle product (CAP) achievable by surrounding the cell with a medium whose refractive index is greater than one, an improvement of the optical efficiency by reducing losses due to Fresnel reflection at several interfaces, an improvement in heat dissipation as the heat concentrated near the cell is transmitted by natural convection and conduction in the fluid, and an improved electrical insulation. By fabricating and characterizing several elementary-unit prototypes it was shown that there is no fundamental reason that prevents the practical implementation of this theoretical concept reaching high efficiency. Several fluid candidates were investigated proving the existence of at least to fluids that meet all the requirements (including the stability under concentrated light) to become part of the FluidReflex concentrator. Finally, several pre-industrial FluidReflex module prototypes have been designed and fabricated. An optimization process for the manufacturing of the multicavity optics was necessary to attain such an optics quality as the one achieved by the single unit. The module prototypes have been measured, both indoors and outdoors, analyzing the current matching of the solar cells beneath the concentrator for different spectral distribution of the incident irradiance. Additionally, the module showed an excellent thermal performance.
Resumo:
Los modelos de simulación de cultivos permiten analizar varias combinaciones de laboreo-rotación y explorar escenarios de manejo. El modelo DSSAT fue evaluado bajo condiciones de secano en un experimento de campo de 16 años en la semiárida España central. Se evaluó el efecto del sistema de laboreo y las rotaciones basadas en cereales de invierno, en el rendimiento del cultivo y la calidad del suelo. Los modelos CERES y CROPGRO se utilizaron para simular el crecimiento y rendimiento del cultivo, mientras que el modelo DSSAT CENTURY se utilizó en las simulaciones de SOC y SN. Tanto las observaciones de campo como las simulaciones con CERES-Barley, mostraron que el rendimiento en grano de la cebada era mas bajo para el cereal continuo (BB) que para las rotaciones de veza (VB) y barbecho (FB) en ambos sistemas de laboreo. El modelo predijo más nitrógeno disponible en el laboreo convencional (CT) que en el no laboreo (NT) conduciendo a un mayor rendimiento en el CT. El SOC y el SN en la capa superficial del suelo, fueron mayores en NT que en CT, y disminuyeron con la profundidad en los valores tanto observados como simulados. Las mejores combinaciones para las condiciones de secano estudiadas fueron CT-VB y CT-FB, pero CT presentó menor contenido en SN y SOC que NT. El efecto beneficioso del NT en SOC y SN bajo condiciones Mediterráneas semiáridas puede ser identificado por observaciones de campo y por simulaciones de modelos de cultivos. La simulación del balance de agua en sistemas de cultivo es una herramienta útil para estudiar como el agua puede ser utilizado eficientemente. La comparación del balance de agua de DSSAT , con una simple aproximación “tipping bucket”, con el modelo WAVE más mecanicista, el cual integra la ecuación de Richard , es un potente método para valorar el funcionamiento del modelo. Los parámetros de suelo fueron calibrados usando el método de optimización global Simulated Annealing (SA). Un lisímetro continuo de pesada en suelo desnudo suministró los valores observados de drenaje y evapotranspiración (ET) mientras que el contenido de agua en el suelo (SW) fue suministrado por sensores de capacitancia. Ambos modelos funcionaron bien después de la optimización de los parámetros de suelo con SA, simulando el balance de agua en el suelo para el período de calibración. Para el período de validación, los modelos optimizados predijeron bien el contenido de agua en el suelo y la evaporación del suelo a lo largo del tiempo. Sin embargo, el drenaje fue predicho mejor con WAVE que con DSSAT, el cual presentó mayores errores en los valores acumulados. Esto podría ser debido a la naturaleza mecanicista de WAVE frente a la naturaleza más funcional de DSSAT. Los buenos resultados de WAVE indican que, después de la calibración, este puede ser utilizado como "benchmark" para otros modelos para periodos en los que no haya medidas de campo del drenaje. El funcionamiento de DSSAT-CENTURY en la simulación de SOC y N depende fuertemente del proceso de inicialización. Se propuso como método alternativo (Met.2) la inicialización de las fracciones de SOC a partir de medidas de mineralización aparente del suelo (Napmin). El Met.2 se comparó con el método de inicialización de Basso et al. (2011) (Met.1), aplicando ambos métodos a un experimento de campo de 4 años en un área en regadío de España central. Nmin y Napmin fueron sobreestimados con el Met.1, ya que la fracción estable obtenida (SOC3) en las capas superficiales del suelo fue más baja que con Met.2. El N lixiviado simulado fue similar en los dos métodos, con buenos resultados en los tratamientos de barbecho y cebada. El Met.1 subestimó el SOC en la capa superficial del suelo cuando se comparó con una serie observada de 12 años. El crecimiento y rendimiento del cultivo fueron adecuadamente simulados con ambos métodos, pero el N en la parte aérea de la planta y en el grano fueron sobreestimados con el Met.1. Los resultados variaron significativamente con las fracciones iniciales de SOC, resaltando la importancia del método de inicialización. El Met.2 ofrece una alternativa para la inicialización del modelo CENTURY, mejorando la simulación de procesos de N en el suelo. La continua emergencia de nuevas variedades de híbridos modernos de maíz limita la aplicación de modelos de simulación de cultivos, ya que estos nuevos híbridos necesitan ser calibrados en el campo para ser adecuados para su uso en los modelos. El desarrollo de relaciones basadas en la duración del ciclo, simplificaría los requerimientos de calibración facilitando la rápida incorporación de nuevos cultivares en DSSAT. Seis híbridos de maiz (FAO 300 hasta FAO 700) fueron cultivados en un experimento de campo de dos años en un área semiárida de regadío en España central. Los coeficientes genéticos fueron obtenidos secuencialmente, comenzando con los parámetros de desarrollo fenológico (P1, P2, P5 and PHINT), seguido de los parámetros de crecimiento del cultivo (G2 and G3). Se continuó el procedimiento hasta que la salida de las simulaciones estuvo en concordancia con las observaciones fenológicas de campo. Después de la calibración, los parámetros simulados se ajustaron bien a los parámetros observados, con bajos RMSE en todos los casos. Los P1 y P5 calibrados, incrementaron con la duración del ciclo. P1 fue una función lineal del tiempo térmico (TT) desde emergencia hasta floración y P5 estuvo linealmente relacionada con el TT desde floración a madurez. No hubo diferencias significativas en PHINT entre híbridos de FAO-500 a 700 , ya que tuvieron un número de hojas similar. Como los coeficientes fenológicos estuvieron directamente relacionados con la duración del ciclo, sería posible desarrollar rangos y correlaciones que permitan estimar dichos coeficientes a partir de la clasificación del ciclo. ABSTRACT Crop simulation models allow analyzing various tillage-rotation combinations and exploring management scenarios. DSSAT model was tested under rainfed conditions in a 16-year field experiment in semiarid central Spain. The effect of tillage system and winter cereal-based rotations on the crop yield and soil quality was evaluated. The CERES and CROPGRO models were used to simulate crop growth and yield, while the DSSAT CENTURY was used in the SOC and SN simulations. Both field observations and CERES-Barley simulations, showed that barley grain yield was lower for continuous cereal (BB) than for vetch (VB) and fallow (FB) rotations for both tillage systems. The model predicted higher nitrogen availability in the conventional tillage (CT) than in the no tillage (NT) leading to a higher yield in the CT. The SOC and SN in the top layer, were higher in NT than in CT, and decreased with depth in both simulated and observed values. The best combinations for the dry land conditions studied were CT-VB and CT-FB, but CT presented lower SN and SOC content than NT. The beneficial effect of NT on SOC and SN under semiarid Mediterranean conditions can be identified by field observations and by crop model simulations. The simulation of the water balance in cropping systems is a useful tool to study how water can be used efficiently. The comparison of DSSAT soil water balance, with a simpler “tipping bucket” approach, with the more mechanistic WAVE model, which integrates Richard’s equation, is a powerful method to assess model performance. The soil parameters were calibrated by using the Simulated Annealing (SA) global optimizing method. A continuous weighing lysimeter in a bare fallow provided the observed values of drainage and evapotranspiration (ET) while soil water content (SW) was supplied by capacitance sensors. Both models performed well after optimizing soil parameters with SA, simulating the soil water balance components for the calibrated period. For the validation period, the optimized models predicted well soil water content and soil evaporation over time. However, drainage was predicted better by WAVE than by DSSAT, which presented larger errors in the cumulative values. That could be due to the mechanistic nature of WAVE against the more functional nature of DSSAT. The good results from WAVE indicate that, after calibration, it could be used as benchmark for other models for periods when no drainage field measurements are available. The performance of DSSAT-CENTURY when simulating SOC and N strongly depends on the initialization process. Initialization of the SOC pools from apparent soil N mineralization (Napmin) measurements was proposed as alternative method (Met.2). Method 2 was compared to the Basso et al. (2011) initialization method (Met.1), by applying both methods to a 4-year field experiment in a irrigated area of central Spain. Nmin and Napmin were overestimated by Met.1, since the obtained stable pool (SOC3) in the upper layers was lower than from Met.2. Simulated N leaching was similar for both methods, with good results in fallow and barley treatments. Method 1 underestimated topsoil SOC when compared with a 12-year observed serial. Crop growth and yield were properly simulated by both methods, but N in shoots and grain were overestimated by Met.1. Results varied significantly with the initial SOC pools, highlighting the importance of the initialization procedure. Method 2 offers an alternative to initialize the CENTURY model, enhancing the simulation of soil N processes. The continuous emergence of new varieties of modern maize hybrids limits the application of crop simulation models, since these new hybrids should be calibrated in the field to be suitable for model use. The development of relationships based on the cycle duration, would simplify the calibration requirements facilitating the rapid incorporation of new cultivars into DSSAT. Six maize hybrids (FAO 300 through FAO 700) were grown in a 2-year field experiment in a semiarid irrigated area of central Spain. Genetic coefficients were obtained sequentially, starting with the phenological development parameters (P1, P2, P5 and PHINT), followed by the crop growth parameters (G2 and G3). The procedure was continued until the simulated outputs were in good agreement with the field phenological observations. After calibration, simulated parameters matched observed parameters well, with low RMSE in most cases. The calibrated P1 and P5 increased with the duration of the cycle. P1 was a linear function of the thermal time (TT) from emergence to silking and P5 was linearly related with the TT from silking to maturity . There were no significant differences in PHINT between hybrids from FAO-500 to 700 , as they had similar leaf number. Since phenological coefficients were directly related with the cycle duration, it would be possible to develop ranges and correlations which allow to estimate such coefficients from the cycle classification.