939 resultados para Flujo


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis está incluida dentro del campo del campo de Multiband Orthogonal Frequency Division Multiplexing Ultra Wideband (MB-OFDM UWB), el cual ha adquirido una gran importancia en las comunicaciones inalámbricas de alta tasa de datos en la última década. UWB surgió con el objetivo de satisfacer la creciente demanda de conexiones inalámbricas en interiores y de uso doméstico, con bajo coste y alta velocidad. La disponibilidad de un ancho de banda grande, el potencial para alta velocidad de transmisión, baja complejidad y bajo consumo de energía, unido al bajo coste de implementación, representa una oportunidad única para que UWB se convierta en una solución ampliamente utilizada en aplicaciones de Wireless Personal Area Network (WPAN). UWB está definido como cualquier transmisión que ocupa un ancho de banda de más de 20% de su frecuencia central, o más de 500 MHz. En 2002, la Comisión Federal de Comunicaciones (FCC) definió que el rango de frecuencias de transmisión de UWB legal es de 3.1 a 10.6 GHz, con una energía de transmisión de -41.3 dBm/Hz. Bajo las directrices de FCC, el uso de la tecnología UWB puede aportar una enorme capacidad en las comunicaciones de corto alcance. Considerando las ecuaciones de capacidad de Shannon, incrementar la capacidad del canal requiere un incremento lineal en el ancho de banda, mientras que un aumento similar de la capacidad de canal requiere un aumento exponencial en la energía de transmisión. En los últimos años, s diferentes desarrollos del UWB han sido extensamente estudiados en diferentes áreas, entre los cuales, el protocolo de comunicaciones inalámbricas MB-OFDM UWB está considerado como la mejor elección y ha sido adoptado como estándar ISO/IEC para los WPANs. Combinando la modulación OFDM y la transmisión de datos utilizando las técnicas de salto de frecuencia, el sistema MB-OFDM UWB es capaz de soportar tasas de datos con que pueden variar de los 55 a los 480 Mbps, alcanzando una distancia máxima de hasta 10 metros. Se esperara que la tecnología MB-OFDM tenga un consumo energético muy bajo copando un are muy reducida en silicio, proporcionando soluciones de bajo coste que satisfagan las demandas del mercado. Para cumplir con todas estas expectativas, el desarrollo y la investigación del MBOFDM UWB deben enfrentarse a varios retos, como son la sincronización de alta sensibilidad, las restricciones de baja complejidad, las estrictas limitaciones energéticas, la escalabilidad y la flexibilidad. Tales retos requieren un procesamiento digital de la señal de última generación, capaz de desarrollar sistemas que puedan aprovechar por completo las ventajas del espectro UWB y proporcionar futuras aplicaciones inalámbricas en interiores. Esta tesis se centra en la completa optimización de un sistema de transceptor de banda base MB-OFDM UWB digital, cuyo objetivo es investigar y diseñar un subsistema de comunicación inalámbrica para la aplicación de las Redes de Sensores Inalámbricas Visuales. La complejidad inherente de los procesadores FFT/IFFT y el sistema de sincronización así como la alta frecuencia de operación para todos los elementos de procesamiento, se convierten en el cuello de la botella para el diseño y la implementación del sistema de UWB digital en base de banda basado en MB-OFDM de baja energía. El objetivo del transceptor propuesto es conseguir baja energía y baja complejidad bajo la premisa de un alto rendimiento. Las optimizaciones están realizadas tanto a nivel algorítmico como a nivel arquitectural para todos los elementos del sistema. Una arquitectura hardware eficiente en consumo se propone en primer lugar para aquellos módulos correspondientes a núcleos de computación. Para el procesado de la Transformada Rápida de Fourier (FFT/IFFT), se propone un algoritmo mixed-radix, basado en una arquitectura con pipeline y se ha desarrollado un módulo de Decodificador de Viterbi (VD) equilibrado en coste-velocidad con el objetivo de reducir el consumo energético e incrementar la velocidad de procesamiento. También se ha implementado un correlador signo-bit simple basado en la sincronización del tiempo de símbolo es presentado. Este correlador es usado para detectar y sincronizar los paquetes de OFDM de forma robusta y precisa. Para el desarrollo de los subsitemas de procesamiento y realizar la integración del sistema completo se han empleado tecnologías de última generación. El dispositivo utilizado para el sistema propuesto es una FPGA Virtex 5 XC5VLX110T del fabricante Xilinx. La validación el propuesta para el sistema transceptor se ha implementado en dicha placa de FPGA. En este trabajo se presenta un algoritmo, y una arquitectura, diseñado con filosofía de co-diseño hardware/software para el desarrollo de sistemas de FPGA complejos. El objetivo principal de la estrategia propuesta es de encontrar una metodología eficiente para el diseño de un sistema de FPGA configurable optimizado con el empleo del mínimo esfuerzo posible en el sistema de procedimiento de verificación, por tanto acelerar el periodo de desarrollo del sistema. La metodología de co-diseño presentada tiene la ventaja de ser fácil de usar, contiene todos los pasos desde la propuesta del algoritmo hasta la verificación del hardware, y puede ser ampliamente extendida para casi todos los tipos de desarrollos de FPGAs. En este trabajo se ha desarrollado sólo el sistema de transceptor digital de banda base por lo que la comprobación de señales transmitidas a través del canal inalámbrico en los entornos reales de comunicación sigue requiriendo componentes RF y un front-end analógico. No obstante, utilizando la metodología de co-simulación hardware/software citada anteriormente, es posible comunicar el sistema de transmisor y el receptor digital utilizando los modelos de canales propuestos por IEEE 802.15.3a, implementados en MATLAB. Por tanto, simplemente ajustando las características de cada modelo de canal, por ejemplo, un incremento del retraso y de la frecuencia central, podemos estimar el comportamiento del sistema propuesto en diferentes escenarios y entornos. Las mayores contribuciones de esta tesis son: • Se ha propuesto un nuevo algoritmo 128-puntos base mixto FFT usando la arquitectura pipeline multi-ruta. Los complejos multiplicadores para cada etapa de procesamiento son diseñados usando la arquitectura modificada shiftadd. Los sistemas word length y twiddle word length son comparados y seleccionados basándose en la señal para cuantización del SQNR y el análisis de energías. • El desempeño del procesador IFFT es analizado bajo diferentes situaciones aritméticas de bloques de punto flotante (BFP) para el control de desbordamiento, por tanto, para encontrar la arquitectura perfecta del algoritmo IFFT basado en el procesador FFT propuesto. • Para el sistema de receptor MB-OFDM UWB se ha empleado una sincronización del tiempo innovadora, de baja complejidad y esquema de compensación, que consiste en funciones de Detector de Paquetes (PD) y Estimación del Offset del tiempo. Simplificando el cross-correlation y maximizar las funciones probables solo a sign-bit, la complejidad computacional se ve reducida significativamente. • Se ha propuesto un sistema de decodificadores Viterbi de 64 estados de decisión-débil usando velocidad base-4 de arquitectura suma-comparaselecciona. El algoritmo Two-pointer Even también es introducido en la unidad de rastreador de origen con el objetivo de conseguir la eficiencia en el hardware. • Se han integrado varias tecnologías de última generación en el completo sistema transceptor basebanda , con el objetivo de implementar un sistema de comunicación UWB altamente optimizado. • Un diseño de flujo mejorado es propuesto para el complejo sistema de implementación, el cual puede ser usado para diseños de Cadena de puertas de campo programable general (FPGA). El diseño mencionado no sólo reduce dramáticamente el tiempo para la verificación funcional, sino también provee un análisis automático como los errores del retraso del output para el sistema de hardware implementado. • Un ambiente de comunicación virtual es establecido para la validación del propuesto sistema de transceptores MB-OFDM. Este método es provisto para facilitar el uso y la conveniencia de analizar el sistema digital de basebanda sin parte frontera analógica bajo diferentes ambientes de comunicación. Esta tesis doctoral está organizada en seis capítulos. En el primer capítulo se encuentra una breve introducción al campo del UWB, tanto relacionado con el proyecto como la motivación del desarrollo del sistema de MB-OFDM. En el capítulo 2, se presenta la información general y los requisitos del protocolo de comunicación inalámbrica MBOFDM UWB. En el capítulo 3 se habla de la arquitectura del sistema de transceptor digital MB-OFDM de banda base . El diseño del algoritmo propuesto y la arquitectura para cada elemento del procesamiento está detallado en este capítulo. Los retos de diseño del sistema que involucra un compromiso de discusión entre la complejidad de diseño, el consumo de energía, el coste de hardware, el desempeño del sistema, y otros aspectos. En el capítulo 4, se ha descrito la co-diseñada metodología de hardware/software. Cada parte del flujo del diseño será detallado con algunos ejemplos que se ha hecho durante el desarrollo del sistema. Aprovechando esta estrategia de diseño, el procedimiento de comunicación virtual es llevado a cabo para probar y analizar la arquitectura del transceptor propuesto. Los resultados experimentales de la co-simulación y el informe sintético de la implementación del sistema FPGA son reflejados en el capítulo 5. Finalmente, en el capítulo 6 se incluye las conclusiones y los futuros proyectos, y también los resultados derivados de este proyecto de doctorado. ABSTRACT In recent years, the Wireless Visual Sensor Network (WVSN) has drawn great interest in wireless communication research area. They enable a wealth of new applications such as building security control, image sensing, and target localization. However, nowadays wireless communication protocols (ZigBee, Wi-Fi, and Bluetooth for example) cannot fully satisfy the demands of high data rate, low power consumption, short range, and high robustness requirements. New communication protocol is highly desired for such kind of applications. The Ultra Wideband (UWB) wireless communication protocol, which has increased in importance for high data rate wireless communication field, are emerging as an important topic for WVSN research. UWB has emerged as a technology that offers great promise to satisfy the growing demand for low-cost, high-speed digital wireless indoor and home networks. The large bandwidth available, the potential for high data rate transmission, and the potential for low complexity and low power consumption, along with low implementation cost, all present a unique opportunity for UWB to become a widely adopted radio solution for future Wireless Personal Area Network (WPAN) applications. UWB is defined as any transmission that occupies a bandwidth of more than 20% of its center frequency, or more than 500 MHz. In 2002, the Federal Communications Commission (FCC) has mandated that UWB radio transmission can legally operate in the range from 3.1 to 10.6 GHz at a transmitter power of -41.3 dBm/Hz. Under the FCC guidelines, the use of UWB technology can provide enormous capacity over short communication ranges. Considering Shannon’s capacity equations, increasing the channel capacity requires linear increasing in bandwidth, whereas similar channel capacity increases would require exponential increases in transmission power. In recent years, several different UWB developments has been widely studied in different area, among which, the MB-OFDM UWB wireless communication protocol is considered to be the leading choice and has recently been adopted in the ISO/IEC standard for WPANs. By combing the OFDM modulation and data transmission using frequency hopping techniques, the MB-OFDM UWB system is able to support various data rates, ranging from 55 to 480 Mbps, over distances up to 10 meters. The MB-OFDM technology is expected to consume very little power and silicon area, as well as provide low-cost solutions that can satisfy consumer market demands. To fulfill these expectations, MB-OFDM UWB research and development have to cope with several challenges, which consist of high-sensitivity synchronization, low- complexity constraints, strict power limitations, scalability, and flexibility. Such challenges require state-of-the-art digital signal processing expertise to develop systems that could fully take advantages of the UWB spectrum and support future indoor wireless applications. This thesis focuses on fully optimization for the MB-OFDM UWB digital baseband transceiver system, aiming at researching and designing a wireless communication subsystem for the Wireless Visual Sensor Networks (WVSNs) application. The inherent high complexity of the FFT/IFFT processor and synchronization system, and high operation frequency for all processing elements, becomes the bottleneck for low power MB-OFDM based UWB digital baseband system hardware design and implementation. The proposed transceiver system targets low power and low complexity under the premise of high performance. Optimizations are made at both algorithm and architecture level for each element of the transceiver system. The low-power hardwareefficient structures are firstly proposed for those core computation modules, i.e., the mixed-radix algorithm based pipelined architecture is proposed for the Fast Fourier Transform (FFT/IFFT) processor, and the cost-speed balanced Viterbi Decoder (VD) module is developed, in the aim of lowering the power consumption and increasing the processing speed. In addition, a low complexity sign-bit correlation based symbol timing synchronization scheme is presented so as to detect and synchronize the OFDM packets robustly and accurately. Moreover, several state-of-the-art technologies are used for developing other processing subsystems and an entire MB-OFDM digital baseband transceiver system is integrated. The target device for the proposed transceiver system is Xilinx Virtex 5 XC5VLX110T FPGA board. In order to validate the proposed transceiver system in the FPGA board, a unified algorithm-architecture-circuit hardware/software co-design environment for complex FPGA system development is presented in this work. The main objective of the proposed strategy is to find an efficient methodology for designing a configurable optimized FPGA system by using as few efforts as possible in system verification procedure, so as to speed up the system development period. The presented co-design methodology has the advantages of easy to use, covering all steps from algorithm proposal to hardware verification, and widely spread for almost all kinds of FPGA developments. Because only the digital baseband transceiver system is developed in this thesis, the validation of transmitting signals through wireless channel in real communication environments still requires the analog front-end and RF components. However, by using the aforementioned hardware/software co-simulation methodology, the transmitter and receiver digital baseband systems get the opportunity to communicate with each other through the channel models, which are proposed from the IEEE 802.15.3a research group, established in MATLAB. Thus, by simply adjust the characteristics of each channel model, e.g. mean excess delay and center frequency, we can estimate the transmission performance of the proposed transceiver system through different communication situations. The main contributions of this thesis are: • A novel mixed radix 128-point FFT algorithm by using multipath pipelined architecture is proposed. The complex multipliers for each processing stage are designed by using modified shift-add architectures. The system wordlength and twiddle word-length are compared and selected based on Signal to Quantization Noise Ratio (SQNR) and power analysis. • IFFT processor performance is analyzed under different Block Floating Point (BFP) arithmetic situations for overflow control, so as to find out the perfect architecture of IFFT algorithm based on the proposed FFT processor. • An innovative low complex timing synchronization and compensation scheme, which consists of Packet Detector (PD) and Timing Offset Estimation (TOE) functions, for MB-OFDM UWB receiver system is employed. By simplifying the cross-correlation and maximum likelihood functions to signbit only, the computational complexity is significantly reduced. • A 64 state soft-decision Viterbi Decoder system by using high speed radix-4 Add-Compare-Select architecture is proposed. Two-pointer Even algorithm is also introduced into the Trace Back unit in the aim of hardware-efficiency. • Several state-of-the-art technologies are integrated into the complete baseband transceiver system, in the aim of implementing a highly-optimized UWB communication system. • An improved design flow is proposed for complex system implementation which can be used for general Field-Programmable Gate Array (FPGA) designs. The design method not only dramatically reduces the time for functional verification, but also provides automatic analysis such as errors and output delays for the implemented hardware systems. • A virtual communication environment is established for validating the proposed MB-OFDM transceiver system. This methodology is proved to be easy for usage and convenient for analyzing the digital baseband system without analog frontend under different communication environments. This PhD thesis is organized in six chapters. In the chapter 1 a brief introduction to the UWB field, as well as the related work, is done, along with the motivation of MBOFDM system development. In the chapter 2, the general information and requirement of MB-OFDM UWB wireless communication protocol is presented. In the chapter 3, the architecture of the MB-OFDM digital baseband transceiver system is presented. The design of the proposed algorithm and architecture for each processing element is detailed in this chapter. Design challenges of such system involve trade-off discussions among design complexity, power consumption, hardware cost, system performance, and some other aspects. All these factors are analyzed and discussed. In the chapter 4, the hardware/software co-design methodology is proposed. Each step of this design flow will be detailed by taking some examples that we met during system development. Then, taking advantages of this design strategy, the Virtual Communication procedure is carried out so as to test and analyze the proposed transceiver architecture. Experimental results from the co-simulation and synthesis report of the implemented FPGA system are given in the chapter 5. The chapter 6 includes conclusions and future work, as well as the results derived from this PhD work.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La computación basada en servicios (Service-Oriented Computing, SOC) se estableció como un paradigma ampliamente aceptado para el desarollo de sistemas de software flexibles, distribuidos y adaptables, donde las composiciones de los servicios realizan las tareas más complejas o de nivel más alto, frecuentemente tareas inter-organizativas usando los servicios atómicos u otras composiciones de servicios. En tales sistemas, las propriedades de la calidad de servicio (Quality of Service, QoS), como la rapídez de procesamiento, coste, disponibilidad o seguridad, son críticas para la usabilidad de los servicios o sus composiciones en cualquier aplicación concreta. El análisis de estas propriedades se puede realizarse de una forma más precisa y rica en información si se utilizan las técnicas de análisis de programas, como el análisis de complejidad o de compartición de datos, que son capables de analizar simultáneamente tanto las estructuras de control como las de datos, dependencias y operaciones en una composición. El análisis de coste computacional para la composicion de servicios puede ayudar a una monitorización predictiva así como a una adaptación proactiva a través de una inferencia automática de coste computacional, usando los limites altos y bajos como funciones del valor o del tamaño de los mensajes de entrada. Tales funciones de coste se pueden usar para adaptación en la forma de selección de los candidatos entre los servicios que minimizan el coste total de la composición, basado en los datos reales que se pasan al servicio. Las funciones de coste también pueden ser combinadas con los parámetros extraídos empíricamente desde la infraestructura, para producir las funciones de los límites de QoS sobre los datos de entrada, cuales se pueden usar para previsar, en el momento de invocación, las violaciones de los compromisos al nivel de servicios (Service Level Agreements, SLA) potenciales or inminentes. En las composiciones críticas, una previsión continua de QoS bastante eficaz y precisa se puede basar en el modelado con restricciones de QoS desde la estructura de la composition, datos empiricos en tiempo de ejecución y (cuando estén disponibles) los resultados del análisis de complejidad. Este enfoque se puede aplicar a las orquestaciones de servicios con un control centralizado del flujo, así como a las coreografías con participantes multiples, siguiendo unas interacciones complejas que modifican su estado. El análisis del compartición de datos puede servir de apoyo para acciones de adaptación, como la paralelización, fragmentación y selección de los componentes, las cuales son basadas en dependencias funcionales y en el contenido de información en los mensajes, datos internos y las actividades de la composición, cuando se usan construcciones de control complejas, como bucles, bifurcaciones y flujos anidados. Tanto las dependencias funcionales como el contenido de información (descrito a través de algunos atributos definidos por el usuario) se pueden expresar usando una representación basada en la lógica de primer orden (claúsulas de Horn), y los resultados del análisis se pueden interpretar como modelos conceptuales basados en retículos. ABSTRACT Service-Oriented Computing (SOC) is a widely accepted paradigm for development of flexible, distributed and adaptable software systems, in which service compositions perform more complex, higher-level, often cross-organizational tasks using atomic services or other service compositions. In such systems, Quality of Service (QoS) properties, such as the performance, cost, availability or security, are critical for the usability of services and their compositions in concrete applications. Analysis of these properties can become more precise and richer in information, if it employs program analysis techniques, such as the complexity and sharing analyses, which are able to simultaneously take into account both the control and the data structures, dependencies, and operations in a composition. Computation cost analysis for service composition can support predictive monitoring and proactive adaptation by automatically inferring computation cost using the upper and lower bound functions of value or size of input messages. These cost functions can be used for adaptation by selecting service candidates that minimize total cost of the composition, based on the actual data that is passed to them. The cost functions can also be combined with the empirically collected infrastructural parameters to produce QoS bounds functions of input data that can be used to predict potential or imminent Service Level Agreement (SLA) violations at the moment of invocation. In mission-critical applications, an effective and accurate continuous QoS prediction, based on continuations, can be achieved by constraint modeling of composition QoS based on its structure, known data at runtime, and (when available) the results of complexity analysis. This approach can be applied to service orchestrations with centralized flow control, and choreographies with multiple participants with complex stateful interactions. Sharing analysis can support adaptation actions, such as parallelization, fragmentation, and component selection, which are based on functional dependencies and information content of the composition messages, internal data, and activities, in presence of complex control constructs, such as loops, branches, and sub-workflows. Both the functional dependencies and the information content (described using user-defined attributes) can be expressed using a first-order logic (Horn clause) representation, and the analysis results can be interpreted as a lattice-based conceptual models.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los objetivos globales de esta tesis han sido estudiar el efecto que los carbohidratos de la dieta ejercen sobre los rendimientos productivos, la barrera intestinal, y la digestión de animales destetados a 25 días de edad. Además se ha estudiado cuál es el mejor periodo para determinar la digestibilidad fecal tras el destete a esta edad. En el primer experimento se estudió el efecto de la fibra neutro detergente soluble (FNDS) sobre la barrera intestinal, digestión, microbiota intestinal y rendimientos productivos de gazapos en gazapos en la fase post-destete. Se diseñaron tres piensos isonutritivos en los que la única fuente de variación fueron los niveles de fibra soluble. A partir de una dieta control (AH) con 103 g/kg de materia seca de FNDS y alfalfa como fuente principal de fibra, se sustituyó la mitad de esta alfalfa por una mezcla de pulpa de remolacha y pulpa de manzana (75:25) en el pienso B-AP y por una mezcla de cascarilla y concentrado de proteína de soja (88:12) en el pienso OH, obteniéndose 131 y 79 g/kg de FNDS sobre materia seca, respectivamente. Los conejos se destetaron a 25 días y fueron alimentados con los piensos experimentales hasta los 35 días de edad, momento en el que se sacrificaron para la determinación de la digestibilidad ileal aparente (DIA) de la materia seca (MS), proteína bruta (PB) y almidón, la morfología de la mucosa, y actividad enzimática en el yeyuno, el tejido linfoide asociado a la mucosa, así como la microbiota intestinal. Para la determinación de la morfología de la mucosa se utilizaron adicionalmente 19 animales lactantes de 35 días de edad. Para el estudio de la tasa de mortalidad, se utilizaron 118 animales más por tratamiento que recibieron los piensos experimentales durante las dos semanas post-destete y posteriormente un pienso comercial hasta los 60 días de edad. Los animales recibieron durante todo el experimento medicación en el agua de bebida (100 ppm de apramicina sulfato y 120 ppm de tilosina tartrato). El nivel de fibra soluble mejoró los parámetros que se utilizaron para la caracterización del estado de la barrera intestinal. Los conejos alimentados con el mayor nivel de FNDS en el pienso presentaron una mayor longitud de los villi (P=0.001), un mayor ratio longitud villi/profundidad de las criptas (8.14; P=0.001), una mayor actividad disacaridásica (8671 μmol de glucosa/g de proteína; P=0.019), así como una mayor digestibilidad ileal (96.8%; P=0.002), observándose una reducción en el flujo ileal de almidón a medida que se incrementó el nivel de fibra soluble en el pienso (1,2 vs 0,5 g/d; P=0.001). Los animales lactantes a 35 días de edad presentaron un ratio longitud de villi/profundidad de las criptas menor que el observado en aquéllos alimentados con el pienso B-AP (6.70), pero superior al de los piensos AH y OH. Niveles inferiores de NDFS tendieron (P=0.074) a incrementar la respuesta inmune de tipo celular (linfocitos CD8+). El pienso también afectó a la producción de IL2 (CD25+; P=0.029; CD5+CD25+; P=0.057), pero sin llegar a establecerse una clara relación con el nivel de fibra soluble. La diversidad de la microbiota intestinal no se vio afectada por el pienso (P ≥ 0.38). Los animales alimentados con las piensos B-AP y AH presentaron una reducción en la frecuencia de detección de Clostridium perfringens tanto en íleon (P=0.062) como en ciego (4.3 vs. 17.6%, P =0.047), comparado con el pienso OH. Además la tasa de mortalidad (118 gazapos/pienso) disminuyó de 14.4% en el pienso OH a 5.1% en el pienso B-AP. Entre los 32 y los 35 días de edad se determinó la digestibilidad fecal aparente (14/pienso) de la materia seca (MS), energía bruta (EB), proteína bruta (PB), fibra neutro detergente (FND), fibra ácido detergente (FAD) y almidón. Este grupo, junto con otros nueve animales por tratamiento se utilizaron para determinar el peso del estómago y el ciego, la concentración cecal de ácidos grasos volátiles (AGV) y amoniaco (NH3), así como las tasas de similitud de la microbiota intestinal. Además se estudiaron los rendimientos productivos (35 animales/tratamiento) de los gazapos durante todo el período de cebo, consumiendo los piensos experimentales desde el destete hasta los 35 días y posteriormente un pienso comercial hasta los 60 días de edad. Niveles crecientes de FNDS mejoraron la digestibilidad fecal de la materia seca (MS) y energía (P<0.001). La inclusión FNDS aumentó de manera lineal el peso del contenido cecal (P=0.001) y el peso del aparato digestivo completo (P=0.008), y en los días previos al sacrificio disminuyó de manera lineal el consumo medio diario (P=0.040). Se observó además, una disminución lineal (P≤0.041) del pH del estómago. No se encontró relación entre el pH, la concentración y proporciones molares de AGV y el nivel de FNDS. El pienso pareció tener un efecto, incluso superior al de la madre, sobre la tasa de similitud de la microbiota, y los efectos fueron mayores a nivel cecal que ileal. La eficacia alimenticia aumentó de manera lineal en un 12% entre piensos extremos tras el destete (25- 39d) y en un 3% en el período global de cebo con niveles mayores de NDFS. El consumo medio diario durante la fase post-destete y durante todo el período de cebo, tendió a aumen tar (P≤0.079) con niveles mayores de FNDS, sin embargo no se apreció efecto sobre la ganancia media diaria (P≥0.15). En conclusión, el incremento del nivel de fibra soluble en el pienso parece resultar beneficioso para la salud del animal ya que mejora la integridad de la mucosa, y reduce la frecuencia de detección de potenciales patógenos como C. perfringens y Campylobacter spp. Conforme a estos resultados, debería tenerse en cuenta el contenido en fibra soluble en la formulación de piensos de conejos en la fase post-destete. El objetivo del segundo experimento fue determinar el efecto de la fuente de almidón sobre la digestión, la microbiota intestinal y los rendimientos productivos en conejos destetados con 25 días de edad. Se formularon tres piensos isonutritivos en los que se modificaron las principales fuentes de almidón: trigo crudo, trigo cocido y una combinación de trigo y arroz cocido. Dos grupos de 99 y 193 animales se destetaron con 25 días de edad. El primero de ellos se utilizó para la determinación de los parámetros productivos conforme al mismo protocolo seguido en el experimento anterior. El segundo de los grupos se utilizó para la determinación de la digestibilidad fecal de 32 a 35 d, la digestibilidad ileal aparente (DIA) a 35 d, la morfología de la mucosa intestinal, los parámetros de fermentación cecal; así como, la caracterización de la microbiota intestinal. Se utilizaron además dos grupos adicionales de animales 384 (medicados) y 177 (no medicados) para estudiar el efecto de la suplementación con antibióticos en el agua de bebida sobre la mortalidad. El procesado térmico del trigo mejoró ligeramente la digestibilidad ileal del almidón (P=0.020) pero no modificó el flujo final de almidón que alcanzó el ciego, observándose una mayor frecuencia de detección de Campylobacter spp. y Ruminococcus spp. en ciego (P≤0.023), pero sin cambios a nivel ileal. El procesado térmico del trigo no afectó tampoco a los parámetros productivos, la mortalidad, la digestibilidad ileal y fecal o la morfología de la mucosa. La sustitución parcial del trigo cocido por arroz cocido, penalizó la digestibilidad ileal del almidón (P=0.020) e incrementó el flujo ileal de este nutriente al ciego (P=0.007). Sin embargo no afectó a la mortalidad, pese a que se detectaron cambios en la microbiota tanto a nivel ileal como cecal, disminuyendo la frecuencia de detección de Campylobacter spp. (en íleon y ciego), Helicobacter spp. (en íleon) y Ruminococcus spp (en ciego) e incrementando Bacteroides spp. (en ciego) (P≤0.046). El empleo de arroz cocido en las piensos post-destete no tuvieron efectos sobre los parámetros productivos, la mortalidad, la digestibilidad ileal y fecal a excepción del almidón, o la morfología de la mucosa. La suplementación con antibiótico redujo la fre cuencia de detección de la mayoría de las bacterias estudiadas (P≤0.048), sobre todo para Campylobacter spp., Clostridium perfringens y Propionibacterium spp. (P≤0.048), observándose un efecto mayor a nivel ileal que cecal, lo que se asoció a la bajada significativa (P<0.001) de la mortalidad. En conclusión, los resultados de este experimento indican que la fuente de almidón afecta a la microbiota intestinal pero no influiye sobre la salud del animal. En relación al procesado, el uso de trigo cocido junto con arroz cocido no mejora los resultados obtenidos con trigo duro, si bienserían necesarios más experimentos que confirmaran este punto. El último de los experimentos se centró en un aspecto metodológico. Dado que, los conejos destetados presentan un patrón digestivo diferente al de un animal adulto resultado de su inmadurez digestiva, el objetivo buscado era tratar de determinar el mejor procedimiento para la determinación de la digestibilidad fecal en los gazapos en la fase post-destete. Para tal fin se utilizaron 15 animales/tratamiento de tres camadas diferentes que se destetaron con 25 días, suministrándoles un pienso comercial de crecimiento-cebo. Se registró el consumo medio diario y la excreción diaria de heces desde el día 25 hasta el día 40 de edad para la determinación de la digestibilidad de la MS. La camada afectó al consumo medio diario y la excreción de heces (P=0.013 y 0.014, respectivamente), observándose una tendencia (P=0.061) en la digestibilidad. La edad afectó (P<0.001) a todos estos factores, incrementándose de manera más evidente la excreción que la ingestión de materia seca en la primera semana de vida, para aumentar de forma paralela a partir de la segunda. La correlación entre el consumo medio diario fue mayor con la excreción de heces del mismo día que con la del día siguiente, por lo que se utilizó el primero para la determinación de la digestibilidad de la MS (MSd). La MSd disminuyó de manera lineal hasta los 32 días de edad (2.17±0.25 unidades porcentuales por día), mientras que permaneció constante desde los 32 a los 40 días (69.4±0.47%). Por otro lado, la desviación estándar de la MSd se redujo cuando se incrementó el período de recogida de 2 a 6 días en un 54%. Conforme a los resultados obtenidos, se puede concluir que no es aconsejable comenzar las pruebas de digestibilidad antes de los 32 días de edad y que el número de animales necesario para detectar diferencias significativas entre tratamientos dependerá del período de recogida de heces. ABSTRACT The global aim of this thesis has been to study the effect of dietary carbohydrates on growth, performance, digestion and intestinal barrier in 25-d weaned rabbits. In addition there has also been studied which is the best period to determine the fecal digestibility after weaning. The first experiment focused on the effect of Neutral Detergent Soluble Fibre (NDSF) on gut barrier function, digestion, intestinal microbiota and growth performance n rabbits in the post-weaning period. Three isonutritive diets which only varied in the levels of soluble fiber were formulated such as it described as follows: a control diet (AH) containing 103 g of neutral detergent soluble fiber, including alfalfa as main source of fiber, was replaced by a mixture of beet and apple pulp (75-25) in the B-AP diet and, by a mix of oat hulls and soybean protein concentrate (88:12) in the OH diet, resulting 131 and 79 g of NDFS/kg of dry matter, respectively. Rabbits, weaned at 25 days of age, were fed the experimental diets up to 35 days of age, moment in which they were slaughtered for apparent ileal digestibility (AID) of dry matter (DM), crude protein (CP) and starch, mucosa morphology, sucrose activity, characterization of lamina propria lymphocytes and intestinal microbiota. To assess mucosal morphology, 19 suckling 35-d-old rabbits were also used. For mortality study, besides these animals, 118 additional rabbits per treatment were fed the experimental diets for two weeks period and thereafter received a commercial diet until 60 days of age. Rabbits were water medicated during the whole experimental period (100 ppm de apramicine sulphate and 120 ppm of tylosine tartrate). Level of soluble fiber improved all the parameters used for the characterization of the intestinal barrier condition. Villous height of the jejunal mucosa increased with dietary soluble fiber (P=0.001). Villous height of jejunal mucosa increased with dietary soluble fiber (P = 0.001). Rabbits fed the highest level of soluble fiber (BA-P diet) showed the highest villous height/crypth depth ratio (8.14; P = 0.001), sucrase specific activity (8671 μmol glucose/ g protein; P = 0.019), and the greatest ileal starch digestibility (96.8%; P = 0.002). The opposite effects were observed in rabbits fed decreased levels of soluble fiber (AH and OH diets; 4.70, 5,848 μmol of glucose/g of protein, as average, respectively). The lowest ileal starch digestibility was detected for animal fed OH diet (93.2%). Suckling rabbits of the same age showed a lower villous height/crypt depth ratio (6.70) compared with the B-AP diet group, but this ration was higher that the AH or OH diet groups. Lower levels of soluble fiber tended (P = 0.074) to increase the cellular immune response (CD8+ lymphocytes). Diet affected IL-2 production (CD25+, P = 0.029; CD5+CD25+, P = 0.057), with no clear relationship between soluble fiber and IL-2. The intestinal microbiota biodiversity was not affected by diets (P ≥ 0.38). Animals fed B-AP and AH diets had a reduced cecal frequency of detection compatible with Campylobacter spp. (20.3 vs. 37.8, P = 0.074), and Clostridium perfringens (4.3 vs. 17.6%, P = 0.047), compared with the OH diet group. Moreover, the mortality rates decreased from 14.4 (OH diet) to 5.1% (B-AP diet) with the increased presence of soluble fiber in the diet. Between 32 and 35 days of age, faecal apparent digestibility of dry matter (DM), gross energy (GE), crude protein (CP), neutral detergent fiber (NDF), acid detergent fiber (ADF) and starch was determined (14/diet). This group, plus another nine rabbits/diet were used to determine weight of stomach and caecum and their contents, cecal fermentation traits and similarity rate (SR) of intestinal microbiota. Besides, growth performance parameters (35 rabbits/diet) were studied during the whole fattening period, in animals consuming the experimental feed after the weaning up to 35 days of age and later on a commercial diet up animals reached 60 days of age. Increasing levels of Neutral Detergent Soluble Fiber improved faecal dry matter and energy digestibility (P<0.001). NDSF inclusion improved linearly weight of the caecal content (P=0.001) and the total gastrointestinal tract (P=0.008), and in the previous days to slaughter a linear decrease of daily feed intake in diet with highest level of soluble fiber was also observed. Stomach pH decreased linearly with increasing levels of NDFS (P≤0.041). No relation between NDSF level on pH, concentration and molar proportion of VFA was found. Treatments appeared to influence the similarity rate of microbiota, even higher to mother effect. These effects were higher in ileum than in caecum. A linear positive effect of feed efficiency was observed, which increased around 12% in the two weeks post-weaning (25-39d) and 3% in the whole fattening period between extreme diets with highest levels of soluble fiber. Average daily feed intake during the two weeks after weaning and in the whole fattening period, tended (P≤0.079) to increase with highest levels of NDSF; although there were no effect on daily weight gain (≥0.15). In conclusion, an increase of soluble fiber in the feed seems to be beneficial for animal health, due to improve mucose integrity and reduce detection frequency of those poten tial pathogens like C. perfringens and Campylobacter spp. According to these results, level of soluble fiber should be taking care in feed rabbit formulation in the post-weaning period. The objective of the second experiment was to determine the effect of source of starch on digestion, intestinal microbiota and growth performance in twenty-five-day old weaned rabbits. To accomplish with this aim three iso-nutritive diets were formulated with different source of starch: raw wheat, boiled wheat and a combination of boiled wheat and boiled rice. Two groups of 99 and 193 rabbits were weaned at 25 days of age. The first group was used for growth performance determination following the same protocol than in previous experiment. The second group was used to determine faecal digestibility from 32 to 35 d, apparent ileal digestibility (AID) at 35 d, jejunal mucosa morphology, caecal fermentation traits and characterization of intestinal microbiota. For mortality, two additional groups of 384 (medicated) and 177 (not medicated) were used in order to study the effect of antibiotic water supply supplementation. Heat processing of starch slightly improved ileal digestibility of starch (P=0.020) but did not modify the flow of starch to the caecum. An increase in frequency of detection of Campylobacter spp. y Ruminococcus spp. was observed in the caecum (P≤0.023), with no changes at ileal level. Heat processing of wheat did not modify growth performance, mortality, ileal or faecal digestibility and mucosa morphology. Partial substitution of boiled wheat for boiled rice in the diet impaired ileal starch digestibility (P=0.020) and increased the ileal flow of this nutrient to the caecum (P=0.007). However, it did not affect mortality rate, although changes in the ileal and caecal intestinal microbiota were detected, decreasing the frequency of detection of Campylobacter spp. (both ileum and caecum), Helicobacter spp. (at ileum) and Ruminococcus spp (at caecum) and increasing the Bacteroides spp. (at caecum) (P≤0.046). The effect of boiled rice supplementation did not alter growth performance, mortality, ileal or faecal digestibility of other nutrients than starch, and mucosa morphology. Medication of rabbits reduced the ileal frequency of detection of most bacteria studied (P≤0.048), especially for Campylobacter spp., Clostridium perfringens y Propionibacterium spp. (P≤0.048), resulting the effect higher at ileal than caecal level and relating it with a strong reduction of mortality rate (P<0.001). In conclusion, the results of this experiment make think that the source of starch affects the intestinal microbiota but they do not seem to influence animal health. In relation to the effect of heat processed the use of cooked wheat or cooked rice it does not seem to im prove the results obtained with hard wheat, but there would be necessary more experiments that were confirming this point. The last experiment focused on a methodological aspect. Considering that, weaned rabbits have a different digestive pattern than older animals due to their digestive immaturity; the fixed objective was to determine the best procedure for faecal digestibility determination in young rabbits in the post-weaning period. Fifteen rabbits from 5 different litters were weaned at 25 days of age and fed with a commercial feed. Feed intake and faeces excretion were recorded daily from 25 to 40 days of age for dry matter digestibility (DMd) determination. Litter affected daily DM intake and excretion (P=0.013 y 0.014, respectively) and tended to affect DMd (P=0.061). Age affected all these factors (P<0.001), but ingestion increased slowly than dry matter excretion during the first week buth they evolved similarly in the second week. The correlation between daily feed intakes was higher with the faeces excretion of the day than with faeces excretion of the next day, and the first values were used to determine daily DMd. The DMd decreased linearly from weaning to 32 d of age (2.17±0.25 percentage units per day), whereas from 32 to 40 d remained constant (69.4±0.47%). On the other hand, average standard deviation of DMd decreased by 54% when the length of collection period increased from 2 to 6d. Consequently to the obtained results, it could be concluded that it would not be advisable to start digestibility trials before the 32 days of age and that the number of animals required to detect a significant difference among means would depend on the collection period.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Universidad Politécnica de Madrid (UPM) y la Università degli Studi di Firenze (UniFi), bajo la coordinación técnica de AMPHOS21, participan desde 2009 en el proyecto de investigación “Estrategias de Monitorización de CO2 y otros gases en el estudio de Análogos Naturales”, financiado por la Fundación Ciudad de la Energía (CIUDEN) en el marco del Proyecto Compostilla OXYCFB300 (http://www.compostillaproject.eu), del Programa “European Energy Program for Recovery - EEPR”. El objetivo principal del proyecto fue el desarrollo y puesta a punto de metodologías de monitorización superficiales para su aplicación en el seguimiento y control de los emplazamientos donde se realice el almacenamiento geológico de CO2, analizando técnicas que permitan detectar y cuantificar las posibles fugas de CO2 a la atmósfera. Los trabajos se realizaron tanto en análogos naturales (españoles e italianos) como en la Planta de Desarrollo Tecnológico de Almacenamiento de CO2 de Hontomín. Las técnicas analizadas se centran en la medición de gases y aguas superficiales (de escorrentía y manantiales). En cuanto a la medición de gases se analizó el flujo de CO2 que emana desde el suelo a la atmósfera y la aplicabilidad de trazadores naturales (como el radón) para la detección e identificación de las fugas de CO2. En cuanto al análisis químico de las aguas se analizaron los datos geoquímicos e isotópicos y los gases disueltos en las aguas de los alrededores de la PDT de Hontomín, con objeto de determinar qué parámetros son los más apropiados para la detección de una posible migración del CO2 inyectado, o de la salmuera, a los ambientes superficiales. Las medidas de flujo de CO2 se realizaron con la técnica de la cámara de acúmulo. A pesar de ser una técnica desarrollada y aplicada en diferentes ámbitos científicos se estimó necesario adaptar un protocolo de medida y de análisis de datos a las características específicas de los proyectos de captura y almacenamiento de CO2 (CAC). Donde los flujos de CO2 esperados son bajos y en caso de producirse una fuga habrá que detectar pequeñas variaciones en los valores flujo con un “ruido” en la señal alto, debido a actividad biológica en el suelo. La medida de flujo de CO2 mediante la técnica de la cámara de acúmulo se puede realizar sin limpiar la superficie donde se coloca la cámara o limpiando y esperando al reequilibrio del flujo después de la distorsión al sistema. Sin embargo, los resultados obtenidos después de limpiar y esperar muestran menor dispersión, lo que nos indica que este procedimiento es el mejor para la monitorización de los complejos de almacenamiento geológico de CO2. El protocolo de medida resultante, utilizado para la obtención de la línea base de flujo de CO2 en Hontomín, sigue los siguiente pasos: a) con una espátula se prepara el punto de medición limpiando y retirando el recubrimiento vegetal o la primera capa compacta de suelo, b) se espera un tiempo para la realización de la medida de flujo, facilitando el reequilibrio del flujo del gas tras la alteración provocada en el suelo y c) se realiza la medida de flujo de CO2. Una vez realizada la medición de flujo de CO2, y detectada si existen zonas de anomalías, se debe estimar la cantidad de CO2 que se está escapando a la atmósfera (emanación total), con el objetivo de cuantificar la posible fuga. Existen un amplio rango de metodologías para realizar dicha estimación, siendo necesario entender cuáles son las más apropiadas para obtener el valor más representativo del sistema. En esta tesis se comparan seis técnicas estadísticas: media aritmética, estimador insegado de la media (aplicando la función de Sichel), remuestreo con reemplazamiento (bootstrap), separación en diferentes poblaciones mediante métodos gráficos y métodos basados en criterios de máxima verosimilitud, y la simulación Gaussiana secuencial. Para este análisis se realizaron ocho campañas de muestreo, tanto en la Planta de Desarrollo Tecnológico de Hontomón como en análogos naturales (italianos y españoles). Los resultados muestran que la simulación Gaussiana secuencial suele ser el método más preciso para realizar el cálculo, sin embargo, existen ocasiones donde otros métodos son más apropiados. Como consecuencia, se desarrolla un procedimiento de actuación para seleccionar el método que proporcione el mejor estimador. Este procedimiento consiste, en primer lugar, en realizar un análisis variográfico. Si existe una autocorrelación entre los datos, modelizada mediante el variograma, la mejor técnica para calcular la emanación total y su intervalo de confianza es la simulación Gaussiana secuencial (sGs). Si los datos son independientes se debe comprobar la distribución muestral, aplicando la media aritmética o el estimador insesgado de la media (Sichel) para datos normales o lognormales respectivamente. Cuando los datos no son normales o corresponden a una mezcla de poblaciones la mejor técnica de estimación es la de remuestreo con reemplazamiento (bootstrap). Siguiendo este procedimiento el máximo valor del intervalo de confianza estuvo en el orden del ±20/25%, con la mayoría de valores comprendidos entre ±3,5% y ±8%. La identificación de las diferentes poblaciones muestrales en los datos de flujo de CO2 puede ayudar a interpretar los resultados obtenidos, toda vez que esta distribución se ve afectada por la presencia de varios procesos geoquímicos como, por ejemplo, una fuente geológica o biológica del CO2. Así pues, este análisis puede ser una herramienta útil en el programa de monitorización, donde el principal objetivo es demostrar que no hay fugas desde el reservorio a la atmósfera y, si ocurren, detectarlas y cuantificarlas. Los resultados obtenidos muestran que el mejor proceso para realizar la separación de poblaciones está basado en criterios de máxima verosimilitud. Los procedimientos gráficos, aunque existen pautas para realizarlos, tienen un cierto grado de subjetividad en la interpretación de manera que los resultados son menos reproducibles. Durante el desarrollo de la tesis se analizó, en análogos naturales, la relación existente entre el CO2 y los isótopos del radón (222Rn y 220Rn), detectándose en todas las zonas de emisión de CO2 una relación positiva entre los valores de concentración de 222Rn en aire del suelo y el flujo de CO2. Comparando la concentración de 220Rn con el flujo de CO2 la relación no es tan clara, mientras que en algunos casos aumenta en otros se detecta una disminución, hecho que parece estar relacionado con la profundidad de origen del radón. Estos resultados confirmarían la posible aplicación de los isótopos del radón como trazadores del origen de los gases y su aplicación en la detección de fugas. Con respecto a la determinación de la línea base de flujo CO2 en la PDT de Hontomín, se realizaron mediciones con la cámara de acúmulo en las proximidades de los sondeos petrolíferos, perforados en los ochenta y denominados H-1, H-2, H-3 y H-4, en la zona donde se instalarán el sondeo de inyección (H-I) y el de monitorización (H-A) y en las proximidades de la falla sur. Desde noviembre de 2009 a abril de 2011 se realizaron siete campañas de muestreo, adquiriéndose más de 4.000 registros de flujo de CO2 con los que se determinó la línea base y su variación estacional. Los valores obtenidos fueron bajos (valores medios entre 5 y 13 g•m-2•d-1), detectándose pocos valores anómalos, principalmente en las proximidades del sondeo H-2. Sin embargo, estos valores no se pudieron asociar a una fuente profunda del CO2 y seguramente estuvieran más relacionados con procesos biológicos, como la respiración del suelo. No se detectaron valores anómalos cerca del sistema de fracturación (falla Ubierna), toda vez que en esta zona los valores de flujo son tan bajos como en el resto de puntos de muestreo. En este sentido, los valores de flujo de CO2 aparentemente están controlados por la actividad biológica, corroborado al obtenerse los menores valores durante los meses de otoño-invierno e ir aumentando en los periodos cálidos. Se calcularon dos grupos de valores de referencia, el primer grupo (UCL50) es 5 g•m-2•d-1 en las zonas no aradas en los meses de otoño-invierno y 3,5 y 12 g•m-2•d-1 en primavera-verano para zonas aradas y no aradas, respectivamente. El segundo grupo (UCL99) corresponde a 26 g•m-2•d- 1 durante los meses de otoño-invierno en las zonas no aradas y 34 y 42 g•m-2•d-1 para los meses de primavera-verano en zonas aradas y no aradas, respectivamente. Flujos mayores a estos valores de referencia podrían ser indicativos de una posible fuga durante la inyección y posterior a la misma. Los primeros datos geoquímicos e isotópicos de las aguas superficiales (de escorrentía y de manantiales) en el área de Hontomín–Huermeces fueron analizados. Los datos sugieren que las aguas estudiadas están relacionadas con aguas meteóricas con un circuito hidrogeológico superficial, caracterizadas por valores de TDS relativamente bajos (menor a 800 mg/L) y una fácie hidrogeoquímica de Ca2+(Mg2+)-HCO3 −. Algunas aguas de manantiales se caracterizan por concentraciones elevadas de NO3 − (concentraciones de hasta 123 mg/l), lo que sugiere una contaminación antropogénica. Se obtuvieron concentraciones anómalas de of Cl−, SO4 2−, As, B y Ba en dos manantiales cercanos a los sondeos petrolíferos y en el rio Ubierna, estos componentes son probablemente indicadores de una posible mezcla entre los acuíferos profundos y superficiales. El estudio de los gases disueltos en las aguas también evidencia el circuito superficial de las aguas. Estando, por lo general, dominado por la componente atmosférica (N2, O2 y Ar). Sin embargo, en algunos casos el gas predominante fue el CO2 (con concentraciones que llegan al 63% v/v), aunque los valores isotópicos del carbono (<-17,7 ‰) muestran que lo más probable es que esté relacionado con un origen biológico. Los datos geoquímicos e isotópicos de las aguas superficiales obtenidos en la zona de Hontomín se pueden considerar como el valor de fondo con el que comparar durante la fase operacional, la clausura y posterior a la clausura. En este sentido, la composición de los elementos mayoritarios y traza, la composición isotópica del carbono del CO2 disuelto y del TDIC (Carbono inorgánico disuelto) y algunos elementos traza se pueden considerar como parámetros adecuados para detectar la migración del CO2 a los ambientes superficiales. ABSTRACT Since 2009, a group made up of Universidad Politécnica de Madrid (UPM; Spain) and Università degli Studi Firenze (UniFi; Italy) has been taking part in a joint project called “Strategies for Monitoring CO2 and other Gases in Natural analogues”. The group was coordinated by AMPHOS XXI, a private company established in Barcelona. The Project was financially supported by Fundación Ciudad de la Energía (CIUDEN; Spain) as a part of the EC-funded OXYCFB300 project (European Energy Program for Recovery -EEPR-; www.compostillaproject.eu). The main objectives of the project were aimed to develop and optimize analytical methodologies to be applied at the surface to Monitor and Verify the feasibility of geologically stored carbon dioxide. These techniques were oriented to detect and quantify possible CO2 leakages to the atmosphere. Several investigations were made in natural analogues from Spain and Italy and in the Tecnchnological Development Plant for CO2 injection al Hontomín (Burgos, Spain). The studying techniques were mainly focused on the measurements of diffuse soil gases and surface and shallow waters. The soil-gas measurements included the determination of CO2 flux and the application to natural trace gases (e.g. radon) that may help to detect any CO2 leakage. As far as the water chemistry is concerned, geochemical and isotopic data related to surface and spring waters and dissolved gases in the area of the PDT of Hontomín were analyzed to determine the most suitable parameters to trace the migration of the injected CO2 into the near-surface environments. The accumulation chamber method was used to measure the diffuse emission of CO2 at the soil-atmosphere interface. Although this technique has widely been applied in different scientific areas, it was considered of the utmost importance to adapt the optimum methodology for measuring the CO2 soil flux and estimating the total CO2 output to the specific features of the site where CO2 is to be stored shortly. During the pre-injection phase CO2 fluxes are expected to be relatively low where in the intra- and post-injection phases, if leakages are to be occurring, small variation in CO2 flux might be detected when the CO2 “noise” is overcoming the biological activity of the soil (soil respiration). CO2 flux measurements by the accumulation chamber method could be performed without vegetation clearance or after vegetation clearance. However, the results obtained after clearance show less dispersion and this suggests that this procedure appears to be more suitable for monitoring CO2 Storage sites. The measurement protocol, applied for the determination of the CO2 flux baseline at Hontomín, has included the following steps: a) cleaning and removal of both the vegetal cover and top 2 cm of soil, b) waiting to reduce flux perturbation due to the soil removal and c) measuring the CO2 flux. Once completing the CO2 flux measurements and detected whether there were anomalies zones, the total CO2 output was estimated to quantify the amount of CO2 released to the atmosphere in each of the studied areas. There is a wide range of methodologies for the estimation of the CO2 output, which were applied to understand which one was the most representative. In this study six statistical methods are presented: arithmetic mean, minimum variances unbiased estimator, bootstrap resample, partitioning of data into different populations with a graphical and a maximum likelihood procedures, and sequential Gaussian simulation. Eight campaigns were carried out in the Hontomín CO2 Storage Technology Development Plant and in natural CO2 analogues. The results show that sequential Gaussian simulation is the most accurate method to estimate the total CO2 output and the confidential interval. Nevertheless, a variety of statistic methods were also used. As a consequence, an application procedure for selecting the most realistic method was developed. The first step to estimate the total emanation rate was the variogram analysis. If the relation among the data can be explained with the variogram, the best technique to calculate the total CO2 output and its confidence interval is the sequential Gaussian simulation method (sGs). If the data are independent, their distribution is to be analyzed. For normal and log-normal distribution the proper methods are the arithmetic mean and minimum variances unbiased estimator, respectively. If the data are not normal (log-normal) or are a mixture of different populations the best approach is the bootstrap resampling. According to these steps, the maximum confidence interval was about ±20/25%, with most of values between ±3.5% and ±8%. Partitioning of CO2 flux data into different populations may help to interpret the data as their distribution can be affected by different geochemical processes, e.g. geological or biological sources of CO2. Consequently, it may be an important tool in a monitoring CCS program, where the main goal is to demonstrate that there are not leakages from the reservoir to the atmosphere and, if occurring, to be able to detect and quantify it. Results show that the partitioning of populations is better performed by maximum likelihood criteria, since graphical procedures have a degree of subjectivity in the interpretation and results may not be reproducible. The relationship between CO2 flux and radon isotopes (222Rn and 220Rn) was studied in natural analogues. In all emissions zones, a positive relation between 222Rn and CO2 was observed. However, the relationship between activity of 220Rn and CO2 flux is not clear. In some cases the 220Rn activity indeed increased with the CO2 flux in other measurements a decrease was recognized. We can speculate that this effect was possibly related to the route (deep or shallow) of the radon source. These results may confirm the possible use of the radon isotopes as tracers for the gas origin and their application in the detection of leakages. With respect to the CO2 flux baseline at the TDP of Hontomín, soil flux measurements in the vicinity of oil boreholes, drilled in the eighties and named H-1 to H-4, and injection and monitoring wells were performed using an accumulation chamber. Seven surveys were carried out from November 2009 to summer 2011. More than 4,000 measurements were used to determine the baseline flux of CO2 and its seasonal variations. The measured values were relatively low (from 5 to 13 g•m-2•day-1) and few outliers were identified, mainly located close to the H-2 oil well. Nevertheless, these values cannot be associated to a deep source of CO2, being more likely related to biological processes, i.e. soil respiration. No anomalies were recognized close to the deep fault system (Ubierna Fault) detected by geophysical investigations. There, the CO2 flux is indeed as low as other measurement stations. CO2 fluxes appear to be controlled by the biological activity since the lowest values were recorded during autumn-winter seasons and they tend to increase in warm periods. Two reference CO2 flux values (UCL50 of 5 g•m-2•d-1 for non-ploughed areas in autumn-winter seasons and 3.5 and 12 g•m-2•d-1 for in ploughed and non-ploughed areas, respectively, in spring-summer time, and UCL99 of 26 g•m-2•d-1 for autumn-winter in not-ploughed areas and 34 and 42 g•m-2•d-1 for spring-summer in ploughed and not-ploughed areas, respectively, were calculated. Fluxes higher than these reference values could be indicative of possible leakage during the operational and post-closure stages of the storage project. The first geochemical and isotopic data related to surface and spring waters and dissolved gases in the area of Hontomín–Huermeces (Burgos, Spain) are presented and discussed. The chemical and features of the spring waters suggest that they are related to a shallow hydrogeological system as the concentration of the Total Dissolved Solids approaches 800 mg/L with a Ca2+(Mg2+)-HCO3 − composition, similar to that of the surface waters. Some spring waters are characterized by relatively high concentrations of NO3 − (up to 123 mg/L), unequivocally suggesting an anthropogenic source. Anomalous concentrations of Cl−, SO4 2−, As, B and Ba were measured in two springs, discharging a few hundred meters from the oil wells, and in the Rio Ubierna. These contents are possibly indicative of mixing processes between deep and shallow aquifers. The chemistry of the dissolved gases also evidences the shallow circuits of the Hontomín– Huermeces, mainly characterized by an atmospheric source as highlighted by the contents of N2, O2, Ar and their relative ratios. Nevertheless, significant concentrations (up to 63% by vol.) of isotopically negative CO2 (<−17.7‰ V-PDB) were found in some water samples, likely related to a biogenic source. The geochemical and isotopic data of the surface and spring waters in the surroundings of Hontomín can be considered as background values when intra- and post-injection monitoring programs will be carried out. In this respect, main and minor solutes, the isotopic carbon of dissolved CO2 and TDIC (Total Dissolved Inorganic Carbon) and selected trace elements can be considered as useful parameters to trace the migration of the injected CO2 into near-surface environments.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La optimización de parámetros tales como el consumo de potencia, la cantidad de recursos lógicos empleados o la ocupación de memoria ha sido siempre una de las preocupaciones principales a la hora de diseñar sistemas embebidos. Esto es debido a que se trata de sistemas dotados de una cantidad de recursos limitados, y que han sido tradicionalmente empleados para un propósito específico, que permanece invariable a lo largo de toda la vida útil del sistema. Sin embargo, el uso de sistemas embebidos se ha extendido a áreas de aplicación fuera de su ámbito tradicional, caracterizadas por una mayor demanda computacional. Así, por ejemplo, algunos de estos sistemas deben llevar a cabo un intenso procesado de señales multimedia o la transmisión de datos mediante sistemas de comunicaciones de alta capacidad. Por otra parte, las condiciones de operación del sistema pueden variar en tiempo real. Esto sucede, por ejemplo, si su funcionamiento depende de datos medidos por el propio sistema o recibidos a través de la red, de las demandas del usuario en cada momento, o de condiciones internas del propio dispositivo, tales como la duración de la batería. Como consecuencia de la existencia de requisitos de operación dinámicos es necesario ir hacia una gestión dinámica de los recursos del sistema. Si bien el software es inherentemente flexible, no ofrece una potencia computacional tan alta como el hardware. Por lo tanto, el hardware reconfigurable aparece como una solución adecuada para tratar con mayor flexibilidad los requisitos variables dinámicamente en sistemas con alta demanda computacional. La flexibilidad y adaptabilidad del hardware requieren de dispositivos reconfigurables que permitan la modificación de su funcionalidad bajo demanda. En esta tesis se han seleccionado las FPGAs (Field Programmable Gate Arrays) como los dispositivos más apropiados, hoy en día, para implementar sistemas basados en hardware reconfigurable De entre todas las posibilidades existentes para explotar la capacidad de reconfiguración de las FPGAs comerciales, se ha seleccionado la reconfiguración dinámica y parcial. Esta técnica consiste en substituir una parte de la lógica del dispositivo, mientras el resto continúa en funcionamiento. La capacidad de reconfiguración dinámica y parcial de las FPGAs es empleada en esta tesis para tratar con los requisitos de flexibilidad y de capacidad computacional que demandan los dispositivos embebidos. La propuesta principal de esta tesis doctoral es el uso de arquitecturas de procesamiento escalables espacialmente, que son capaces de adaptar su funcionalidad y rendimiento en tiempo real, estableciendo un compromiso entre dichos parámetros y la cantidad de lógica que ocupan en el dispositivo. A esto nos referimos con arquitecturas con huellas escalables. En particular, se propone el uso de arquitecturas altamente paralelas, modulares, regulares y con una alta localidad en sus comunicaciones, para este propósito. El tamaño de dichas arquitecturas puede ser modificado mediante la adición o eliminación de algunos de los módulos que las componen, tanto en una dimensión como en dos. Esta estrategia permite implementar soluciones escalables, sin tener que contar con una versión de las mismas para cada uno de los tamaños posibles de la arquitectura. De esta manera se reduce significativamente el tiempo necesario para modificar su tamaño, así como la cantidad de memoria necesaria para almacenar todos los archivos de configuración. En lugar de proponer arquitecturas para aplicaciones específicas, se ha optado por patrones de procesamiento genéricos, que pueden ser ajustados para solucionar distintos problemas en el estado del arte. A este respecto, se proponen patrones basados en esquemas sistólicos, así como de tipo wavefront. Con el objeto de poder ofrecer una solución integral, se han tratado otros aspectos relacionados con el diseño y el funcionamiento de las arquitecturas, tales como el control del proceso de reconfiguración de la FPGA, la integración de las arquitecturas en el resto del sistema, así como las técnicas necesarias para su implementación. Por lo que respecta a la implementación, se han tratado distintos aspectos de bajo nivel dependientes del dispositivo. Algunas de las propuestas realizadas a este respecto en la presente tesis doctoral son un router que es capaz de garantizar el correcto rutado de los módulos reconfigurables dentro del área destinada para ellos, así como una estrategia para la comunicación entre módulos que no introduce ningún retardo ni necesita emplear recursos configurables del dispositivo. El flujo de diseño propuesto se ha automatizado mediante una herramienta denominada DREAMS. La herramienta se encarga de la modificación de las netlists correspondientes a cada uno de los módulos reconfigurables del sistema, y que han sido generadas previamente mediante herramientas comerciales. Por lo tanto, el flujo propuesto se entiende como una etapa de post-procesamiento, que adapta esas netlists a los requisitos de la reconfiguración dinámica y parcial. Dicha modificación la lleva a cabo la herramienta de una forma completamente automática, por lo que la productividad del proceso de diseño aumenta de forma evidente. Para facilitar dicho proceso, se ha dotado a la herramienta de una interfaz gráfica. El flujo de diseño propuesto, y la herramienta que lo soporta, tienen características específicas para abordar el diseño de las arquitecturas dinámicamente escalables propuestas en esta tesis. Entre ellas está el soporte para el realojamiento de módulos reconfigurables en posiciones del dispositivo distintas a donde el módulo es originalmente implementado, así como la generación de estructuras de comunicación compatibles con la simetría de la arquitectura. El router has sido empleado también en esta tesis para obtener un rutado simétrico entre nets equivalentes. Dicha posibilidad ha sido explotada para aumentar la protección de circuitos con altos requisitos de seguridad, frente a ataques de canal lateral, mediante la implantación de lógica complementaria con rutado idéntico. Para controlar el proceso de reconfiguración de la FPGA, se propone en esta tesis un motor de reconfiguración especialmente adaptado a los requisitos de las arquitecturas dinámicamente escalables. Además de controlar el puerto de reconfiguración, el motor de reconfiguración ha sido dotado de la capacidad de realojar módulos reconfigurables en posiciones arbitrarias del dispositivo, en tiempo real. De esta forma, basta con generar un único bitstream por cada módulo reconfigurable del sistema, independientemente de la posición donde va a ser finalmente reconfigurado. La estrategia seguida para implementar el proceso de realojamiento de módulos es diferente de las propuestas existentes en el estado del arte, pues consiste en la composición de los archivos de configuración en tiempo real. De esta forma se consigue aumentar la velocidad del proceso, mientras que se reduce la longitud de los archivos de configuración parciales a almacenar en el sistema. El motor de reconfiguración soporta módulos reconfigurables con una altura menor que la altura de una región de reloj del dispositivo. Internamente, el motor se encarga de la combinación de los frames que describen el nuevo módulo, con la configuración existente en el dispositivo previamente. El escalado de las arquitecturas de procesamiento propuestas en esta tesis también se puede beneficiar de este mecanismo. Se ha incorporado también un acceso directo a una memoria externa donde se pueden almacenar bitstreams parciales. Para acelerar el proceso de reconfiguración se ha hecho funcionar el ICAP por encima de la máxima frecuencia de reloj aconsejada por el fabricante. Así, en el caso de Virtex-5, aunque la máxima frecuencia del reloj deberían ser 100 MHz, se ha conseguido hacer funcionar el puerto de reconfiguración a frecuencias de operación de hasta 250 MHz, incluyendo el proceso de realojamiento en tiempo real. Se ha previsto la posibilidad de portar el motor de reconfiguración a futuras familias de FPGAs. Por otro lado, el motor de reconfiguración se puede emplear para inyectar fallos en el propio dispositivo hardware, y así ser capaces de evaluar la tolerancia ante los mismos que ofrecen las arquitecturas reconfigurables. Los fallos son emulados mediante la generación de archivos de configuración a los que intencionadamente se les ha introducido un error, de forma que se modifica su funcionalidad. Con el objetivo de comprobar la validez y los beneficios de las arquitecturas propuestas en esta tesis, se han seguido dos líneas principales de aplicación. En primer lugar, se propone su uso como parte de una plataforma adaptativa basada en hardware evolutivo, con capacidad de escalabilidad, adaptabilidad y recuperación ante fallos. En segundo lugar, se ha desarrollado un deblocking filter escalable, adaptado a la codificación de vídeo escalable, como ejemplo de aplicación de las arquitecturas de tipo wavefront propuestas. El hardware evolutivo consiste en el uso de algoritmos evolutivos para diseñar hardware de forma autónoma, explotando la flexibilidad que ofrecen los dispositivos reconfigurables. En este caso, los elementos de procesamiento que componen la arquitectura son seleccionados de una biblioteca de elementos presintetizados, de acuerdo con las decisiones tomadas por el algoritmo evolutivo, en lugar de definir la configuración de las mismas en tiempo de diseño. De esta manera, la configuración del core puede cambiar cuando lo hacen las condiciones del entorno, en tiempo real, por lo que se consigue un control autónomo del proceso de reconfiguración dinámico. Así, el sistema es capaz de optimizar, de forma autónoma, su propia configuración. El hardware evolutivo tiene una capacidad inherente de auto-reparación. Se ha probado que las arquitecturas evolutivas propuestas en esta tesis son tolerantes ante fallos, tanto transitorios, como permanentes y acumulativos. La plataforma evolutiva se ha empleado para implementar filtros de eliminación de ruido. La escalabilidad también ha sido aprovechada en esta aplicación. Las arquitecturas evolutivas escalables permiten la adaptación autónoma de los cores de procesamiento ante fluctuaciones en la cantidad de recursos disponibles en el sistema. Por lo tanto, constituyen un ejemplo de escalabilidad dinámica para conseguir un determinado nivel de calidad, que puede variar en tiempo real. Se han propuesto dos variantes de sistemas escalables evolutivos. El primero consiste en un único core de procesamiento evolutivo, mientras que el segundo está formado por un número variable de arrays de procesamiento. La codificación de vídeo escalable, a diferencia de los codecs no escalables, permite la decodificación de secuencias de vídeo con diferentes niveles de calidad, de resolución temporal o de resolución espacial, descartando la información no deseada. Existen distintos algoritmos que soportan esta característica. En particular, se va a emplear el estándar Scalable Video Coding (SVC), que ha sido propuesto como una extensión de H.264/AVC, ya que este último es ampliamente utilizado tanto en la industria, como a nivel de investigación. Para poder explotar toda la flexibilidad que ofrece el estándar, hay que permitir la adaptación de las características del decodificador en tiempo real. El uso de las arquitecturas dinámicamente escalables es propuesto en esta tesis con este objetivo. El deblocking filter es un algoritmo que tiene como objetivo la mejora de la percepción visual de la imagen reconstruida, mediante el suavizado de los "artefactos" de bloque generados en el lazo del codificador. Se trata de una de las tareas más intensivas en procesamiento de datos de H.264/AVC y de SVC, y además, su carga computacional es altamente dependiente del nivel de escalabilidad seleccionado en el decodificador. Por lo tanto, el deblocking filter ha sido seleccionado como prueba de concepto de la aplicación de las arquitecturas dinámicamente escalables para la compresión de video. La arquitectura propuesta permite añadir o eliminar unidades de computación, siguiendo un esquema de tipo wavefront. La arquitectura ha sido propuesta conjuntamente con un esquema de procesamiento en paralelo del deblocking filter a nivel de macrobloque, de tal forma que cuando se varía del tamaño de la arquitectura, el orden de filtrado de los macrobloques varia de la misma manera. El patrón propuesto se basa en la división del procesamiento de cada macrobloque en dos etapas independientes, que se corresponden con el filtrado horizontal y vertical de los bloques dentro del macrobloque. Las principales contribuciones originales de esta tesis son las siguientes: - El uso de arquitecturas altamente regulares, modulares, paralelas y con una intensa localidad en sus comunicaciones, para implementar cores de procesamiento dinámicamente reconfigurables. - El uso de arquitecturas bidimensionales, en forma de malla, para construir arquitecturas dinámicamente escalables, con una huella escalable. De esta forma, las arquitecturas permiten establecer un compromiso entre el área que ocupan en el dispositivo, y las prestaciones que ofrecen en cada momento. Se proponen plantillas de procesamiento genéricas, de tipo sistólico o wavefront, que pueden ser adaptadas a distintos problemas de procesamiento. - Un flujo de diseño y una herramienta que lo soporta, para el diseño de sistemas reconfigurables dinámicamente, centradas en el diseño de las arquitecturas altamente paralelas, modulares y regulares propuestas en esta tesis. - Un esquema de comunicaciones entre módulos reconfigurables que no introduce ningún retardo ni requiere el uso de recursos lógicos propios. - Un router flexible, capaz de resolver los conflictos de rutado asociados con el diseño de sistemas reconfigurables dinámicamente. - Un algoritmo de optimización para sistemas formados por múltiples cores escalables que optimice, mediante un algoritmo genético, los parámetros de dicho sistema. Se basa en un modelo conocido como el problema de la mochila. - Un motor de reconfiguración adaptado a los requisitos de las arquitecturas altamente regulares y modulares. Combina una alta velocidad de reconfiguración, con la capacidad de realojar módulos en tiempo real, incluyendo el soporte para la reconfiguración de regiones que ocupan menos que una región de reloj, así como la réplica de un módulo reconfigurable en múltiples posiciones del dispositivo. - Un mecanismo de inyección de fallos que, empleando el motor de reconfiguración del sistema, permite evaluar los efectos de fallos permanentes y transitorios en arquitecturas reconfigurables. - La demostración de las posibilidades de las arquitecturas propuestas en esta tesis para la implementación de sistemas de hardware evolutivos, con una alta capacidad de procesamiento de datos. - La implementación de sistemas de hardware evolutivo escalables, que son capaces de tratar con la fluctuación de la cantidad de recursos disponibles en el sistema, de una forma autónoma. - Una estrategia de procesamiento en paralelo para el deblocking filter compatible con los estándares H.264/AVC y SVC que reduce el número de ciclos de macrobloque necesarios para procesar un frame de video. - Una arquitectura dinámicamente escalable que permite la implementación de un nuevo deblocking filter, totalmente compatible con los estándares H.264/AVC y SVC, que explota el paralelismo a nivel de macrobloque. El presente documento se organiza en siete capítulos. En el primero se ofrece una introducción al marco tecnológico de esta tesis, especialmente centrado en la reconfiguración dinámica y parcial de FPGAs. También se motiva la necesidad de las arquitecturas dinámicamente escalables propuestas en esta tesis. En el capítulo 2 se describen las arquitecturas dinámicamente escalables. Dicha descripción incluye la mayor parte de las aportaciones a nivel arquitectural realizadas en esta tesis. Por su parte, el flujo de diseño adaptado a dichas arquitecturas se propone en el capítulo 3. El motor de reconfiguración se propone en el 4, mientras que el uso de dichas arquitecturas para implementar sistemas de hardware evolutivo se aborda en el 5. El deblocking filter escalable se describe en el 6, mientras que las conclusiones finales de esta tesis, así como la descripción del trabajo futuro, son abordadas en el capítulo 7. ABSTRACT The optimization of system parameters, such as power dissipation, the amount of hardware resources and the memory footprint, has been always a main concern when dealing with the design of resource-constrained embedded systems. This situation is even more demanding nowadays. Embedded systems cannot anymore be considered only as specific-purpose computers, designed for a particular functionality that remains unchanged during their lifetime. Differently, embedded systems are now required to deal with more demanding and complex functions, such as multimedia data processing and high-throughput connectivity. In addition, system operation may depend on external data, the user requirements or internal variables of the system, such as the battery life-time. All these conditions may vary at run-time, leading to adaptive scenarios. As a consequence of both the growing computational complexity and the existence of dynamic requirements, dynamic resource management techniques for embedded systems are needed. Software is inherently flexible, but it cannot meet the computing power offered by hardware solutions. Therefore, reconfigurable hardware emerges as a suitable technology to deal with the run-time variable requirements of complex embedded systems. Adaptive hardware requires the use of reconfigurable devices, where its functionality can be modified on demand. In this thesis, Field Programmable Gate Arrays (FPGAs) have been selected as the most appropriate commercial technology existing nowadays to implement adaptive hardware systems. There are different ways of exploiting reconfigurability in reconfigurable devices. Among them is dynamic and partial reconfiguration. This is a technique which consists in substituting part of the FPGA logic on demand, while the rest of the device continues working. The strategy followed in this thesis is to exploit the dynamic and partial reconfiguration of commercial FPGAs to deal with the flexibility and complexity demands of state-of-the-art embedded systems. The proposal of this thesis to deal with run-time variable system conditions is the use of spatially scalable processing hardware IP cores, which are able to adapt their functionality or performance at run-time, trading them off with the amount of logic resources they occupy in the device. This is referred to as a scalable footprint in the context of this thesis. The distinguishing characteristic of the proposed cores is that they rely on highly parallel, modular and regular architectures, arranged in one or two dimensions. These architectures can be scaled by means of the addition or removal of the composing blocks. This strategy avoids implementing a full version of the core for each possible size, with the corresponding benefits in terms of scaling and adaptation time, as well as bitstream storage memory requirements. Instead of providing specific-purpose architectures, generic architectural templates, which can be tuned to solve different problems, are proposed in this thesis. Architectures following both systolic and wavefront templates have been selected. Together with the proposed scalable architectural templates, other issues needed to ensure the proper design and operation of the scalable cores, such as the device reconfiguration control, the run-time management of the architecture and the implementation techniques have been also addressed in this thesis. With regard to the implementation of dynamically reconfigurable architectures, device dependent low-level details are addressed. Some of the aspects covered in this thesis are the area constrained routing for reconfigurable modules, or an inter-module communication strategy which does not introduce either extra delay or logic overhead. The system implementation, from the hardware description to the device configuration bitstream, has been fully automated by modifying the netlists corresponding to each of the system modules, which are previously generated using the vendor tools. This modification is therefore envisaged as a post-processing step. Based on these implementation proposals, a design tool called DREAMS (Dynamically Reconfigurable Embedded and Modular Systems) has been created, including a graphic user interface. The tool has specific features to cope with modular and regular architectures, including the support for module relocation and the inter-module communications scheme based on the symmetry of the architecture. The core of the tool is a custom router, which has been also exploited in this thesis to obtain symmetric routed nets, with the aim of enhancing the protection of critical reconfigurable circuits against side channel attacks. This is achieved by duplicating the logic with an exactly equal routing. In order to control the reconfiguration process of the FPGA, a Reconfiguration Engine suited to the specific requirements set by the proposed architectures was also proposed. Therefore, in addition to controlling the reconfiguration port, the Reconfiguration Engine has been enhanced with the online relocation ability, which allows employing a unique configuration bitstream for all the positions where the module may be placed in the device. Differently to the existing relocating solutions, which are based on bitstream parsers, the proposed approach is based on the online composition of bitstreams. This strategy allows increasing the speed of the process, while the length of partial bitstreams is also reduced. The height of the reconfigurable modules can be lower than the height of a clock region. The Reconfiguration Engine manages the merging process of the new and the existing configuration frames within each clock region. The process of scaling up and down the hardware cores also benefits from this technique. A direct link to an external memory where partial bitstreams can be stored has been also implemented. In order to accelerate the reconfiguration process, the ICAP has been overclocked over the speed reported by the manufacturer. In the case of Virtex-5, even though the maximum frequency of the ICAP is reported to be 100 MHz, valid operations at 250 MHz have been achieved, including the online relocation process. Portability of the reconfiguration solution to today's and probably, future FPGAs, has been also considered. The reconfiguration engine can be also used to inject faults in real hardware devices, and this way being able to evaluate the fault tolerance offered by the reconfigurable architectures. Faults are emulated by introducing partial bitstreams intentionally modified to provide erroneous functionality. To prove the validity and the benefits offered by the proposed architectures, two demonstration application lines have been envisaged. First, scalable architectures have been employed to develop an evolvable hardware platform with adaptability, fault tolerance and scalability properties. Second, they have been used to implement a scalable deblocking filter suited to scalable video coding. Evolvable Hardware is the use of evolutionary algorithms to design hardware in an autonomous way, exploiting the flexibility offered by reconfigurable devices. In this case, processing elements composing the architecture are selected from a presynthesized library of processing elements, according to the decisions taken by the algorithm, instead of being decided at design time. This way, the configuration of the array may change as run-time environmental conditions do, achieving autonomous control of the dynamic reconfiguration process. Thus, the self-optimization property is added to the native self-configurability of the dynamically scalable architectures. In addition, evolvable hardware adaptability inherently offers self-healing features. The proposal has proved to be self-tolerant, since it is able to self-recover from both transient and cumulative permanent faults. The proposed evolvable architecture has been used to implement noise removal image filters. Scalability has been also exploited in this application. Scalable evolvable hardware architectures allow the autonomous adaptation of the processing cores to a fluctuating amount of resources available in the system. Thus, it constitutes an example of the dynamic quality scalability tackled in this thesis. Two variants have been proposed. The first one consists in a single dynamically scalable evolvable core, and the second one contains a variable number of processing cores. Scalable video is a flexible approach for video compression, which offers scalability at different levels. Differently to non-scalable codecs, a scalable video bitstream can be decoded with different levels of quality, spatial or temporal resolutions, by discarding the undesired information. The interest in this technology has been fostered by the development of the Scalable Video Coding (SVC) standard, as an extension of H.264/AVC. In order to exploit all the flexibility offered by the standard, it is necessary to adapt the characteristics of the decoder to the requirements of each client during run-time. The use of dynamically scalable architectures is proposed in this thesis with this aim. The deblocking filter algorithm is the responsible of improving the visual perception of a reconstructed image, by smoothing blocking artifacts generated in the encoding loop. This is one of the most computationally intensive tasks of the standard, and furthermore, it is highly dependent on the selected scalability level in the decoder. Therefore, the deblocking filter has been selected as a proof of concept of the implementation of dynamically scalable architectures for video compression. The proposed architecture allows the run-time addition or removal of computational units working in parallel to change its level of parallelism, following a wavefront computational pattern. Scalable architecture is offered together with a scalable parallelization strategy at the macroblock level, such that when the size of the architecture changes, the macroblock filtering order is modified accordingly. The proposed pattern is based on the division of the macroblock processing into two independent stages, corresponding to the horizontal and vertical filtering of the blocks within the macroblock. The main contributions of this thesis are: - The use of highly parallel, modular, regular and local architectures to implement dynamically reconfigurable processing IP cores, for data intensive applications with flexibility requirements. - The use of two-dimensional mesh-type arrays as architectural templates to build dynamically reconfigurable IP cores, with a scalable footprint. The proposal consists in generic architectural templates, which can be tuned to solve different computational problems. •A design flow and a tool targeting the design of DPR systems, focused on highly parallel, modular and local architectures. - An inter-module communication strategy, which does not introduce delay or area overhead, named Virtual Borders. - A custom and flexible router to solve the routing conflicts as well as the inter-module communication problems, appearing during the design of DPR systems. - An algorithm addressing the optimization of systems composed of multiple scalable cores, which size can be decided individually, to optimize the system parameters. It is based on a model known as the multi-dimensional multi-choice Knapsack problem. - A reconfiguration engine tailored to the requirements of highly regular and modular architectures. It combines a high reconfiguration throughput with run-time module relocation capabilities, including the support for sub-clock reconfigurable regions and the replication in multiple positions. - A fault injection mechanism which takes advantage of the system reconfiguration engine, as well as the modularity of the proposed reconfigurable architectures, to evaluate the effects of transient and permanent faults in these architectures. - The demonstration of the possibilities of the architectures proposed in this thesis to implement evolvable hardware systems, while keeping a high processing throughput. - The implementation of scalable evolvable hardware systems, which are able to adapt to the fluctuation of the amount of resources available in the system, in an autonomous way. - A parallelization strategy for the H.264/AVC and SVC deblocking filter, which reduces the number of macroblock cycles needed to process the whole frame. - A dynamically scalable architecture that permits the implementation of a novel deblocking filter module, fully compliant with the H.264/AVC and SVC standards, which exploits the macroblock level parallelism of the algorithm. This document is organized in seven chapters. In the first one, an introduction to the technology framework of this thesis, specially focused on dynamic and partial reconfiguration, is provided. The need for the dynamically scalable processing architectures proposed in this work is also motivated in this chapter. In chapter 2, dynamically scalable architectures are described. Description includes most of the architectural contributions of this work. The design flow tailored to the scalable architectures, together with the DREAMs tool provided to implement them, are described in chapter 3. The reconfiguration engine is described in chapter 4. The use of the proposed scalable archtieectures to implement evolvable hardware systems is described in chapter 5, while the scalable deblocking filter is described in chapter 6. Final conclusions of this thesis, and the description of future work, are addressed in chapter 7.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el presente trabajo se desarrolla una metodología para llevar a cabo el análisis dinámico de una válvula cardíaca artificial en condiciones de flujo no estacionario, usando un programa de computación de aplicaciones generales basado en el Método de los Volúmenes Finitos. Dicha metodología comprende el establecimiento e implementación computacional de un modelo que representa el movimiento de la válvula (posición, velocidad y aceleración angular) como el resultado de la acción de fuerzas debidas a la presión y a los esfuerzos cortantes del fluido, tomando en cuenta la inercia de la prótesis, así como el establecimiento e imposición como condición de contorno de una función de presión en la entrada del conducto. Con la finalidad de implementar la metodología desarrollada se realiza un estudio preliminar para seleccionar la malla más adecuada, determinar el tamaño óptimo del paso en el tiempo y el mínimo número de iteracciones a utilizar. Posteriormente, se resuelve el flujo laminar, incomprensible y newtoniano a través de una válvula de doble hoja en posición aórtica, y se realiza un estudio paramétrico para analizar la influencia del cambio de diversos párametros inherentes a la prótesis sobre su desempeño.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tanto el tema de esta investigación, como sus objetivos, fundamentos, materiales seleccionados y parte experimental para alcanzarlos, han sido promovidos por la situación y el estado de las construcciones de hormigón armado que se comenzaron a realizar en España a partir del año 1975, con hormigones y morteros de cemento que contenían cenizas volantes hasta un 20 %, en principio, y hasta un 35 %, más tarde, de su dosificación de cemento Portland (CP), los cuales y en contra de lo esperado, han demandado y continúan demandando, muy a pesar de sus aparentes bondades de todo tipo que se les atribuían, una necesidad de mejora de sus prestaciones, especialmente, debido a un nivel inesperadamente bajo de la durabilidad de algunas obras construidas con los mismos. Todo era debido, en definitiva, a que las adiciones puzolánicas, naturales y artificiales, tales como las cenizas volantes, referidas antes, se vienen utilizando reglamentariamente para la fabricación de cementos y/o de sus productos derivados, hormigones, morteros y pastas, en la mayor parte de los países industrializados, desde hace ya más de tres décadas aproximadamente, en las mismas condiciones e idénticos usos constructivos que los hormigones y morteros de CP puro, viniendo además, dictada dicha utilización de estos materiales residuales, hoy sub-productos industriales, por cuestiones medioambientales y/o económicas, principalmente, motivo por el cual esta Tesis Doctoral ha pretendido responder también, adecuadamente y de manera esquemática (en forma de diagrama de flujo), a los criterios que deben de tenerse en cuenta a la hora de su selección y caracterización normalizada y reglamentada de estas adiciones minerales activas, sobre todo, antes de su dosificación y uso en forma del denominado cemento Portland con puzolana, o con ceniza volante, o con esquistos calcinados o con puzolanas calcinadas o con humo de sílice, cemento Portland mixto, cemento puzolánico o cemento compuesto, para que dichos problemas no se le produzcan al hormigón armado ni en masa. De aquí el enfoque tan particular y especial de esta investigación, al haberla circunscrito únicamente a las puzolanas naturales y artificiales, por considerarlas todas ellas, independientemente de por su origen, como materiales constituidos por pequeñas fracciones cristalinas distribuidas aleatoriamente en una matriz mayoritariamente vítrea y/o amorfa, la cual es la que le confiere su reactividad con el hidróxido de calcio en forma de cal apagada o de portlandita procedente de la hidratación del CP. A su vez, dichas fracciones vítreas y/o amorfas están constituidas, en su mayor parte, por sílice reactiva, SiO2r-, alúmina reactiva, Al2O3r-, y óxido de hierro reactivo, Fe2O3r-, recibiendo además, en conjunto, el nombre específico de "factores hidráulicos" de la puzolana, los cuales, por lo común, difieren cuantitativamente de sus contenidos totales, determinados por fusión alcalina mediante procedimientos normalizados. De los tres óxidos reactivos mencionados y desde el punto de vista técnico, los más importantes por su mayor presencia en casi todas las puzolanas naturales y artificiales y, también, transcendencia en la durabilidad química que les pueden llegar a conferir al hormigón armado y en masa, mortero o pasta de cemento que las contenga, son la SiO2r- y la Al2O3r-. El primero de los dos, la SiO2r-, reacciona nada más que con la portlandita (y el Ca(OH)2) para formar geles C-S-H, más tarde transformados en tobermoritas o en jennitas, semejantes a los que originan la alita y la belita del CP en su hidratación. Y desde el punto de vista normativo, la presencia de esta fracción silícica reactiva en las puzolanas viene regulada por la norma EN 197-1, de modo general, siendo además referida por la norma EN 450-1:2006, en el contexto de las cenizas volantes en su adición al hormigón, como "un polvo fino de partículas principalmente de forma esférica y cristalina, procedentes de la combustión de carbón pulverizado, que tiene propiedades puzolánicas y que está compuesto fundamentalmente de SiO2 y Al2O3". Además y de acuerdo con la primera de las dos normas, "El contenido de dióxido de silicio reactivo (definido y determinado según la norma EN 196-2 o su equivalente la UNE 80225) no debe ser inferior al 25 % en masa". Por su parte, cuantiosos estudios experimentales realizados por Talero solo y con otros investigadores, han demostrado que si la puzolana no es adecuada en calidad ni en cantidad, la durabilidad del cemento del que forme parte, y, por consiguiente, de los productos derivados que con él se fabriquen, hormigones, morteros, pastas y prefabricados, puede llegar a ser anormalmente baja, porque la alúmina reactiva, Al2O3r-, o alúmina tetra- o penta-coordinada que la constituye, se implica como tal, de una forma muy directa y con resultados totalmente contrapuestos incluso, en los ataques químicos agresivos naturales que se les producen, provenientes de terrenos y aguas selenitosas (sulfatos, que atacan en su caso al propio material hormigón, mortero y pasta que la contiene para formar ettringita de rápida formación, ett-rf, la cual puede llegar incluso a provocar un ataque rápido del yeso), del rocío marino y de las sales de deshielo (cloruros, que atacan, en cambio, a las armaduras de acero del hormigón provocándoles su corrosión electroquímica por "picadura", si bien, en este otro ataque químico, dicha Al2O3r- lo que origina es sal de Friedel de rápida formación, sF-rf, también, cuyo efecto es, en cambio, colmatador y protector, en definitiva, de dicha corrosión electroquímica), del agua de mar (acción agresiva mutua de cloruros y sulfatos), de la carbonatación, de la reactividad árido-álcali, además de intervenir en la liberación del calor de hidratación, así como también, en el comportamiento reológico de sus pastas, etc., acortándoles de este modo su durabilidad prevista y, en ocasiones, muy seriamente incluso. Pero lo más paradójico de todo es, que a pesar de su referido comportamiento totalmente contrapuesto, frente a sulfatos y cloruros, - aún no se dispone de un método de análisis químico para su determinación cuantitativa, que sea además relativamente sencillo en su operatividad, veraz, preciso, de respuesta rápida, desde el punto de vista técnico de la construcción (no más de 28 días), repetible, reproducible, que no implique peligro alguno para la seguridad vital de las personas que lo tengan que manipular y poner en práctica, económico, y que sirva también tanto para investigación -vertiente científica-, como, sobre todo, para control de calidad -vertiente técnica-, - y ni mucho menos tampoco se dispone todavía, de especificación química alguna que precise el contenido máximo de Al2O3r- (%) que tiene que poseer una puzolana natural o artificial, para poder ser añadida al cemento Portland y/o al hormigón que va a estar sometido a un determinado ataque químico agresivo de los mencionados antes, y, en especial, a sulfatos, a cloruros o al agua de mar. Y para mayor justificación de ambas necesidades, se ha de decir también que la vigente Instrucción de Hormigón Estructural EHE-08 no contempla tampoco especificación química alguna sobre los "factores hidráulicos", en general, ni del contenido de Al2O3r-(%) de las cenizas volantes, muy en particular, en su Artículo 30º "Adiciones", ni en ningún otro Artículo, a pesar de que sí contempla, en cambio, - otras especificaciones químicas que carecen del necesario significado en cuanto a la necesidad de llevar explícita o implícitamente, el mensaje de la Durabilidad Química deseado, y - el Artículo 37º, el cual y para mayor abundamiento se titula paradójicamente "Durabilidad del hormigón y de las armaduras". Asimismo, tampoco se contempla en la última versión que acaba de publicarse de la norma EN 197-1 titulada: "Cementos. Parte 1: Composición, especificaciones y criterios de conformidad de los cementos comunes". Ni tampoco, en la norma EN 450-1:2006 titulada "Cenizas volantes para hormigón. Parte 1: Definiciones, especificaciones y criterios de conformidad", ni en la vigente Instrucción española para la Recepción de Cementos, RC-08, ni en la norma ASTM C618-03 tampoco. La única especificación química que ambas normas, la europea y la norteamericana, refieren es aquella que dice que la suma de los contenidos porcentuales de SiO2 total, Al2O3 total y Fe2O3 total, de la puzolana natural o artificial, ha de ser mayor o igual que 70 %, definiendo, además, a las puzolanas de este modo tan genérico: "materiales silíceos o silíceos y aluminosos, que por sí mismos no poseen valor cementante alguno, pero que finamente divididos y en presencia de humedad, reaccionarán químicamente con hidróxido de calcio a temperaturas ordinarias para formar compuestos que poseen propiedades cementantes". Por consiguiente y de acuerdo con todo lo anterior, el objetivo primordial de esta Tesis Doctoral ha sido: Diseñar y poner a punto un nuevo método analítico de utilidad técnica (que la duración máxima del ensayo no sea mayor de 28 días), para determinar el contenido de alúmina reactiva, vítrea o amorfa, Al2O3r-, de las puzolanas naturales y artificiales. Y una vez puesto a punto, validarlo a nivel de su repetibilidad, de acuerdo con parámetros estadísticos apropiados, poniendo especial énfasis en los criterios de aceptación establecidos por la American Association of Official Analytical Chemists (AOAC). Y para conseguirlo, la innovación de esta investigación se ha basado en los siguientes fundamentos generales, a saber: - Toda la alúmina de cualquier puzolana natural o artificial, capaz de ser atacada, disuelta y lixiviada en 28 días, por la portlandita o por el hidróxido de calcio, Ca(OH)2, en medio acuoso, es considerada como alúmina reactiva, Al2O3r-. - Dicha fracción alumínica reactiva de la puzolana natural o artificial se tiene que encontrar, además, en el estado físico-químico de poder reaccionar químicamente también, en presencia de hidróxido de calcio, cloruro de sodio y agua, para originar monocloro¿aluminato de calcio hidratado, C3A·CaCl2·10H2O, o sal de Friedel. Además, dicho estado físico-químico de la puzolana ha de ser acorde con la definición de alúmina reactiva adoptada en esta investigación en razón de las prestaciones reales de durabilidad química que le puede llegar a conferir a los cementos de mezcla y a sus productos derivados, hormigones, morteros y pastas, que se fabriquen con la misma. - La originalidad de este nuevo método analítico, respecto a los demás métodos ya existentes, reside en que la cuantificación de dicha fracción alumínica reactiva de la puzolana natural o artificial, se realiza mediante cálculo estequiométrico, basándose, para ello, en dicha reacción química de formación de sal de Friedel precisamente, tras 28 días de hidratación básica-salina acelerada de la puzolana natural o artificial, habiéndose realizado, además, en esta investigación dicha determinación cuantitativa de la cantidad de sal de Friedel originada por cada puzolana, mediante dos técnicas analíticas instrumentales que fueron las siguientes: el análisis termogravimétrico (variante I ó I-I en su caso) y el método de Rietveld con la difracción de Rayos X en polvo (variante II). - La reacción química de formación de sal de Friedel tras 28 días de hidratación básica-salina acelerada de las puzolanas que se analicen, se optimizó para asegurar que el único compuesto químico de aluminio y cloro formado fuese sal de Friedel nada más (dosificando para ello en cantidad adecuada los reactivos químicos necesarios: Ca(OH)2, NaCl y agua destilada), manteniendo, además y por otra parte, el compromiso apropiado entre el máximo rendimiento de dicha reacción química (ataque, disolución y lixiviación en 28 días, de toda la alúmina reactiva de la puzolana) y el modo y medios más adecuados de acelerarlo para conseguirlo fue a 40°C de temperatura, con agitación constante y cierre hermético del reactor. - La aplicabilidad y selectividad del nuevo método analítico, objeto de esta Tesis Doctoral, fue estudiada con una serie de puzolanas naturales y artificiales españolas, silíceas y/o silíceas y aluminosas en naturaleza, que fueron las siguientes: M0 (metacaolín 0), M1 (M0 con 50 % de cuarzo), C y L (puzolanas naturales de las Islas Canarias), CV10 y CV17 (cenizas volantes), A (puzolana natural de Almagro), O (puzolana natural de Olot) y HS (humo de sílice). - Todas las adiciones minerales anteriores cumplieron con los principales requisitos físicos y químicos que son preceptivos para poder considerarlas, antes de todo, como puzolanas, lo que era indispensable y de obligado cumplimiento, para poderles determinar su contenido total de Al2O3r- (%) mediante el nuevo método analítico. Estos condicionantes fueron los siguientes: grado adecuado de finura de molido o tamaño medio de partícula (según la norma EN 451-2), haber sido analizadas químicamente antes de todo (según la norma EN 196-2 ó la ASTM C311), con el fin de determinarles especialmente, sus contenidos totales de SiO2 (%), Al2O3 (%) y Fe2O3 (%), haberles determinado, además, su contenido de sílice reactiva, SiO2r- (%) (según la norma UNE 80225), y haber cumplido con el ensayo de puzolanicidad o de Frattini (según la norma EN 196-5) a la edad de 28 días al menos. Este último requisito, otrora de obligado cumplimiento hasta el año 1988, para cualquier puzolana natural y artificial que una fábrica de cementos pretendiera introducir en el proceso de fabricación de un nuevo cemento puzolánico o cemento tipo CEM IV, ha logrado así, que se tenga que volver utilizar de nuevo de forma obligada con esta Tesis Doctoral. Y los resultados obtenidos con el nuevo método analítico de los contenidos de Al2O3r-(%) de las puzolanas seleccionadas, fueron los siguientes: - Mediante su variante I: M0 29.9 %, M1 16.9 %, CV10 11.4 %, L 12.3 %, C 12.6 %, A 8.0 %, CV17 9.5 % y O 6.3 % de Al2O3r-, y - Mediante su variante II: M0 30.7 %, M1 15.4 %, CV10 14.7%, L 11.8 %, C 11.1 %, A 8.9 %, CV17 9.6 % y O 6.8 % de Al2O3r-. Finalmente, todos ellos fueron contrastados, además, mediante la calibración y validación del nuevo método analítico, con los valores de referencia obtenidos de esas mismas puzolanas, los cuales se les habían determinado mediante el método de Florentín, consistente en atacar, disolver y lixiviar también toda la fracción alumínica soluble de la puzolana (y además, aquella silícica y férrica que la constituyen a la par), pero, en especial, su contenido total de alúmina reactiva, mediante un ataque básico (con Ca(OH)2 en medio acuoso a temperatura del laboratorio, habiendo sido, además, su duración hasta 1 año), seguido de otro ácido (con HCl, d = 1.12), habiéndose obtenido esta vez los siguientes resultados de sus contenidos de Al2O3r- (%): M0 28.8 %, M1 16.7 %, CV10 9.7 %, L 11.2 %, C 12.2 %, A 13.0 %, CV17 10.6 % y O 9.5 %. Dicha validación realizada ha puesto de manifiesto, en términos generales, que el nuevo método analítico es más fidedigno que el de Florentín, por lo que resulta ser totalmente apropiado para obtener los resultados que se han pretendido, además de proporcionarlos en un espacio de tiempo relativamente corto (28 días a lo sumo) y a un coste económico razonable por no elevado (salvo error u omisión y libre de impuestos directos e indirectos, el coste económico estimado de la variante I estaría en torno a 800.00 - 900.00 €/puzolana -caso más probable-, y aproximadamente una tercera parte nada más, en el caso de que la edad máxima del ensayo acelerado sea 7 días nada más -caso menos probable-), y, por consiguiente, técnicamente aceptable, al cumplir, además, en todo el rango considerado de variabilidad posible de concentraciones o contenidos del analito buscado en la puzolana, con tales parámetros de validación como son: linealidad (los resultados obtenidos son directamente proporcionales a la señal-respuesta instrumental recibida), sensibilidad, precisión excelente, repetibilidad satisfactoria de los valores obtenidos de los contenidos de Al2O3r- de todas y cada una de las adiciones puzolánicas seleccionadas, confirmando, por ello, la universalidad de su uso. Finalmente, las ventajas del nuevo método analítico, respecto a los métodos ya existentes recopilados de la bibliografía (el método de Florentín, el método de López Ruiz -HF 40 % y HNO3 2N-, el método de Murat y Driouche para arcillas -HF 0.5M-, el método de Arjuan, Silbee y Roy para cenizas volantes -HF 1 %- y su modificación por Fernández-Jiménez y cols. -HF 1 %, 27Al NMR MAS y XRD (método de Rietveld)-, y el método de determinación de la relación SiO2r-/Al2O3r- para arcillas y cenizas volantes por Ruiz-Santaquiteria y cols. -HF 1 %, NaOH 8M y ICP-AES-) son, principalmente, estar exento de peligro alguno para la seguridad vital de las personas que lo tengan que manipular y poner en práctica, ser bastante apropiado para control de calidad además de para investigación, su considerable menor coste económico, su relativamente corto espacio de tiempo que se necesita para obtener la respuesta-resultado pretendida (28 días a lo sumo), así como su universalidad y selectividad, puesto que además, su aplicabilidad es para todo tipo de adiciones puzolánicas naturales o artificiales, como así lo demuestran los resultados obtenidos de los materiales puzolánicos naturales y artificiales seleccionados y analizados, en un rango de concentraciones del analito -contenido de alúmina reactiva, Al2O3r- (%)-, desde el 5 % hasta el 30 % en masa, rango éste que, por otra parte, comprende prácticamente TODAS las adiciones puzolanas naturales y artificiales existentes en el mercado transnacional y las aún por existir. Por consiguiente y de acuerdo con lo anterior, el nuevo método analítico, ya sea realizado mediante su variante I o la II, debido, - en primer lugar, a los fundamentados planteamientos relativos a su procedimiento experimental -modus operandi- el cual ha sido aplicado a una amplia gama de puzolanas naturales y artificiales, y - en segundo lugar, debido a la calidad de los resultados obtenidos con un grado de precisión y repetibilidad excelentes, ha demostrado poseer una gran utilidad científica -para investigación-, pero, sobre todo, técnica -para control de calidad de adiciones puzolánicas naturales y artificiales que se adicionan habitualmente al cemento Portland en fábrica y/o a sus hormigones y morteros en planta-, además de ser representativos los valores obtenidos mediante el mismo respecto a la más que probable durabilidad química que cada una de ellas puede llegarle a conferir al hormigón armado y en masa, mortero y pasta del que forme parte, así como también su cantidad adecuada de sustitución parcial de cada cemento Portland para conseguirla, acorde con sus propias prestaciones químico-físicas o físico-químicas que puede llegarle a conferir, según sea su carácter químico (alumínico, alumínico-silícico, silícico-alumínico, silícico-férrico-alumínico o silícico), forma y tamaño medio de su partícula. Por último, el nuevo método analítico ha demostrado cumplir además, con todos los requisitos de obligado cumplimiento que establece la norma ISO/IEC 17025 sobre la calidad y fiabilidad de nuevos métodos o procedimientos analíticos no normalizados todavía, para poder ser propuesto en un futuro próximo, ante la Comisión de AENOR correspondiente, con objeto de comenzar un expediente para su certificación y normalización. ________________________________________________________________________________ Both the subject of this research, its objectives, fundamentals, materials selected and experimental part to achieve, have all been promoted by the situation and the state of reinforced concrete constructions that began performing in Spain from 1975, with concrete and mortars cement containing fly ash up to 20 %, in principle, and later, up to 35 % to its content of Portland cement, which and against expected, demanded a need to improve their performance, especially due to an unexpectedly low level of durability of some works built with them, despite, however, its apparent benefits of all kinds are ascribed to them. Ultimately, the natural or artificial pozzolanic additions, such as fly ash specially, referred to above, have been used with regulation to manufacture cements and/or its derivatives, concretes, mortars, cement pastes, in the most industrialized countries. More than three decades ago, under the same conditions and identical construction mainly uses concretes and mortars plain Portland cement, besides coming, given that use of these waste materials, industrial by-products today for environmental and/or economic issues. For this reason, this Doctoral Thesis aims to answer properly and schematically (in the form of flow chart), the criteria to be taken into account when selection and characterization standardized for these active mineral additions, especially prior to choosing and use in the so-called Portland Cement (PC) pozzolan, or with fly ash or with calcined shales or with calcined pozzolans or with silica fume or PC mixed or pozzolanic cement or compound cement, for that such pathology problems will not occur when reinforced concretes nor mass concretes are used for building. Hence the very particular and special focus about this research, having confined only to the natural or artificial pozzolans, considering them all, regardless of their origin, approach as materials consisting of small crystalline fractions randomly distributed in a largely vitreous and/or amorphous matrix, which confers their reactivity with calcium hydroxide in the form of slaked lime or portlandite from PC. In turn, these vitreous and/or amorphous fractions consist in its greater part, by reactive silica, SiO2r-, reactive alumina, Al2O3r-, and reactive iron oxide, Fe2O3r-, which also receive, in conjunction, the specific name of "hydraulic factors" of the pozzolan. Usually, they all differs in quantity of their respective total contents of the SiO2 (%), Al2O3 (%) and Fe2O3 (%) determined the pozzolan by alkaline fusion by means of standard procedures. Of the three above-mentioned oxides reagents and from the technical point of view, the most important for its increased presence in every one of the natural or artificial pozzolans and also significance in the chemical durability that can get them to give the concrete mortar or cement paste which contain them, are SiO2r- and Al2O3r-. From the first two, the SiO2r- reacts with portlandite only, released in the hydration of the PC (and with Ca(OH)2), to form C-S-H gels, transformed in tobermorites or jennites later on, similar to C-S-H gels also originating from the alite and belite hydration in the CP. From the standardization criteria point of view, the presence of this silicic fraction in pozzolans is regulated at first, by the European standard EN 197-1, in general, also being referred by the EN 450-1:2006, in the context of the fly ash in addition to the concrete, as a "fine powder of spherical particles mainly crystalline form. It is from the combustion of pulverized coal, which have pozzolanic properties and is mainly composed of SiO2 and Al2O3". In addition and according to the EN 197-1 standard, the reactive silica content (which can be defined and determined in accordance with EN 197-1 standard or its UNE 80225 standard) must not be lower than 25 % of its mass. Meanwhile, considerable experimental studies by Talero and Talero et al, have shown that if the pozzolan is not adequate in quality nor quantity, the durability of cement that is part and, therefore, of its derivative products, concretes, mortars and pastes cement, can become abnormally low because its reactive alumina, Al2O3r- (%), content or tetra- or penta-coordinated alumina which involves itself in a very direct and totally mixed and conflicting results even at all aggressive chemical attack natural to produce to the concrete, mortar and paste with inadequate natural and/or artificial pozzolans, such as those from the selenitous land and waters (sulfates, strikes if the material itself concrete, mortar and paste that contain them, for rapid forming ettringite form, ett-rf, which can even cause rapid gypsum attack to said concrete). In contrast, sea spray and de-icing salts (chlorides strikes the reinforced steel concrete causing them electrochemical corrosion by "bite", although in that other chemical attack, such Al2O3r- causes rapid Friedel's salt formation, Fs-rf, too, to cause protector effect of the electrochemical corrosion of reinforcements for these chlorides), seawater (mutual aggressive action of chlorides and sulfates), carbonation, alkali-silica reaction, and, in addition, to influence the release of hydration heat, as well as in the rheological behavior of the pastes, etc., decreasing/shorting them thus their expected durability and sometimes even very seriously. But the most ironic thing is, that despite its referral totally opposed, compared to sulfates and chlorides, behaviour, - far not available is, a chemical analysis method for its quantitative determination, which is also relatively simple in operation, accurate, precise, rapid response, from a technical point of view for building (no more than 28 days), repeatable, reproducible, not involving danger to life safety of the people who need to manipulate and implement, economic, and also serve for both scientific research and technical side, and - has yet to be any chemical specification that sets maximum levels for Al2O3r-(%) in the natural or artificial pozzolan to be added to the cement and/or to the concrete that will be subject to a particularly aggressive chemical attack from those mentioned above, and in particular, to sulphates, chlorides or sea water. And for the sake of and justification of this need, it has to be said that the current Spanish Instruction for Structural Concrete EHE-08 does not provide any specification on "hydraulic factors" in general, nor the content of Al2O3r- (%) in fly ash, very particular, as Article 30º "Additions", or any other Article, although does provide, however, other chemical specifications lacking the necessary meaning in terms of the message Chemical Durability mentioned, nor the Article 37º which and for greater sake, is paradoxically entitled "Durability of the concrete and of their reinforcements". It has also not contemplated in the latest version just released from EN 197-1 standard entitled "Cement Part 1: Composition, specifications and conformity criteria for common cements". Nor, in EN 450-1:2006 entitled "Fly ash for concrete Part 1: Definitions, specifications and conformity criteria", nor by current Spanish Instruction for Cement Reception, RC-08, nor the ASTM C618-03 Standard either. The only chemical specification that both Standards, European and American, refer is one that says that the sum of the total contents of SiO2 (%), Al2O3 (%) and Fe2O3 (%) of natural and artificial pozzolan, must be greater than or equal to 70 % , defining pozzolans thus: "siliceous or aluminous and siliceous materials, which themselves do not have any cementitious value but finely divided and in the presence of moisture it reacts with calcium hydroxide at ordinary temperatures to form compounds possessing cementitious properties". Consequently and according to everything related before, the primary objective of this Doctoral Thesis has been: To design and start-up a new quantitative analytical method of technical utility (the maximum test duration is not more than 28 days), to determine the content of reactive alumina content, Al2O3r- (%), vitreous or amorphous alumina, of natural and artificial pozzolans. And once designed, validate at repeatability level and in accordance with appropriate statistical parameters with special emphasis on the acceptance criteria established by the American Association of Official Analytical Chemists (AOAC). And to achieve this, the innovation of this research has been based on the following general principles, namely: - All the alumina in any pozzolan, natural or artificial, that can be attacked, dissolved and leached by portlandite or calcium hydroxide, Ca(OH)2, in aqueous medium, is considered reactive alumina, Al2O3r-. - This aluminic fraction of natural or artificial pozzolan to analyze and study, has to be in such physical-chemical state that it can react in the presence of calcium hydroxide, sodium chloride and water status and to cause monochloro-aluminate hydrated calcium, C3A·CaCl2·10H2O or Friedel's salt. Moreover, such physical-chemical state of the pozzolan must be consistent with the definition of reactive alumina adopted in this research because of the actual performance of chemical durability that can reach confer on blended cements and their derivatives, concretes, mortars and pastes that are manufactured with the same. - The originality of this new analytical method, compared to the other methods for determining reactive alumina existing (collected in abbreviated form in the state of the art of this report), is the quantification of such aluminic fraction of natural or artificial pozzolans is performed by stoichiometric calculation based on this, in the chemical reaction of Friedel's salt formation after 28 days of the analysis of saline-basic hydration accelerated natural or artificial pozzolan also performed in this research, and the quantitative determination of the Friedel's salt has been performed by two instrumental analytical techniques known as thermogravimetric analysis (variant I), and Rietveld method with X-ray powder diffraction (variant II). - The chemical reaction of Friedel's salt formation after 28 days of accelerated saline-basic hydration of the selected natural and artificial pozzolan, was optimized to ensure that the single chemical compound of aluminium and chlorine formed was Friedel's salt only (dosing for this purpose in amount suitable chemical reagents: Ca(OH)2, NaCl and distilled water), and, on the other hand, maintaining the appropriate compromise between the highest yield from the chemical reaction (attack, dissolution and leaching in 28 days, all reactive alumina of pozzolan) and to accelerate the etching media, which were 40°C temperature, constant stirring and sealing the reactor. - The applicability and selectivity of the new analytical method, the subject of this Doctoral Thesis, was studied with a series of Spanish natural and artificial pozzolans, siliceous or siliceous and aluminous in nature, which were as follows: M0 (metakaolin 0), M1 (M0 with 50 % quartz), L and C (natural pozzolans of the Canary Islands), CV10 (fly ash 10), CV17 (fly ash 17), A (natural pozzolan of Almagro), O (natural pozzolan of Olot), and HS (silica fume). - All mineral admixtures were selected satisfied the physical and chemical requirements proposed to consider them as pozzolan, which was mandatory, so its Al2O3r- (%) content can determine by the new analytical method. These conditions were as follows: adequate degree of fineness of grind or average particle size (according to EN 451-2 standard), have been analyzed chemically (according to EN 196-2 or ASTM C311 standards), in order to determine their total contents of SiO2 (%), Al2O3 (%) and Fe2O3 (%), mainly, having also determined its reactive silica content, SiO2r- (%) (UNE 80225 standard), and fulfilled with testing of pozzolanicity or Frattini test (according to EN 196-5 standard) at 28 days age at least. The last criteria was mandatory until 1988, for any natural and artificial pozzolan to a factory intended to introduce cements in the manufacturing process of a new Portland cement type CEM IV pozzolanic additions, and with this Doctoral Thesis has made is to be used once again mandatory. And the results obtained using the new analytical method, of the Al2O3r- (%) content for each selected pozzolan, were as follows: - by its variant I: M0 29.9 % , M1 16.9 % , CV10 11.4 % , L 12.3 % , C 12.6 % , A 8.0 % , CV17 9.5 % and O 6.3 % of Al2O3r-, and - by its variant II: M0 30.7 % , M1 15.4 % , CV10 14.7% % , L 11.8 % , C 11.1 % , A 8.9 % , CV17 9.6 % and O 6.8 % of Al2O3r-. Finally, they would all be further contrasted by the calibration and validation of new analytical method, with reference values obtained from these same natural and artificial pozzolans, which had been given by the method of Florentin, consisting of attack, dissolve and leached with a basic attack (with Ca(OH)2 in aqueous medium and laboratory temperature, having also been its duration up to 1 year), followed by another acid attack (HCl, d = 1.12), all soluble aluminic fraction of pozzolan, and in particular their total content of reactive alumina, Al2O3r-(%), was this time as follows: M0 28.8 %, M1 16.7 %, CV10 9.7 %, L 11.2 %, C 12.2 %, A 13.0 %, CV17 10.6 % and O 9.5 % (and their siliceous and iron contents that are at par). This validation has shown on the new analytical method is more reliable than Florentin method, so it turns out to be entirely appropriate to get the results that have been tried by the same, besides providing them a relatively short space of time (28 days at most) and reasonably no high economic cost (unless mistake -free direct and indirect taxes, such economic cost would be between 800.00 - 900.00 €/pozzolan (most likely case), and about an one-third part around, in the event that the maximum age of the accelerated test is 7 days only (less likely case). So it is technically acceptable, to consider the range of possible variability of concentrations or contents pozzolan analyte with validation parameters such as: linearity (the results obtained are directly proportional to the instrumental response signal received), excellent sensitivity and accuracy, satisfactory repeatability values from the contents of each and Al2O3r- (%) each selected pozzolan, confirming therefore universal use. Finally, the advantages of the new analytical method over existing methods compiled from literature (Florentin method , the Lopez Ruiz method -HF and HNO3 40 % 2N-, the method of Murat and Driouche for clays -0.5M HF-, the method of Arjuan, Roy and Silbee for fly ash -HF 1 %- and its modification by Fernández-Jiménez et al -HF 1 %, 27Al MAS NMR and XRD (Rietveld method)-, and the method for determining the SiO2r-/Al2O3r- clay and fly ash ratio of Santaquiteria Ruiz et al -HF 1 %, NaOH 8M and ICP-AES-) are primarily and relatively short time get the result intended answer (28 days at most), its considerable lower cost, free from danger to the life safety of the people who need to manipulate and put in practice as well as its universality and selectivity, since it is applicable for all types of natural or artificial pozzolans, as it has been shown by the results of selected natural and artificial pozzolanic materials and analyzed in a range of analyte concentrations -reactive alumina, Al2O3r- (%) content- from 5 % to 30 % by mass, this range, on the other hand, includes virtually ALL existing transnational market in natural and artificial pozzolans and still exist. Therefore and in accordance with the above, the new analytical method is already performed by the variant I or II, because, - firstly, grounded to experimental approaches concerning its experimental procedure -"modus operandi"- which has been applied to a wide range of natural and artificial pozzolans, and - secondly, due to the quality of the results obtained with a great degree of accuracy and repeatability, it has been shown to possess significant scientific value in the research, but especially technical value -for quality control of natural and artificial pozzolans commonly added to Portland cement factory and/or directly to their concrete and mortar in plant-, and also be representative enough of the values obtained by the same probable chemical durability that each of them can reach out to give the concrete mortar and paste to which it belongs, as well as proper amount of partial replacement of Portland cement. To get in line with their own chemical-physical or physical-chemical features which can come to confer, as its chemical character (aluminic, silicic-aluminic, aluminic-silicic, aluminic-ferric-silicic or ferric-silicic), form and medium size of its particle is. Finally, the new analytical method has proven to meet all mandatory requirements established by ISO/IEC 17025 on the quality and reliability of new methods or analytical procedures are not standardized yet, in order to be considered appropriate this new analytical method, in this Doctoral Thesis it is to be proposed in the near future, before the corresponding AENOR (Spanish Association for Standardization and Certification) Commission, to start a procedure for certification and standardization.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La seguridad verificada es una metodología para demostrar propiedades de seguridad de los sistemas informáticos que se destaca por las altas garantías de corrección que provee. Los sistemas informáticos se modelan como programas probabilísticos y para probar que verifican una determinada propiedad de seguridad se utilizan técnicas rigurosas basadas en modelos matemáticos de los programas. En particular, la seguridad verificada promueve el uso de demostradores de teoremas interactivos o automáticos para construir demostraciones completamente formales cuya corrección es certificada mecánicamente (por ordenador). La seguridad verificada demostró ser una técnica muy efectiva para razonar sobre diversas nociones de seguridad en el área de criptografía. Sin embargo, no ha podido cubrir un importante conjunto de nociones de seguridad “aproximada”. La característica distintiva de estas nociones de seguridad es que se expresan como una condición de “similitud” entre las distribuciones de salida de dos programas probabilísticos y esta similitud se cuantifica usando alguna noción de distancia entre distribuciones de probabilidad. Este conjunto incluye destacadas nociones de seguridad de diversas áreas como la minería de datos privados, el análisis de flujo de información y la criptografía. Ejemplos representativos de estas nociones de seguridad son la indiferenciabilidad, que permite reemplazar un componente idealizado de un sistema por una implementación concreta (sin alterar significativamente sus propiedades de seguridad), o la privacidad diferencial, una noción de privacidad que ha recibido mucha atención en los últimos años y tiene como objetivo evitar la publicación datos confidenciales en la minería de datos. La falta de técnicas rigurosas que permitan verificar formalmente este tipo de propiedades constituye un notable problema abierto que tiene que ser abordado. En esta tesis introducimos varias lógicas de programa quantitativas para razonar sobre esta clase de propiedades de seguridad. Nuestra principal contribución teórica es una versión quantitativa de una lógica de Hoare relacional para programas probabilísticos. Las pruebas de correción de estas lógicas son completamente formalizadas en el asistente de pruebas Coq. Desarrollamos, además, una herramienta para razonar sobre propiedades de programas a través de estas lógicas extendiendo CertiCrypt, un framework para verificar pruebas de criptografía en Coq. Confirmamos la efectividad y aplicabilidad de nuestra metodología construyendo pruebas certificadas por ordendor de varios sistemas cuyo análisis estaba fuera del alcance de la seguridad verificada. Esto incluye, entre otros, una meta-construcción para diseñar funciones de hash “seguras” sobre curvas elípticas y algoritmos diferencialmente privados para varios problemas de optimización combinatoria de la literatura reciente. ABSTRACT The verified security methodology is an emerging approach to build high assurance proofs about security properties of computer systems. Computer systems are modeled as probabilistic programs and one relies on rigorous program semantics techniques to prove that they comply with a given security goal. In particular, it advocates the use of interactive theorem provers or automated provers to build fully formal machine-checked versions of these security proofs. The verified security methodology has proved successful in modeling and reasoning about several standard security notions in the area of cryptography. However, it has fallen short of covering an important class of approximate, quantitative security notions. The distinguishing characteristic of this class of security notions is that they are stated as a “similarity” condition between the output distributions of two probabilistic programs, and this similarity is quantified using some notion of distance between probability distributions. This class comprises prominent security notions from multiple areas such as private data analysis, information flow analysis and cryptography. These include, for instance, indifferentiability, which enables securely replacing an idealized component of system with a concrete implementation, and differential privacy, a notion of privacy-preserving data mining that has received a great deal of attention in the last few years. The lack of rigorous techniques for verifying these properties is thus an important problem that needs to be addressed. In this dissertation we introduce several quantitative program logics to reason about this class of security notions. Our main theoretical contribution is, in particular, a quantitative variant of a full-fledged relational Hoare logic for probabilistic programs. The soundness of these logics is fully formalized in the Coq proof-assistant and tool support is also available through an extension of CertiCrypt, a framework to verify cryptographic proofs in Coq. We validate the applicability of our approach by building fully machine-checked proofs for several systems that were out of the reach of the verified security methodology. These comprise, among others, a construction to build “safe” hash functions into elliptic curves and differentially private algorithms for several combinatorial optimization problems from the recent literature.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nuevas aplicaciones tecnológicas y científicas mediante amarras electrodinámicas son analizadas para misiones planetarias. i) Primero, se considera un conjunto de amarras cilíndricas en paralelo (veleros electrosolares) para una misión interplanetaria. Los iones provenientes del viento solar son repelidos por el alto potencial de dichas amarras generando empuje sobre el velero. Para conocer el intercambio de momento que provocan los iones sobre las amarras se ha considerado un modelo de potencial estacionario. Se ha analizado la transferencia orbital de la Tierra a Júpiter siguiendo un método de optimización de trayectoria indirecto. ii) Una vez que el velero se encuentra cerca de Júpiter, se ha considerado el despliegue de una amarra para diferentes objetivos científicos. iia) Una amarra podría ser utilizada para diagnóstico de plasmas, al ser una fuente efectiva de ondas, y también como un generador de auroras artificiales. Una amarra conductora que orbite en la magnetosfera jovial es capaz de producir ondas. Se han analizado las diferentes ondas radiadas por un conductor por el que circula una corriente constante que sigue una órbita polar de alta excentricidad y bajo apoápside, como ocurre en la misión Juno de la NASA. iib) Además, se ha estudiado una misión tentativa que sigue una órbita ecuatorial (LJO) por debajo de los intensos cinturones de radiación. Ambas misiones requiren potencia eléctrica para los sistemas de comunicación e instrumentos científicos. Las amarras pueden generar potencia de manera más eficiente que otros sistemas que utlizan paneles solares o sistemas de potencia de radioisótopos (RPS). La impedancia de radiación es necesaria para determinar la corriente que circula por todo el circuito de la amarra. En un modelo de plasma frío, la radiación ocurre principalmente en los modos de Alfven y magnetosónica rápida, mostrando un elevado índice de refracción. Se ha estudiado la impedancia de radiación en amarras con recubrimiento aislante para los dos modos de radiación y cada una de las misiones. A diferencia del caso ionosférico terrestre, la baja densidad y el intenso campo magnético que aparecen en el entorno de Júpiter consiguen que la girofrecuencia de los electrones sea mucho mayor que la frecuencia del plasma; esto hace que el espectro de potencia para cada modo se modifique substancialmente, aumentando la velocidad de Alfven. Se ha estimado también la impedancia de radiación para amarras sin aislante conductor. En la misión LJO, un vehículo espacial bajando lentamente la altitud de su órbita permitiría estudiar la estructura del campo magnético y composición atmosférica para entender la formación, evolución, y estructura de Júpiter. Adicionalmente, si el contactor (cátodo) se apaga, se dice que la amarra flota eléctricamente, permitiendo emisión de haz de electrones que generan auroras. El continuo apagado y encendido produce pulsos de corriente dando lugar a emisiones de señales, que pueden ser utilizadas para diagnóstico del plasma jovial. En Órbita Baja Jovial, los iones que impactan contra una amarra polarizada negativamente producen electrones secundarios, que, viajando helicoidalmente sobre las líneas de campo magnético de Júpiter, son capaces de alcanzar su atmósfera más alta, y, de esta manera, generar auroras. Se han identificado cuáles son las regiones donde la amarra sería más eficiente para producir auroras. iic) Otra aplicación científica sugerida para la misión LJO es la detección de granos cargados que orbitan cerca de Júpiter. Los electrones de alta energía en este ambiente pueden ser modelados por una distribucción no Maxwelliana conocida como distribución kappa. En escenarios con plasmas complejos, donde los campos eléctricos en Júpiter pueden acelerar las cargas hasta velocidades que superen la velocidad térmica, este tipo de distribuciones son muy útiles. En este caso las colas de las distribuciones de electrones siguen una ley de potencias. Se han estudiado las fluctuaciones de granos cargados para funciones de distribución kappa. iii) La tesis concluye con el análisis para deorbitar satélites con amarras electrodinámicas que siguen una Órbita Baja Terrestre (LEO). Una amarra debe presentar una baja probabilidad de corte por pequeño debris y además debe ser suficientemente ligero para que el cociente entre la masa de la amarra y el satélite sea muy pequeño. En este trabajo se estiman las medidas de la longitud, anchura y espesor que debe tener una amarra para minimizar el producto de la probabilidad de corte por el cociente entre las masas de la amarra y el satélite. Se presentan resultados preliminares del diseño de una amarra con forma de cinta para deorbitar satélites relativamente ligeros como Cryosat y pesados como Envisat. Las misiones espaciales a planetas exteriores y en el ámbito terrestre plantean importantes retos científico-tecnológicos que deben ser abordados y solucionados. Por ello, desde el inicio de la era espacial se han diseñando novedosos métodos propulsivos, sistemas de guiado, navegación y control más robustos, y nuevos materiales para mejorar el rendimiento de los vehículos espaciales (SC). En un gran número de misiones interplanetarias y en todas las misiones a planetas exteriores se han empleado sistemas de radioisótopos (RPS) para generar potencia eléctrica en los vehículos espaciales y en los rovers de exploración. Estos sistemas emplean como fuente de energía el escaso y costoso plutonio-238. La NASA, por medio de un informe de la National Academy of Science (5 de Mayo del 2009), expresó una profunda preocupación por la baja cantidad de plutonio almacenado, insuficiente para desarrollar todas las misiones de exploración planetaria planeadas en el futuro [81, 91]. Esta circustancia ha llevado a dicha Agencia tomar la decisión de limitar el uso de estos sistemas RPS en algunas misiones de especial interés científico y una recomendación de alta prioridad para que el Congreso de los EEUU apruebe el reestablecimiento de la producción de plutonio-238, -son necesarios cerca de 5 kg de este material radiactivo al año-, para salvaguardar las misiones que requieran dichos sistemas de potencia a partir del año 2018. Por otro lado, la Agencia estadounidense ha estado considerando el uso de fuentes de energía alternativa; como la fisión nuclear a través del ambicioso proyecto Prometheus, para llevar a cabo una misión de exploración en el sistema jovial (JIMO). Finalmente, dicha misión fue desestimada por su elevado coste. Recientemente se han estado desarrollando sistemas que consigan energía a través de los recursos naturales que nos aporta el Sol, mediante paneles solares -poco eficientes para misiones a planetas alejados de la luz solar-. En este contexto, la misión JUNO del programa Nuevas Fronteras de la NASA, cuyo lanzamiento fue realizado con éxito en Agosto de 2011, va a ser la primera misión equipada con paneles solares que sobrevolará Júpiter en el 2015 siguiendo una órbita polar. Anteriormente se habían empleado los antes mencionados RPS para las misiones Pioneer 10,11, Voyager 1,2, Ulysses, Cassini-Huygens y Galileo (todas sobrevuelos excepto Galileo). Dicha misión seguirá una órbita elíptica de alta excentricidad con un periápside muy cercano a Júpiter, y apoápside lejano, evitando que los intensos cinturones de radiación puedan dañar los instrumentos de navegación y científicos. Un tether o amarra electrodinámica es capaz de operar como sistema propulsivo o generador de potencia, pero también puede ser considerado como solución científicotecnológica en misiones espaciales tanto en LEO (Órbita Baja Terrestre) como en planetas exteriores. Siguiendo una perspectiva histórica, durante las misiones terrestres TSS-1 (1992) y TSS-1R (1996) se emplearon amarras estandard con recubrimiento aislante en toda su longitud, aplicando como terminal anódico pasivo un colector esférico para captar electrones. En una geometría alternativa, propuesta por J. R. Sanmartín et al. (1993) [93], se consideró dejar la amarra sin recubrimiento aislante (“bare tether”), y sin colector anódico esférico, de forma que recogiera electrones a lo largo del segmento que resulta polarizado positivo, como si se tratara de una sonda de Langmuir de gran longitud. A diferencia de la amarra estandard, el “bare tether” es capaz de recoger electrones a lo largo de una superficie grande ya que este segmento es de varios kilómetros de longitud. Como el radio de la amarra es del orden de la longitud de Debye y pequeño comparado con el radio de Larmor de los electrones, permite una recolección eficiente de electrones en el régimen OML (Orbital Motion Limited) de sondas de Langmuir. La corriente dada por la teoría OML varía en función del perímetro y la longitud. En el caso de una cinta delgada, el perímetro depende de la anchura, que debe ser suficientemente grande para evitar cortes producidos por debris y micrometeoritos, y suficientemente pequeño para que la amarra funcione en dicho régimen [95]. En el experimento espacial TSS-1R mencionado anteriormente, se identificó una recolección de corriente más elevada que la que predecía el modelo teórico de Parker- Murphy, debido posiblemente a que se utilizaba un colector esférico de radio bastante mayor que la longitud de Debye [79]. En el caso de una amarra “bare”, que recoge electrones a lo largo de gran parte de su longitud, se puede producir un fenómeno conocido como atrapamiento adiabático de electrones (adiabatic electron trapping) [25, 40, 60, 73, 74, 97]. En el caso terrestre (LEO) se da la condición mesotérmica en la que la amarra se mueve con una velocidad muy superior a la velocidad térmica de los iones del ambiente y muy inferior a la velocidad térmica de los electrones. J. Laframboise y L. Parker [57] mostraron que, para una función de distribución quasi-isotrópica, la densidad de electrones debe entonces ser necesariamente inferior a la densidad ambiente. Por otra parte, debido a su flujo hipersónico y a la alta polarización positiva de la amarra, la densidad de los iones es mayor que la densidad ambiente en una vasta región de la parte “ram” del flujo, violando la condición de cuasi-neutralidad,-en una región de dimensión mayor que la longitud de Debye-. La solución a esta paradoja podría basarse en el atrapamiento adiabático de electrones ambiente en órbitas acotadas entorno al tether. ABSTRACT New technological and scientific applications by electrodynamic tethers for planetary missions are analyzed: i) A set of cylindrical, parallel tethers (electric solar sail or e-sail) is considered for an interplanetary mission; ions from the solar wind are repelled by the high potential of the tether, providing momentum to the e-sail. An approximated model of a stationary potential for a high solar wind flow is considered. With the force provided by a negative biased tether, an indirect method for the optimization trajectory of an Earth-to-Jupiter orbit transfer is analyzed. ii) The deployment of a tether from the e-sail allows several scientific applications in Jupiter. iia) It might be used as a source of radiative waves for plasma diagnostics and artificial aurora generator. A conductive tether orbiting in the Jovian magnetosphere produces waves. Wave radiation by a conductor carrying a steady current in both a polar, highly eccentric, low perijove orbit, as in NASA’s Juno mission, and an equatorial low Jovian orbit (LJO) mission below the intense radiation belts, is considered. Both missions will need electric power generation for scientific instruments and communication systems. Tethers generate power more efficiently than solar panels or radioisotope power systems (RPS). The radiation impedance is required to determine the current in the overall tether circuit. In a cold plasma model, radiation occurs mainly in the Alfven and fast magnetosonic modes, exhibiting a large refraction index. The radiation impedance of insulated tethers is determined for both modes and either mission. Unlike the Earth ionospheric case, the low-density, highly magnetized Jovian plasma makes the electron gyrofrequency much larger than the plasma frequency; this substantially modifies the power spectrum for either mode by increasing the Alfven velocity. An estimation of the radiation impedance of bare tethers is also considered. iib) In LJO, a spacecraft orbiting in a slow downward spiral under the radiation belts would allow determining magnetic field structure and atmospheric composition for understanding the formation, evolution, and structure of Jupiter. Additionally, if the cathodic contactor is switched off, a tether floats electrically, allowing e-beam emission that generate auroras. On/off switching produces bias/current pulses and signal emission, which might be used for Jovian plasma diagnostics. In LJO, the ions impacting against the negative-biased tether do produce secondary electrons, which racing down Jupiter’s magnetic field lines, reach the upper atmosphere. The energetic electrons there generate auroral effects. Regions where the tether efficiently should produce secondary electrons are analyzed. iic) Other scientific application suggested in LJO is the in-situ detection of charged grains. Charged grains naturally orbit near Jupiter. High-energy electrons in the Jovian ambient may be modeled by the kappa distribution function. In complex plasma scenarios, where the Jovian high electric field may accelerate charges up superthermal velocities, the use of non-Maxwellian distributions should be considered. In these cases, the distribution tails fit well to a power-law dependence for electrons. Fluctuations of the charged grains for non-Mawellian distribution function are here studied. iii) The present thesis is concluded with the analysis for de-orbiting satellites at end of mission by electrodynamic tethers. A de-orbit tether system must present very small tether-to-satellite mass ratio and small probability of a tether cut by small debris too. The present work shows how to select tape dimensions so as to minimize the product of those two magnitudes. Preliminary results of tape-tether design are here discussed to minimize that function. Results for de-orbiting Cryosat and Envisat are also presented.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La configuración de un cilindro acoplado a una semi-esfera, conocida como ’hemispherecylinder’, se considera como un modelo simplificado para numerosas aplicaciones industriales tales como fuselaje de aviones o submarinos. Por tanto, el estudio y entendimiento de los fenómenos fluidos que ocurren alrededor de dicha geometría presenta gran interés. En esta tesis se muestra la investigación del origen y evolución de los, ya conocidos, patrones de flujo (burbuja de separación, vórtices ’horn’ y vórtices ’leeward’) que se dan en esta geometría bajo condiciones de flujo separado. Para ello se han llevado a cabo simulaciones numéricas (DNS) y ensayos experimentales usando la técnica de Particle Image Velocimetry (PIV), para una variedad de números de Reynolds (Re) y ángulos de ataque (AoA). Se ha aplicado sobre los resultados numéricos la teoría de puntos críticos obteniendo, por primera vez para esta geometría, un diagrama de bifurcaciones que clasifica los diferentes regímenes topológicos en función del número de Reynolds y del ángulo de ataque. Se ha llevado a cabo una caracterización completa sobre el origen y la evolución de los patrones estructurales característicos del cuerpo estudiado. Puntos críticos de superficie y líneas de corriente tridimensionales han ayudado a describir el origen y la evolución de las principales estructuras presentes en el flujo hasta alcanzar un estado de estabilidad desde el punto de vista topológico. Este estado se asocia con el patrón de los vórtices ’horn’, definido por una topología característica que se encuentra en un rango de números de Reynolds muy amplio y en regímenes compresibles e incompresibles. Por otro lado, con el objeto de determinar las estructuras presentes en el flujo y sus frecuencias asociadas, se han usado distintas técnicas de análisis: Proper Orthogonal Decomposition (POD), Dynamic Mode Decomposition (DMD) y análisis de Fourier. Dichas técnicas se han aplicado sobre los datos experimentales y numéricos, demostrándose la buena concordancia entre ambos resultados. Finalmente, se ha encontrado en ambos casos, una frecuencia dominante asociada con una inestabilidad de los vórtices ’leeward’. ABSTRACT The hemisphere-cylinder may be considered as a simplified model for several geometries found in industrial applications such as aircrafts’ fuselages or submarines. Understanding the complex flow phenomena that surrounds this particular geometry is therefore of major industrial interest. This thesis presents an investigation of the origin and evolution of the complex flow pattern; i.e. separation bubbles, horn vortices and leeward vortices, around the hemisphere-cylinder under separated flow conditions. To this aim, threedimensional Direct Numerical Simulations (DNS) and experimental tests, using Particle Image Velocimetry (PIV) techniques, have been performed for a variety of Reynolds numbers (Re) and angles of attack (AoA). Critical point theory has been applied to the numerical simulations to provide, for the first time for this geometry, a bifurcation diagram that classifies the different flow topology regimes as a function of the Reynolds number and the angle of attack. A complete characterization about the origin and evolution of the complex structural patterns of this geometry has been put in evidence. Surface critical points and surface and volume streamlines were able to describe the main flow structures and their strong dependence with the flow conditions up to reach the structurally stable state. This state was associated with the pattern of the horn vortices, found on ranges from low to high Reynolds numbers and from incompressible to compressible regimes. In addition, different structural analysis techniques have been employed: Proper Orthogonal Decomposition (POD), Dynamic Mode Decomposition (DMD) and Fourier analysis. These techniques have been applied to the experimental and numerical data to extract flow structure information (i.e. modes and frequencies). Experimental and numerical modes are shown to be in good agreement. A dominant frequency associated with an instability of the leeward vortices has been identified in both, experimental and numerical results.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Actualmente y desde hace ya más de 25 años, el Método de “Predicción de las Direcciones Principales de Drenaje Subterráneo en Macizos Anisótropos”, ha sido utilizado con éxito en diferentes terrenos Kársticos como: calizas, yesos, cuarcitas, pizarras, granitos y criokarst (karst en el hielo glaciar). Sin embargo hasta ahora, nunca se había validado en terrenos volcánicos donde está focalizada esta tesis que lleva por título, Validación de dicho Método en los Terrenos Volcánicos del Macizo de Anaga en Tenerife. Este Método matemático consiste esencialmente en “Predecir y Cuantificar” las direcciones principales de drenaje turbulento subterráneo en macizos anisótropos. Para ello se basa en el estudio realizado en campo de los tectoglifos o deformaciones permanentes del macizo, impresas éstas en la roca, como consecuencia de los esfuerzos tectónicos a los que ha estado sometido dicho macizo. Se consigue de esta manera cubrir el vacío para macizos anisótropos que existe con el modelo matemático de flujo subterráneo laminar (macizos isótropos) definido por Darcy (1856). Para validar el Método se ha elegido el macizo de Anaga, pues es la zona de mayor anisotropía existente en la isla de Tenerife, conformada por una gran y extensa red de diques de diversas formas y tamaños que pertenecen a la familia de diques del eje estructural NE de la isla. En dicho macizo se realizó un exhaustivo trabajo de campo con la toma 331 datos (diques basálticos) y se aplicó el Método, consiguiendo definir las direcciones preferentes de drenaje subterráneo en el macizo de Anaga. Esta predicción obtenida se contrastó con la realidad del drenaje en la zona, conocida gracias a la existencia de cinco galerías ubicadas en la zona trabajo, de las cuales se tiene información sobre sus alumbramientos. En todos los casos se demuestra la bondad de la predicción obtenida con el Método. Queda demostrado que a mayor caos geológico o geotectónico, se ha conseguido mejor predicción del Método, obteniéndose resultados muy satisfactorios para aquellas galerías de agua en las que su rumbo de avance fue coincidente con la dirección perpendicular a la obtenida con la predicción dada por el Método, como dirección preferente de drenaje en la zona en la que se encuentra ubicada cada galería. No cabe duda que la validación de Método en los terrenos volcánicos de Tenerife, supondrá un cambio considerable en el mundo de la hidrogeología en este tipo de terrenos. Es la única herramienta matemática que se dispone para predecir un rumbo acertado en el avance de la perforación de las galerías de aguas, lo que conlleva al mismo tiempo un ahorro importantísimo en la ejecución de las obras. Por otro lado, el Método deja un importante legado a la sociedad canaria, pues con él se abren numerosas vías de trabajo e investigación que generarán un importante desarrollo en el mundo de la hidrogeología volcánica. ABSTRACT Currently and for over 25 years now, the Method of "Prediction of Subsurface Drainage Main Directions in Anisotropic Massifs" has been successfully used in various karstic terrains such as: limestone, gypsum, quartzite, slate, granite and criokarst (karst in the glacier ice). However, until now, it had never been validated in volcanic terrains where is focused this thesis entitled Validation of such Method in the Anaga Massif Volcanic Terrains, in Tenerife. This mathematical method is essentially "predict and quantify" the main directions of groundwater turbulent drainage in anisotropic massifs. This is based on field study of tectoglifes or permanent deformation of the massif, printed on the rocks as a result of previous tectonic stresses. Therefore it is possible to use in anisotropic rock mathematical model instead of the isotropic laminar flow mathematical models defined by Darcy (1856). The Anaga Massif have been chosen to validate the method, because it presents the greatest anisotropy in Tenerife Island, shaped by a large and extensive network of dikes of various shapes and sizes that belong to the family of NE structural axis dikes of the island. An exhaustive field work was carried out in such massif, with 331 collected data (basaltic dikes) and the method was applied, in order to define the preferred direction of the underground drainage in the Anaga massif. This obtained prediction was contrasted to the reality of the drainage in the area, known thanks to the existence of five galleries located in the work area, from which information about their springs was available. In all cases it was possible to demonstrate the fitness of the prediction obtained by the method. It had been demonstrated that a greater geological or geotectonic chaos enhances a better prediction of the method, that predicted very satisfactory results for those water galleries which directions were perpendicular to that predicted by the Method as a drainage preferential direction, for the zone where was located each gallery. No doubt that the validation of the use of the Method in the volcanic terrain of Tenerife, means a considerable change in the world of hydrogeology in this type of terrain. It is the only mathematical tool available to predict a successful drilling direction in advancing water galleries, what also leads to major savings in execution of the drilling works. Furthermore, the method leaves an important legacy to the Canary Islands society, because it opens many lines of work and research to generate a significant development in the world of volcanic hydrogeology.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este informe los autores describen el flujo de los plásticos reforzados, con el que se elaboran en la industria abundantes piezas, que si bien no resultan en general espectaculares ni por su precio, ni por su tamaño, ni por el despliegue de medios tecnológicos asociados, constituyen un elementos básico en nuestro contorno cotidiano, y sin las cuales la vida diaria sería, cuanto menos, completamente diferente. Este trabajo, desarrollado por un acreditado inteniero francés y un joven ingeniero español (Francisco Chinesta y Arnaud Poitou), pretende ser una aproximación a la modelización global de aquellos tipos de procesos de fabricación.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se han realizado diferentes ensayos con el objetivo de analizar la problemática de los impactos manzana-manzana en las líneas de manipulación de fruta. Para ello se ha utilizado una línea experimental de manipulación de frutas en la que se han evaluado las características de estos impactos en función de diferentes factores: características del producto, flujo de producto en línea y características de los puntos de transferencia entre elementos de la línea. Una vez conocida la problemática de los impactos fruto-fruto, se ha desarrollado un elemento decelerador accionado para minimizar dichos impactos en una transferencia en 90° entre dos cintas transportadoras. El elemento decelerador ha sido evaluado comparando su eficacia con otros sistemas. En los diferentes ensayos se han utilizado frutos electrónicos IS 100 y manzanas "Golden".

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los filtros que forman los equipos de protección respiratoria están constituidos por una serie de capas formadas por fibras entrecruzadas, orientadas al azar, que reducen los espacios libres en la dirección del flujo de aire inspiratorio. La estructura tridimensional formada permite orificios mayores que las partículas a retener con el fin de no provocar una excesiva caída de presión. Cuando los orificios se reducen significativamente o se obstruyen por la deposición excesiva de partículas carbón, se crea una elevada resistencia al paso del aire que provoca la incomodidad del filtro, disminuyendo su permeabilidad. Cuanto mayor sea el número de capas filtrantes (espesor) mayor es la eficacia del filtro pero también es mayor la resistencia que ofrece tanto a la respiración como a la eliminación del calor y la humedad generados en su interior.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La construcción de una red amplia de infraestructuras para una región supone un indudable enriquecimiento. En España, para lograr este objetivo y debido a una orografía considerablemente montañosa, ha sido necesario potenciar la creación de túneles de carretera y ferrocarril aunque solo recientemente se ha comenzado a prestar atención a aspectos considerados secundarios como la seguridad, el mantenimiento o la explotación. En España, afortunadamente, la eterna lucha entre coste y seguridad va decantándose a favor de la segunda en gran parte debido a la presión de la opinión pública, no siempre objetiva ni razonable. El procedimiento habitual para la elección del sistema de ventilación pasa por la definición y posterior estudio de los distintos casos que pueden presentarse en el túnel. En este artículo se hacer referencia a los sistemas de ventilación principal, como son ventilación longitudinal natural, ventilación longitudinal natural con pozo, ventilación longitudinal con ventiladores en pozo, ventilación longitudinal con ventiladores de chorro , ventilación longitudinal en pozo y aceleradores, ventilación semi-transversal con inyección de aire fresco, ventilación transversal total, ventilación pseudo-transversal y sistemas mixtos. Existen otros conjuntos de ventilación a los que se presta a veces menos atención que a los anteriores aunque son fundamentales en el funcionamiento del túnel especialmente para los casos de incendio, como son refugios, nichos y locales técnicos. El ventilador es una turbomáquina que absorbe energía mecánica en el eje y la emplea en transportar gases a unas presiones suficientemente bajas para poder considerarlo incompresible. Los ventiladores se clasifican en función de la dirección del flujo en el rodete como axiales si el flujo sale en la dirección del eje de giro del rodete o centrífugo(de flujo radial) si el flujo sale en dirección normal a aquél. Dentro de los ventiladores axiales existen dos configuraciones diferentes empleadas habitualmente en túneles, los ventiladores axiales de gran potencia y los ventiladores de chorro. El sistema de ventilación depende en gran medida del seguimiento de los parámetros que intervienen en su control para poder intervenir de forma correctiva y preventiva para asegurar el cumplimiento de los niveles de calidad del aire exigidos. Para ello se emplea un numeroso tipo de equipos que permiten monitorizar el comportamiento del túnel. El artículo concluye haciendo referencia a equipamientos de seguridad.