545 resultados para moldes de inyección
Resumo:
Ante la perspectiva del Cambio Global propiciado por la acción antrópica debido al vertido de CO2 a la atmósfera desde el inicio de la Era Industrial, el Protocolo de Kyoto (firmado en 1997), seguido de las tímidas propuestas derivadas de la Reunión de Copenhague, más acciones derivadas de la reunión de los ministros de medio ambiente en Sevilla, la acción de captura y secuestro del CO2inevitablemente generado por la industria pesada y la generación de energía ha ido adquiriendo un progresivo interés al estar la Península Ibérica constituida en más del 50% de su superficie por rocas sedimentarias susceptibles de constituir almacenamientos subterráneos. El objetivo fundamental de este proyecto fin de carrara, es determinar los cambios que se producen en los compuestos orgánicos de las posibles rocas almacén y sello de la zona de Páramos de la Lora en Burgos, (donde se pretende realizar el secuestro de CO2) después de la inyección de CO2 supercrítico en experimentos. Fundamentalmente, el estudio se centra en la familia de alcanos, cetonas y ácidos. Para ello se realizará una caracterización geoquímica orgánica de los materiales antes y después de haber inyectado CO2 a altas presiones (100 bar – 120 bar) y en las condiciones térmicas existentes a la profundidad del almacén (40º C - 50º C) durante períodos de tiempo variables, para lo que se empleará cámara hiperbárica del Grupo de Estudios Ambientales. Abstract In view Global Change led by the anthropic action due to the discharge of CO2 into the atmosphere since the start of the Indistrual Era, the Protocolo de Kyoto (signed in 1997), followed by the timid proposals arising from the Copenhague Meeting, more action arising of the meeting of the environment minister in Sevilla, the action of captura and sequestration of CO2 inevitably generated by heavy industry and the energy generation has acquired a progressive interest because de Península Ibérica is formed in more than fifty percent of the surface by sedimentary rock susceptible of provide underground storage. The objetive of this Project is determining the changes produced in organics compounds of potential reservoir rocks and seal rocks in Páramos de la Lora in Burgos, after injection supercritical CO2 in experiment. Fundamentally, the study focuses in the alcanos, cetonas and ácidos family. For this, a geochemical characterizacion will be performed in the materials before and after injection of high pressure CO2 (100bar-120bar) and in the existing termal conditions in the depth of the warehouse (40º C-50º C) for varying period of time, for what is used hyperbaric chamber environmental studies group.
Resumo:
La optimización de parámetros tales como el consumo de potencia, la cantidad de recursos lógicos empleados o la ocupación de memoria ha sido siempre una de las preocupaciones principales a la hora de diseñar sistemas embebidos. Esto es debido a que se trata de sistemas dotados de una cantidad de recursos limitados, y que han sido tradicionalmente empleados para un propósito específico, que permanece invariable a lo largo de toda la vida útil del sistema. Sin embargo, el uso de sistemas embebidos se ha extendido a áreas de aplicación fuera de su ámbito tradicional, caracterizadas por una mayor demanda computacional. Así, por ejemplo, algunos de estos sistemas deben llevar a cabo un intenso procesado de señales multimedia o la transmisión de datos mediante sistemas de comunicaciones de alta capacidad. Por otra parte, las condiciones de operación del sistema pueden variar en tiempo real. Esto sucede, por ejemplo, si su funcionamiento depende de datos medidos por el propio sistema o recibidos a través de la red, de las demandas del usuario en cada momento, o de condiciones internas del propio dispositivo, tales como la duración de la batería. Como consecuencia de la existencia de requisitos de operación dinámicos es necesario ir hacia una gestión dinámica de los recursos del sistema. Si bien el software es inherentemente flexible, no ofrece una potencia computacional tan alta como el hardware. Por lo tanto, el hardware reconfigurable aparece como una solución adecuada para tratar con mayor flexibilidad los requisitos variables dinámicamente en sistemas con alta demanda computacional. La flexibilidad y adaptabilidad del hardware requieren de dispositivos reconfigurables que permitan la modificación de su funcionalidad bajo demanda. En esta tesis se han seleccionado las FPGAs (Field Programmable Gate Arrays) como los dispositivos más apropiados, hoy en día, para implementar sistemas basados en hardware reconfigurable De entre todas las posibilidades existentes para explotar la capacidad de reconfiguración de las FPGAs comerciales, se ha seleccionado la reconfiguración dinámica y parcial. Esta técnica consiste en substituir una parte de la lógica del dispositivo, mientras el resto continúa en funcionamiento. La capacidad de reconfiguración dinámica y parcial de las FPGAs es empleada en esta tesis para tratar con los requisitos de flexibilidad y de capacidad computacional que demandan los dispositivos embebidos. La propuesta principal de esta tesis doctoral es el uso de arquitecturas de procesamiento escalables espacialmente, que son capaces de adaptar su funcionalidad y rendimiento en tiempo real, estableciendo un compromiso entre dichos parámetros y la cantidad de lógica que ocupan en el dispositivo. A esto nos referimos con arquitecturas con huellas escalables. En particular, se propone el uso de arquitecturas altamente paralelas, modulares, regulares y con una alta localidad en sus comunicaciones, para este propósito. El tamaño de dichas arquitecturas puede ser modificado mediante la adición o eliminación de algunos de los módulos que las componen, tanto en una dimensión como en dos. Esta estrategia permite implementar soluciones escalables, sin tener que contar con una versión de las mismas para cada uno de los tamaños posibles de la arquitectura. De esta manera se reduce significativamente el tiempo necesario para modificar su tamaño, así como la cantidad de memoria necesaria para almacenar todos los archivos de configuración. En lugar de proponer arquitecturas para aplicaciones específicas, se ha optado por patrones de procesamiento genéricos, que pueden ser ajustados para solucionar distintos problemas en el estado del arte. A este respecto, se proponen patrones basados en esquemas sistólicos, así como de tipo wavefront. Con el objeto de poder ofrecer una solución integral, se han tratado otros aspectos relacionados con el diseño y el funcionamiento de las arquitecturas, tales como el control del proceso de reconfiguración de la FPGA, la integración de las arquitecturas en el resto del sistema, así como las técnicas necesarias para su implementación. Por lo que respecta a la implementación, se han tratado distintos aspectos de bajo nivel dependientes del dispositivo. Algunas de las propuestas realizadas a este respecto en la presente tesis doctoral son un router que es capaz de garantizar el correcto rutado de los módulos reconfigurables dentro del área destinada para ellos, así como una estrategia para la comunicación entre módulos que no introduce ningún retardo ni necesita emplear recursos configurables del dispositivo. El flujo de diseño propuesto se ha automatizado mediante una herramienta denominada DREAMS. La herramienta se encarga de la modificación de las netlists correspondientes a cada uno de los módulos reconfigurables del sistema, y que han sido generadas previamente mediante herramientas comerciales. Por lo tanto, el flujo propuesto se entiende como una etapa de post-procesamiento, que adapta esas netlists a los requisitos de la reconfiguración dinámica y parcial. Dicha modificación la lleva a cabo la herramienta de una forma completamente automática, por lo que la productividad del proceso de diseño aumenta de forma evidente. Para facilitar dicho proceso, se ha dotado a la herramienta de una interfaz gráfica. El flujo de diseño propuesto, y la herramienta que lo soporta, tienen características específicas para abordar el diseño de las arquitecturas dinámicamente escalables propuestas en esta tesis. Entre ellas está el soporte para el realojamiento de módulos reconfigurables en posiciones del dispositivo distintas a donde el módulo es originalmente implementado, así como la generación de estructuras de comunicación compatibles con la simetría de la arquitectura. El router has sido empleado también en esta tesis para obtener un rutado simétrico entre nets equivalentes. Dicha posibilidad ha sido explotada para aumentar la protección de circuitos con altos requisitos de seguridad, frente a ataques de canal lateral, mediante la implantación de lógica complementaria con rutado idéntico. Para controlar el proceso de reconfiguración de la FPGA, se propone en esta tesis un motor de reconfiguración especialmente adaptado a los requisitos de las arquitecturas dinámicamente escalables. Además de controlar el puerto de reconfiguración, el motor de reconfiguración ha sido dotado de la capacidad de realojar módulos reconfigurables en posiciones arbitrarias del dispositivo, en tiempo real. De esta forma, basta con generar un único bitstream por cada módulo reconfigurable del sistema, independientemente de la posición donde va a ser finalmente reconfigurado. La estrategia seguida para implementar el proceso de realojamiento de módulos es diferente de las propuestas existentes en el estado del arte, pues consiste en la composición de los archivos de configuración en tiempo real. De esta forma se consigue aumentar la velocidad del proceso, mientras que se reduce la longitud de los archivos de configuración parciales a almacenar en el sistema. El motor de reconfiguración soporta módulos reconfigurables con una altura menor que la altura de una región de reloj del dispositivo. Internamente, el motor se encarga de la combinación de los frames que describen el nuevo módulo, con la configuración existente en el dispositivo previamente. El escalado de las arquitecturas de procesamiento propuestas en esta tesis también se puede beneficiar de este mecanismo. Se ha incorporado también un acceso directo a una memoria externa donde se pueden almacenar bitstreams parciales. Para acelerar el proceso de reconfiguración se ha hecho funcionar el ICAP por encima de la máxima frecuencia de reloj aconsejada por el fabricante. Así, en el caso de Virtex-5, aunque la máxima frecuencia del reloj deberían ser 100 MHz, se ha conseguido hacer funcionar el puerto de reconfiguración a frecuencias de operación de hasta 250 MHz, incluyendo el proceso de realojamiento en tiempo real. Se ha previsto la posibilidad de portar el motor de reconfiguración a futuras familias de FPGAs. Por otro lado, el motor de reconfiguración se puede emplear para inyectar fallos en el propio dispositivo hardware, y así ser capaces de evaluar la tolerancia ante los mismos que ofrecen las arquitecturas reconfigurables. Los fallos son emulados mediante la generación de archivos de configuración a los que intencionadamente se les ha introducido un error, de forma que se modifica su funcionalidad. Con el objetivo de comprobar la validez y los beneficios de las arquitecturas propuestas en esta tesis, se han seguido dos líneas principales de aplicación. En primer lugar, se propone su uso como parte de una plataforma adaptativa basada en hardware evolutivo, con capacidad de escalabilidad, adaptabilidad y recuperación ante fallos. En segundo lugar, se ha desarrollado un deblocking filter escalable, adaptado a la codificación de vídeo escalable, como ejemplo de aplicación de las arquitecturas de tipo wavefront propuestas. El hardware evolutivo consiste en el uso de algoritmos evolutivos para diseñar hardware de forma autónoma, explotando la flexibilidad que ofrecen los dispositivos reconfigurables. En este caso, los elementos de procesamiento que componen la arquitectura son seleccionados de una biblioteca de elementos presintetizados, de acuerdo con las decisiones tomadas por el algoritmo evolutivo, en lugar de definir la configuración de las mismas en tiempo de diseño. De esta manera, la configuración del core puede cambiar cuando lo hacen las condiciones del entorno, en tiempo real, por lo que se consigue un control autónomo del proceso de reconfiguración dinámico. Así, el sistema es capaz de optimizar, de forma autónoma, su propia configuración. El hardware evolutivo tiene una capacidad inherente de auto-reparación. Se ha probado que las arquitecturas evolutivas propuestas en esta tesis son tolerantes ante fallos, tanto transitorios, como permanentes y acumulativos. La plataforma evolutiva se ha empleado para implementar filtros de eliminación de ruido. La escalabilidad también ha sido aprovechada en esta aplicación. Las arquitecturas evolutivas escalables permiten la adaptación autónoma de los cores de procesamiento ante fluctuaciones en la cantidad de recursos disponibles en el sistema. Por lo tanto, constituyen un ejemplo de escalabilidad dinámica para conseguir un determinado nivel de calidad, que puede variar en tiempo real. Se han propuesto dos variantes de sistemas escalables evolutivos. El primero consiste en un único core de procesamiento evolutivo, mientras que el segundo está formado por un número variable de arrays de procesamiento. La codificación de vídeo escalable, a diferencia de los codecs no escalables, permite la decodificación de secuencias de vídeo con diferentes niveles de calidad, de resolución temporal o de resolución espacial, descartando la información no deseada. Existen distintos algoritmos que soportan esta característica. En particular, se va a emplear el estándar Scalable Video Coding (SVC), que ha sido propuesto como una extensión de H.264/AVC, ya que este último es ampliamente utilizado tanto en la industria, como a nivel de investigación. Para poder explotar toda la flexibilidad que ofrece el estándar, hay que permitir la adaptación de las características del decodificador en tiempo real. El uso de las arquitecturas dinámicamente escalables es propuesto en esta tesis con este objetivo. El deblocking filter es un algoritmo que tiene como objetivo la mejora de la percepción visual de la imagen reconstruida, mediante el suavizado de los "artefactos" de bloque generados en el lazo del codificador. Se trata de una de las tareas más intensivas en procesamiento de datos de H.264/AVC y de SVC, y además, su carga computacional es altamente dependiente del nivel de escalabilidad seleccionado en el decodificador. Por lo tanto, el deblocking filter ha sido seleccionado como prueba de concepto de la aplicación de las arquitecturas dinámicamente escalables para la compresión de video. La arquitectura propuesta permite añadir o eliminar unidades de computación, siguiendo un esquema de tipo wavefront. La arquitectura ha sido propuesta conjuntamente con un esquema de procesamiento en paralelo del deblocking filter a nivel de macrobloque, de tal forma que cuando se varía del tamaño de la arquitectura, el orden de filtrado de los macrobloques varia de la misma manera. El patrón propuesto se basa en la división del procesamiento de cada macrobloque en dos etapas independientes, que se corresponden con el filtrado horizontal y vertical de los bloques dentro del macrobloque. Las principales contribuciones originales de esta tesis son las siguientes: - El uso de arquitecturas altamente regulares, modulares, paralelas y con una intensa localidad en sus comunicaciones, para implementar cores de procesamiento dinámicamente reconfigurables. - El uso de arquitecturas bidimensionales, en forma de malla, para construir arquitecturas dinámicamente escalables, con una huella escalable. De esta forma, las arquitecturas permiten establecer un compromiso entre el área que ocupan en el dispositivo, y las prestaciones que ofrecen en cada momento. Se proponen plantillas de procesamiento genéricas, de tipo sistólico o wavefront, que pueden ser adaptadas a distintos problemas de procesamiento. - Un flujo de diseño y una herramienta que lo soporta, para el diseño de sistemas reconfigurables dinámicamente, centradas en el diseño de las arquitecturas altamente paralelas, modulares y regulares propuestas en esta tesis. - Un esquema de comunicaciones entre módulos reconfigurables que no introduce ningún retardo ni requiere el uso de recursos lógicos propios. - Un router flexible, capaz de resolver los conflictos de rutado asociados con el diseño de sistemas reconfigurables dinámicamente. - Un algoritmo de optimización para sistemas formados por múltiples cores escalables que optimice, mediante un algoritmo genético, los parámetros de dicho sistema. Se basa en un modelo conocido como el problema de la mochila. - Un motor de reconfiguración adaptado a los requisitos de las arquitecturas altamente regulares y modulares. Combina una alta velocidad de reconfiguración, con la capacidad de realojar módulos en tiempo real, incluyendo el soporte para la reconfiguración de regiones que ocupan menos que una región de reloj, así como la réplica de un módulo reconfigurable en múltiples posiciones del dispositivo. - Un mecanismo de inyección de fallos que, empleando el motor de reconfiguración del sistema, permite evaluar los efectos de fallos permanentes y transitorios en arquitecturas reconfigurables. - La demostración de las posibilidades de las arquitecturas propuestas en esta tesis para la implementación de sistemas de hardware evolutivos, con una alta capacidad de procesamiento de datos. - La implementación de sistemas de hardware evolutivo escalables, que son capaces de tratar con la fluctuación de la cantidad de recursos disponibles en el sistema, de una forma autónoma. - Una estrategia de procesamiento en paralelo para el deblocking filter compatible con los estándares H.264/AVC y SVC que reduce el número de ciclos de macrobloque necesarios para procesar un frame de video. - Una arquitectura dinámicamente escalable que permite la implementación de un nuevo deblocking filter, totalmente compatible con los estándares H.264/AVC y SVC, que explota el paralelismo a nivel de macrobloque. El presente documento se organiza en siete capítulos. En el primero se ofrece una introducción al marco tecnológico de esta tesis, especialmente centrado en la reconfiguración dinámica y parcial de FPGAs. También se motiva la necesidad de las arquitecturas dinámicamente escalables propuestas en esta tesis. En el capítulo 2 se describen las arquitecturas dinámicamente escalables. Dicha descripción incluye la mayor parte de las aportaciones a nivel arquitectural realizadas en esta tesis. Por su parte, el flujo de diseño adaptado a dichas arquitecturas se propone en el capítulo 3. El motor de reconfiguración se propone en el 4, mientras que el uso de dichas arquitecturas para implementar sistemas de hardware evolutivo se aborda en el 5. El deblocking filter escalable se describe en el 6, mientras que las conclusiones finales de esta tesis, así como la descripción del trabajo futuro, son abordadas en el capítulo 7. ABSTRACT The optimization of system parameters, such as power dissipation, the amount of hardware resources and the memory footprint, has been always a main concern when dealing with the design of resource-constrained embedded systems. This situation is even more demanding nowadays. Embedded systems cannot anymore be considered only as specific-purpose computers, designed for a particular functionality that remains unchanged during their lifetime. Differently, embedded systems are now required to deal with more demanding and complex functions, such as multimedia data processing and high-throughput connectivity. In addition, system operation may depend on external data, the user requirements or internal variables of the system, such as the battery life-time. All these conditions may vary at run-time, leading to adaptive scenarios. As a consequence of both the growing computational complexity and the existence of dynamic requirements, dynamic resource management techniques for embedded systems are needed. Software is inherently flexible, but it cannot meet the computing power offered by hardware solutions. Therefore, reconfigurable hardware emerges as a suitable technology to deal with the run-time variable requirements of complex embedded systems. Adaptive hardware requires the use of reconfigurable devices, where its functionality can be modified on demand. In this thesis, Field Programmable Gate Arrays (FPGAs) have been selected as the most appropriate commercial technology existing nowadays to implement adaptive hardware systems. There are different ways of exploiting reconfigurability in reconfigurable devices. Among them is dynamic and partial reconfiguration. This is a technique which consists in substituting part of the FPGA logic on demand, while the rest of the device continues working. The strategy followed in this thesis is to exploit the dynamic and partial reconfiguration of commercial FPGAs to deal with the flexibility and complexity demands of state-of-the-art embedded systems. The proposal of this thesis to deal with run-time variable system conditions is the use of spatially scalable processing hardware IP cores, which are able to adapt their functionality or performance at run-time, trading them off with the amount of logic resources they occupy in the device. This is referred to as a scalable footprint in the context of this thesis. The distinguishing characteristic of the proposed cores is that they rely on highly parallel, modular and regular architectures, arranged in one or two dimensions. These architectures can be scaled by means of the addition or removal of the composing blocks. This strategy avoids implementing a full version of the core for each possible size, with the corresponding benefits in terms of scaling and adaptation time, as well as bitstream storage memory requirements. Instead of providing specific-purpose architectures, generic architectural templates, which can be tuned to solve different problems, are proposed in this thesis. Architectures following both systolic and wavefront templates have been selected. Together with the proposed scalable architectural templates, other issues needed to ensure the proper design and operation of the scalable cores, such as the device reconfiguration control, the run-time management of the architecture and the implementation techniques have been also addressed in this thesis. With regard to the implementation of dynamically reconfigurable architectures, device dependent low-level details are addressed. Some of the aspects covered in this thesis are the area constrained routing for reconfigurable modules, or an inter-module communication strategy which does not introduce either extra delay or logic overhead. The system implementation, from the hardware description to the device configuration bitstream, has been fully automated by modifying the netlists corresponding to each of the system modules, which are previously generated using the vendor tools. This modification is therefore envisaged as a post-processing step. Based on these implementation proposals, a design tool called DREAMS (Dynamically Reconfigurable Embedded and Modular Systems) has been created, including a graphic user interface. The tool has specific features to cope with modular and regular architectures, including the support for module relocation and the inter-module communications scheme based on the symmetry of the architecture. The core of the tool is a custom router, which has been also exploited in this thesis to obtain symmetric routed nets, with the aim of enhancing the protection of critical reconfigurable circuits against side channel attacks. This is achieved by duplicating the logic with an exactly equal routing. In order to control the reconfiguration process of the FPGA, a Reconfiguration Engine suited to the specific requirements set by the proposed architectures was also proposed. Therefore, in addition to controlling the reconfiguration port, the Reconfiguration Engine has been enhanced with the online relocation ability, which allows employing a unique configuration bitstream for all the positions where the module may be placed in the device. Differently to the existing relocating solutions, which are based on bitstream parsers, the proposed approach is based on the online composition of bitstreams. This strategy allows increasing the speed of the process, while the length of partial bitstreams is also reduced. The height of the reconfigurable modules can be lower than the height of a clock region. The Reconfiguration Engine manages the merging process of the new and the existing configuration frames within each clock region. The process of scaling up and down the hardware cores also benefits from this technique. A direct link to an external memory where partial bitstreams can be stored has been also implemented. In order to accelerate the reconfiguration process, the ICAP has been overclocked over the speed reported by the manufacturer. In the case of Virtex-5, even though the maximum frequency of the ICAP is reported to be 100 MHz, valid operations at 250 MHz have been achieved, including the online relocation process. Portability of the reconfiguration solution to today's and probably, future FPGAs, has been also considered. The reconfiguration engine can be also used to inject faults in real hardware devices, and this way being able to evaluate the fault tolerance offered by the reconfigurable architectures. Faults are emulated by introducing partial bitstreams intentionally modified to provide erroneous functionality. To prove the validity and the benefits offered by the proposed architectures, two demonstration application lines have been envisaged. First, scalable architectures have been employed to develop an evolvable hardware platform with adaptability, fault tolerance and scalability properties. Second, they have been used to implement a scalable deblocking filter suited to scalable video coding. Evolvable Hardware is the use of evolutionary algorithms to design hardware in an autonomous way, exploiting the flexibility offered by reconfigurable devices. In this case, processing elements composing the architecture are selected from a presynthesized library of processing elements, according to the decisions taken by the algorithm, instead of being decided at design time. This way, the configuration of the array may change as run-time environmental conditions do, achieving autonomous control of the dynamic reconfiguration process. Thus, the self-optimization property is added to the native self-configurability of the dynamically scalable architectures. In addition, evolvable hardware adaptability inherently offers self-healing features. The proposal has proved to be self-tolerant, since it is able to self-recover from both transient and cumulative permanent faults. The proposed evolvable architecture has been used to implement noise removal image filters. Scalability has been also exploited in this application. Scalable evolvable hardware architectures allow the autonomous adaptation of the processing cores to a fluctuating amount of resources available in the system. Thus, it constitutes an example of the dynamic quality scalability tackled in this thesis. Two variants have been proposed. The first one consists in a single dynamically scalable evolvable core, and the second one contains a variable number of processing cores. Scalable video is a flexible approach for video compression, which offers scalability at different levels. Differently to non-scalable codecs, a scalable video bitstream can be decoded with different levels of quality, spatial or temporal resolutions, by discarding the undesired information. The interest in this technology has been fostered by the development of the Scalable Video Coding (SVC) standard, as an extension of H.264/AVC. In order to exploit all the flexibility offered by the standard, it is necessary to adapt the characteristics of the decoder to the requirements of each client during run-time. The use of dynamically scalable architectures is proposed in this thesis with this aim. The deblocking filter algorithm is the responsible of improving the visual perception of a reconstructed image, by smoothing blocking artifacts generated in the encoding loop. This is one of the most computationally intensive tasks of the standard, and furthermore, it is highly dependent on the selected scalability level in the decoder. Therefore, the deblocking filter has been selected as a proof of concept of the implementation of dynamically scalable architectures for video compression. The proposed architecture allows the run-time addition or removal of computational units working in parallel to change its level of parallelism, following a wavefront computational pattern. Scalable architecture is offered together with a scalable parallelization strategy at the macroblock level, such that when the size of the architecture changes, the macroblock filtering order is modified accordingly. The proposed pattern is based on the division of the macroblock processing into two independent stages, corresponding to the horizontal and vertical filtering of the blocks within the macroblock. The main contributions of this thesis are: - The use of highly parallel, modular, regular and local architectures to implement dynamically reconfigurable processing IP cores, for data intensive applications with flexibility requirements. - The use of two-dimensional mesh-type arrays as architectural templates to build dynamically reconfigurable IP cores, with a scalable footprint. The proposal consists in generic architectural templates, which can be tuned to solve different computational problems. •A design flow and a tool targeting the design of DPR systems, focused on highly parallel, modular and local architectures. - An inter-module communication strategy, which does not introduce delay or area overhead, named Virtual Borders. - A custom and flexible router to solve the routing conflicts as well as the inter-module communication problems, appearing during the design of DPR systems. - An algorithm addressing the optimization of systems composed of multiple scalable cores, which size can be decided individually, to optimize the system parameters. It is based on a model known as the multi-dimensional multi-choice Knapsack problem. - A reconfiguration engine tailored to the requirements of highly regular and modular architectures. It combines a high reconfiguration throughput with run-time module relocation capabilities, including the support for sub-clock reconfigurable regions and the replication in multiple positions. - A fault injection mechanism which takes advantage of the system reconfiguration engine, as well as the modularity of the proposed reconfigurable architectures, to evaluate the effects of transient and permanent faults in these architectures. - The demonstration of the possibilities of the architectures proposed in this thesis to implement evolvable hardware systems, while keeping a high processing throughput. - The implementation of scalable evolvable hardware systems, which are able to adapt to the fluctuation of the amount of resources available in the system, in an autonomous way. - A parallelization strategy for the H.264/AVC and SVC deblocking filter, which reduces the number of macroblock cycles needed to process the whole frame. - A dynamically scalable architecture that permits the implementation of a novel deblocking filter module, fully compliant with the H.264/AVC and SVC standards, which exploits the macroblock level parallelism of the algorithm. This document is organized in seven chapters. In the first one, an introduction to the technology framework of this thesis, specially focused on dynamic and partial reconfiguration, is provided. The need for the dynamically scalable processing architectures proposed in this work is also motivated in this chapter. In chapter 2, dynamically scalable architectures are described. Description includes most of the architectural contributions of this work. The design flow tailored to the scalable architectures, together with the DREAMs tool provided to implement them, are described in chapter 3. The reconfiguration engine is described in chapter 4. The use of the proposed scalable archtieectures to implement evolvable hardware systems is described in chapter 5, while the scalable deblocking filter is described in chapter 6. Final conclusions of this thesis, and the description of future work, are addressed in chapter 7.
Resumo:
La óptica anidólica es una rama de la óptica cuyo desarrollo comenzó a mediados de la década de 1960. Este relativamente nuevo campo de la óptica se centra en la transferencia eficiente de la luz, algo necesario en muchas aplicaciones, entre las que destacamos los concentradores solares y los sistemas de iluminación. Las soluciones de la óptica clásica a los problemas de la transferencia de energía de la luz sólo son adecuadas cuando los rayos de luz son paraxiales. La condición paraxial no se cumple en la mayoría de las aplicaciones para concentración e iluminación. Esta tesis contiene varios diseños free-form (aquellos que no presentan ninguna simetría, ni de rotación ni lineal) cuyas aplicaciones van destinadas a estos dos campos. El término nonimaging viene del hecho de que estos sistemas ópticos no necesitan formar una imagen del objeto, aunque no formar la imagen no es una condición necesaria. Otra palabra que se utiliza a veces en lugar de nonimaging es la palabra anidólico, viene del griego "an+eidolon" y tiene el mismo significado. La mayoría de los sistemas ópticos diseñados para aplicaciones anidólicas no presentan ninguna simetría, es decir, son free-form (anamórficos). Los sistemas ópticos free-form están siendo especialmente relevantes durante los últimos años gracias al desarrollo de las herramientas para su fabricación como máquinas de moldeo por inyección y el mecanizado multieje. Sin embargo, solo recientemente se han desarrollado técnicas de diseño anidólicas capaces de cumplir con estos grados de libertad. En aplicaciones de iluminación el método SMS3D permite diseñar dos superficies free-form para controlar las fuentes de luz extensas. En los casos en que se requiere una elevada asimetría de la fuente, el objeto o las restricciones volumétricos, las superficies free-form permiten obtener soluciones de mayor eficiencia, o disponer de menos elementos en comparación con las soluciones de simetría de rotación, dado que las superficies free-form tienen más grados de libertad y pueden realizar múltiples funciones debido a su naturaleza anamórfica. Los concentradores anidólicos son muy adecuados para la captación de energía solar, ya que el objetivo no es la reproducción de una imagen exacta del sol, sino sencillamente la captura de su energía. En este momento, el campo de la concentración fotovoltaica (CPV) tiende hacia sistemas de alta concentración con el fin de compensar el gasto de las células solares multi-unión (MJ) utilizadas como receptores, reduciendo su área. El interés en el uso de células MJ radica en su alta eficiencia de conversión. Para obtener sistemas competitivos en aplicaciones terrestres se recurre a sistemas fotovoltaicos de alta concentración (HCPV), con factores de concentración geométrica por encima de 500x. Estos sistemas se componen de dos (o más) elementos ópticos (espejos y/o lentes). En los sistemas presentados a lo largo de este trabajo se presentan ejemplos de concentradores HCPV con elementos reflexivos como etapa primaria, así como concentradores con elementos refractivos (lente de Fresnel). Con la necesidad de aumentar la eficiencia de los sistemas HCPV reales y con el fin de proporcionar la división más eficiente del espectro solar, células conteniendo cuatro o más uniones (con un potencial de alcanzar eficiencias de más del 45% a una concentración de cientos de soles) se exploran hoy en día. En esta tesis se presenta una de las posibles arquitecturas de división del espectro (spectrum-splitting en la literatura anglosajona) que utilizan células de concentración comercial. Otro campo de aplicación de la óptica nonimaging es la iluminación, donde es necesario proporcionar un patrón de distribución de la iluminación específico. La iluminación de estado sólido (SSL), basada en la electroluminiscencia de materiales semiconductores, está proporcionando fuentes de luz para aplicaciones de iluminación general. En la última década, los diodos emisores de luz (LED) de alto brillo han comenzado a reemplazar a las fuentes de luz convencionales debido a la superioridad en la calidad de la luz emitida, elevado tiempo de vida, compacidad y ahorro de energía. Los colimadores utilizados con LEDs deben cumplir con requisitos tales como tener una alta eficiencia, un alto control del haz de luz, una mezcla de color espacial y una gran compacidad. Presentamos un colimador de luz free-form con microestructuras capaz de conseguir buena colimación y buena mezcla de colores con una fuente de LED RGGB. Una buena mezcla de luz es importante no sólo para simplificar el diseño óptico de la luminaria sino también para evitar hacer binning de los chips. La mezcla de luz óptica puede reducir los costes al evitar la modulación por ancho de pulso y otras soluciones electrónicas patentadas para regulación y ajuste de color. Esta tesis consta de cuatro capítulos. Los capítulos que contienen la obra original de esta tesis son precedidos por un capítulo introductorio donde se presentan los conceptos y definiciones básicas de la óptica geométrica y en el cual se engloba la óptica nonimaging. Contiene principios de la óptica no formadora de imagen junto con la descripción de sus problemas y métodos de diseño. Asimismo se describe el método de Superficies Múltiples Simultáneas (SMS), que destaca por su versatilidad y capacidad de controlar varios haces de rayos. Adicionalmente también se describe la integración Köhler y sus aplicaciones en el campo de la energía fotovoltaica. La concentración fotovoltaica y la iluminación de estado sólido son introducidas junto con la revisión de su estado actual. El Segundo y Tercer Capítulo contienen diseños ópticos avanzados con aplicación en la concentración solar principalmente, mientras que el Cuarto Capítulo describe el colimador free-form con surcos que presenta buena mezcla de colores para aplicaciones de iluminación. El Segundo Capítulo describe dos concentradores ópticos HCPV diseñados con el método SMS en tres dimensiones (SMS3D) que llevan a cabo integración Köhler en dos direcciones con el fin de proporcionar una distribución de irradiancia uniforme libre de aberraciones cromáticas sobre la célula solar. Uno de los diseños es el concentrador XXR free-form diseñado con el método SMS3D, donde el espejo primario (X) y la lente secundaria (R) se dividen en cuatro sectores simétricos y llevan a cabo la integración Köhler (proporcionando cuatro unidades del array Köhler), mientras que el espejo intermedio (X) presenta simetría rotacional. Otro concentrador HCPV presentado es el Fresnel-RXI (FRXI) con una lente de Fresnel funcionando como elemento primario (POE) y una lente RXI como elemento óptico secundario (SOE), que presenta configuración 4-fold con el fin de realizar la integración Köhler. Las lentes RXI son dispositivos nonimaging conocidos, pero su aplicación como elemento secundario es novedosa. Los concentradores XXR y FRXI Köhler son ejemplos académicos de muy alta concentración (más de 2,000x, mientras que los sistemas convencionales hoy en día no suelen llegar a 1,000x) preparados para las células solares N-unión (con N>3), que probablemente requerirán una mayor concentración y alta uniformidad espectral de irradiancia con el fin de obtener sistemas CPV terrestres eficientes y rentables. Ambos concentradores están diseñados maximizando funciones de mérito como la eficiencia óptica, el producto concentración-aceptancia (CAP) y la uniformidad de irradiancia sobre la célula libre de la aberración cromática (integración Köhler). El Tercer Capítulo presenta una arquitectura para la división del espectro solar basada en un módulo HCPV con alta concentración (500x) y ángulo de aceptancia alto (>1º) que tiene por objeto reducir ambas fuentes de pérdidas de las células triple unión (3J) comerciales: el uso eficiente del espectro solar y la luz reflejada de los contactos metálicos y de la superficie de semiconductor. El módulo para la división del espectro utiliza el espectro solar más eficiente debido a la combinación de una alta eficiencia de una célula de concentración 3J (GaInP/GaInAs/Ge) y una de contacto posterior (BPC) de concentración de silicio (Si), así como la técnica de confinamiento externo para la recuperación de la luz reflejada por la célula 3J con el fin de ser reabsorbida por la célula. En la arquitectura propuesta, la célula 3J opera con su ganancia de corriente optimizada (concentración geométrica de 500x), mientras que la célula de silicio trabaja cerca de su óptimo también (135x). El módulo de spectrum-splitting consta de una lente de Fresnel plana como POE y un concentrador RXI free-form como SOE con un filtro paso-banda integrado en él. Tanto POE como SOE realizan la integración Köhler para producir homogeneización de luz sobre la célula. El filtro paso banda envía los fotones IR en la banda 900-1,150nm a la célula de silicio. Hay varios aspectos prácticos de la arquitectura del módulo presentado que ayudan a reducir la complejidad de los sistemas spectrum-splitting (el filtro y el secundario forman una sola pieza sólida, ambas células son coplanarias simplificándose el cableado y la disipación de calor, etc.). Prototipos prueba-de-concepto han sido ensamblados y probados a fin de demostrar la fabricabilidad del filtro y su rendimiento cuando se combina con la técnica de reciclaje de luz externa. Los resultados obtenidos se ajustan bastante bien a los modelos y a las simulaciones e invitan al desarrollo de una versión más compleja de este prototipo en el futuro. Dos colimadores sólidos con surcos free-form se presentan en el Cuarto Capítulo. Ambos diseños ópticos están diseñados originalmente usando el método SMS3D. La segunda superficie ópticamente activa está diseñada a posteriori como una superficie con surcos. El diseño inicial de dos espejos (XX) está diseñado como prueba de concepto. En segundo lugar, el diseño RXI free-form es comparable con los colimadores RXI existentes. Se trata de un diseño muy compacto y eficiente que proporciona una muy buena mezcla de colores cuando funciona con LEDs RGB fuera del eje óptico como en los RGB LEDs convencionales. Estos dos diseños son dispositivos free-form diseñados con la intención de mejorar las propiedades de mezcla de colores de los dispositivos no aplanáticos RXI con simetría de revolución y la eficiencia de los aplanáticos, logrando una buena colimación y una buena mezcla de colores. La capacidad de mezcla de colores del dispositivo no-aplanático mejora añadiendo características de un aplanático a su homólogo simétrico sin pérdida de eficiencia. En el caso del diseño basado en RXI, su gran ventaja consiste en su menor coste de fabricación ya que el proceso de metalización puede evitarse. Aunque algunos de los componentes presentan formas muy complejas, los costes de fabricación son relativamente insensibles a la complejidad del molde, especialmente en el caso de la producción en masa (tales como inyección de plástico), ya que el coste del molde se reparte entre todas las piezas fabricadas. Por último, las últimas dos secciones son las conclusiones y futuras líneas de investigación. ABSTRACT Nonimaging optics is a branch of optics whose development began in the mid-1960s. This rather new field of optics focuses on the efficient light transfer necessary in many applications, among which we highlight solar concentrators and illumination systems. The classical optics solutions to the problems of light energy transfer are only appropriate when the light rays are paraxial. The paraxial condition is not met in most applications for the concentration and illumination. This thesis explores several free-form designs (with neither rotational nor linear symmetry) whose applications are intended to cover the above mentioned areas and more. The term nonimaging comes from the fact that these optical systems do not need to form an image of the object, although it is not a necessary condition not to form an image. Another word sometimes used instead of nonimaging is anidolic, and it comes from the Greek “an+eidolon” and has the same meaning. Most of the optical systems designed for nonimaging applications are without any symmetry, i.e. free-form. Free-form optical systems become especially relevant lately with the evolution of free-form tooling (injection molding machines, multi-axis machining techniques, etc.). Nevertheless, only recently there are nonimaging design techniques that are able to meet these degrees of freedom. In illumination applications, the SMS3D method allows designing two free-form surfaces to control very well extended sources. In cases when source, target or volumetric constrains have very asymmetric requirements free-form surfaces are offering solutions with higher efficiency or with fewer elements in comparison with rotationally symmetric solutions, as free-forms have more degrees of freedom and they can perform multiple functions due to their free-form nature. Anidolic concentrators are well suited for the collection of solar energy, because the goal is not the reproduction of an exact image of the sun, but instead the collection of its energy. At this time, Concentration Photovoltaics (CPV) field is turning to high concentration systems in order to compensate the expense of multi-junction (MJ) solar cells used as receivers by reducing its area. Interest in the use of MJ cells lies in their very high conversion efficiency. High Concentration Photovoltaic systems (HCPV) with geometric concentration of more than 500x are required in order to have competitive systems in terrestrial applications. These systems comprise two (or more) optical elements, mirrors and/or lenses. Systems presented in this thesis encompass both main types of HCPV architectures: concentrators with primary reflective element and concentrators with primary refractive element (Fresnel lens). Demand for the efficiency increase of the actual HCPV systems as well as feasible more efficient partitioning of the solar spectrum, leads to exploration of four or more junction solar cells or submodules. They have a potential of reaching over 45% efficiency at concentration of hundreds of suns. One possible architectures of spectrum splitting module using commercial concentration cells is presented in this thesis. Another field of application of nonimaging optics is illumination, where a specific illuminance distribution pattern is required. The Solid State Lighting (SSL) based on semiconductor electroluminescence provides light sources for general illumination applications. In the last decade high-brightness Light Emitting Diodes (LEDs) started replacing conventional light sources due to their superior output light quality, unsurpassed lifetime, compactness and energy savings. Collimators used with LEDs have to meet requirements like high efficiency, high beam control, color and position mixing, as well as a high compactness. We present a free-form collimator with microstructures that performs good collimation and good color mixing with RGGB LED source. Good light mixing is important not only for simplifying luminaire optical design but also for avoiding die binning. Optical light mixing may reduce costs by avoiding pulse-width modulation and other patented electronic solutions for dimming and color tuning. This thesis comprises four chapters. Chapters containing the original work of this thesis are preceded by the introductory chapter that addresses basic concepts and definitions of geometrical optics on which nonimaging is developed. It contains fundamentals of nonimaging optics together with the description of its design problems, principles and methods, and with the Simultaneous Multiple Surface (SMS) method standing out for its versatility and ability to control several bundles of rays. Köhler integration and its applications in the field of photovoltaics are described as well. CPV and SSL fields are introduced together with the review on their background and their current status. Chapter 2 and Chapter 3 contain advanced optical designs with primarily application in solar concentration; meanwhile Chapter 4 portrays the free-form V-groove collimator with good color mixing property for illumination application. Chapter 2 describes two HCPV optical concentrators designed with the SMS method in three dimensions (SMS3D). Both concentrators represent Köhler integrator arrays that provide uniform irradiance distribution free from chromatic aberrations on the solar cell. One of the systems is the XXR free-form concentrator designed with the SMS3D method. The primary mirror (X) of this concentrator and secondary lens (R) are divided in four symmetric sectors (folds) that perform Köhler integration; meanwhile the intermediate mirror (X) is rotationally symmetric. Second HCPV concentrator is the Fresnel-RXI (FRXI) with flat Fresnel lens as the Primary Optical Element (POE) and an RXI lens as the Secondary Optical Element (SOE). This architecture manifests 4-fold configuration for performing Köhler integration (4 array units), as well. The RXI lenses are well-known nonimaging devices, but their application as SOE is novel. Both XXR and FRXI Köhler HCPV concentrators are academic examples of very high concentration (more than 2,000x meanwhile conventional systems nowadays have up to 1,000x) prepared for the near future N-junction (N>3) solar cells. In order to have efficient and cost-effective terrestrial CPV systems, those cells will probably require higher concentrations and high spectral irradiance uniformity. Both concentrators are designed by maximizing merit functions: the optical efficiency, concentration-acceptance angle (CAP) and cell-irradiance uniformity free from chromatic aberrations (Köhler integration). Chapter 3 presents the spectrum splitting architecture based on a HCPV module with high concentration (500x) and high acceptance angle (>1º). This module aims to reduce both sources of losses of the actual commercial triple-junction (3J) solar cells with more efficient use of the solar spectrum and with recovering the light reflected from the 3J cells’ grid lines and semiconductor surface. The solar spectrum is used more efficiently due to the combination of a high efficiency 3J concentration cell (GaInP/GaInAs/Ge) and external Back-Point-Contact (BPC) concentration silicon (Si) cell. By employing external confinement techniques, the 3J cell’s reflections are recovered in order to be re-absorbed by the cell. In the proposed concentrator architecture, the 3J cell operates at its optimized current gain (at geometrical concentration of 500x), while the Si cell works near its optimum, as well (135x). The spectrum splitting module consists of a flat Fresnel lens (as the POE), and a free-form RXI-type concentrator with a band-pass filter embedded in it (as the SOE), both POE and SOE performing Köhler integration to produce light homogenization. The band-pass filter sends the IR photons in the 900-1,150nm band to the Si cell. There are several practical aspects of presented module architecture that help reducing the added complexity of the beam splitting systems: the filter and secondary are forming a single solid piece, both cells are coplanar so the heat management and wiring is simplified, etc. Two proof-of-concept prototypes are assembled and tested in order to prove filter manufacturability and performance, as well as the potential of external light recycling technique. Obtained measurement results agree quite well with models and simulations, and show an opened path to manufacturing of the Fresnel RXI-type secondary concentrator with spectrum splitting strategy. Two free-form solid V-groove collimators are presented in Chapter 4. Both free-form collimators are originally designed with the SMS3D method. The second mirrored optically active surface is converted in a grooved surface a posteriori. Initial two mirror (XX) design is presented as a proof-of-concept. Second, RXI free-form design is comparable with existing RXI collimators as it is a highly compact and a highly efficient design. It performs very good color mixing of the RGGB LED sources placed off-axis like in conventional RGB LEDs. Collimators described here improve color mixing property of the prior art rotationally symmetric no-aplanatic RXI devices, and the efficiency of the aplanatic ones, accomplishing both good collimation and good color mixing. Free-form V-groove collimators enhance the no-aplanatic device's blending capabilities by adding aplanatic features to its symmetric counterpart with no loss in efficiency. Big advantage of the RXI design is its potentially lower manufacturing cost, since the process of metallization may be avoided. Although some components are very complicated for shaping, the manufacturing costs are relatively insensitive to the complexity of the mold especially in the case of mass production (such as plastic injection), as the cost of the mold is spread in many parts. Finally, last two sections are conclusions and future lines of investigation.
Resumo:
The interest in LED lighting has been growing recently due to the high efficacy, lifelime and ruggedness that this technology offers. However the key element to guarantee those parameters with these new electronic devices is to keep under control the working temperature of the semiconductor crystal. This paper propases a LED lamp design that fulfils the requ irements of a PV lighting systems, whose main quality criteria is reliability. It uses directly as a power supply a non·stabilized constant voltage source, as batteries. An electronic control architecture is used to regulate the current applied to the LEO matri)( according to their temperature and the voltage output value of the batteries with two pulse modulation signals (PWM) signals. The first one connects and disconnects the LEOs to the power supply and the second one connects and disconnects several emitters to the electric circuit changing its overall impedance. A prototype of the LEO lamp has been implemented and tested at different temperaturas and battery voltages.
Resumo:
El objetivo de este proyecto es investigar la viabilidad del almacenamiento de CO2 en un acuífero salino profundo ubicado en el margen suroccidental de la Cuenca del Guadalquivir. Este proyecto está destinado a una operación industrial con tasas de emisión de CO2 superiores a medio millón de toneladas anuales. Se ha construido un modelo geológico de la formación almacén en Petrel y se ha simulado la inyección utilizando la versión composicional de ECLIPSE. El objetivo es inyectar CO2 manteniendo una tasa de inyección constante durante 30 años, el máximo periodo permitido por la legislación española sobre almacenamiento geológico de CO2. La cantidad de CO2 inyectada en cada uno de los casos ha sido determinada. Los resultados parecen indicar que la inyección de CO2 a escala industrial podría ser viable, aunque la viabilidad del proyecto podría verse comprometida por la escasa profundidad a la que se encuentra el contacto entre la formación almacén y el sello lateral. Antes de seguir adelante con el desarrollo del proyecto sería conveniente determinar mejor la continuidad lateral de la formación almacén y sus condiciones de sello. ABSTRACT The aim of this project is to investigate the feasibility of CO2 geological storage in a deep saline aquifer located onshore in the southwestern margin of Guadalquivir Basin. The project is addressed for an industrial scale operation with CO2 emission rates higher than half a million tons per year. A geological model of the target reservoir was built in Petrel and injection simulations were performed with the compositional version of ECLIPSE. The purpose is to inject CO2 at constant rate during 30 years, the maximum period allowed by the Spanish law on carbon dioxide geological storage. The amount of CO2 injected in each studied scenario has been determined. Results suggest that CO2 injection at industrial scale could be viable, but the project feasibility could be endangered by the shallow depth of the contact between the target reservoir and the lateral seal. Prior to injection, further work should include ascertaining the reservoir’s lateral continuity and better determination of its sealing conditions
Resumo:
La construcción de una red amplia de infraestructuras para una región supone un indudable enriquecimiento. En España, para lograr este objetivo y debido a una orografía considerablemente montañosa, ha sido necesario potenciar la creación de túneles de carretera y ferrocarril aunque solo recientemente se ha comenzado a prestar atención a aspectos considerados secundarios como la seguridad, el mantenimiento o la explotación. En España, afortunadamente, la eterna lucha entre coste y seguridad va decantándose a favor de la segunda en gran parte debido a la presión de la opinión pública, no siempre objetiva ni razonable. El procedimiento habitual para la elección del sistema de ventilación pasa por la definición y posterior estudio de los distintos casos que pueden presentarse en el túnel. En este artículo se hacer referencia a los sistemas de ventilación principal, como son ventilación longitudinal natural, ventilación longitudinal natural con pozo, ventilación longitudinal con ventiladores en pozo, ventilación longitudinal con ventiladores de chorro , ventilación longitudinal en pozo y aceleradores, ventilación semi-transversal con inyección de aire fresco, ventilación transversal total, ventilación pseudo-transversal y sistemas mixtos. Existen otros conjuntos de ventilación a los que se presta a veces menos atención que a los anteriores aunque son fundamentales en el funcionamiento del túnel especialmente para los casos de incendio, como son refugios, nichos y locales técnicos. El ventilador es una turbomáquina que absorbe energía mecánica en el eje y la emplea en transportar gases a unas presiones suficientemente bajas para poder considerarlo incompresible. Los ventiladores se clasifican en función de la dirección del flujo en el rodete como axiales si el flujo sale en la dirección del eje de giro del rodete o centrífugo(de flujo radial) si el flujo sale en dirección normal a aquél. Dentro de los ventiladores axiales existen dos configuraciones diferentes empleadas habitualmente en túneles, los ventiladores axiales de gran potencia y los ventiladores de chorro. El sistema de ventilación depende en gran medida del seguimiento de los parámetros que intervienen en su control para poder intervenir de forma correctiva y preventiva para asegurar el cumplimiento de los niveles de calidad del aire exigidos. Para ello se emplea un numeroso tipo de equipos que permiten monitorizar el comportamiento del túnel. El artículo concluye haciendo referencia a equipamientos de seguridad.
Resumo:
En los últimos años se ha producido un aumento constante en la potencia fotovoltaica instalada a nivel mundial. Este crecimiento, acompañado de crecimientos similares en el resto de energías renovables, está motivado por la necesidad de dar respuesta a varios de los retos que planteados al sector energético: creciente preocupación por los efectos en el medioambiente de las emisiones de gases de efecto invernadero, entre los que cabe destacar el cambio climático (IPCC 2011); el inevitable agotamiento de algunas fuentes tradicionales de energía eléctrica, basadas en combustibles fósiles, que llevara aparejado en las próximas décadas un aumento en el coste asociado a producir energía eléctrica mediante estas fuentes como indican Bentley (2002), Gori (2007), Kjastard (2009), Owen (2010) y Hughes (2011), y la necesidad para algunos países de asegurar su independencia energética, factor especialmente crítico para los países europeos debido a su escasez en reservas naturales de combustibles fósiles. La energía solar fotovoltaica, al igual que el resto de energías renovables, proporciona energía eléctrica de manera limpia y segura y plantea soluciones a los problemas mencionados. Asimismo, las energías renovables también presentan beneficios sociales como la creación de empleo cualificado en actividades de ingeniería, fabricación, instalación y mantenimiento, así como en la investigación, desarrollo e innovación. Es por estos motivos que las energías renovables se han visto beneficiadas a lo largo de las últimas décadas de mecanismos favorables, subvenciones y primas a la producción, conducentes a su implantación y desarrollo. La Figura 1.1 muestra la evolución de la potencia total instalada a nivel mundial y su tasa de crecimiento del 2000 al 2012, de acuerdo con datos proporcionados por la Agencia Internacional de la Energía: IEA (2012a, 2013). Los datos incluidos en la Figura 1.1 solo incluyen a los países que pertenecen a la Agencia Internacional de la Energía: Alemania, Australia, Austria, Bélgica, Canadá, China, Corea, Dinamarca, España, Estados Unidos, Finlandia, Francia, Holanda, Israel, Italia, Japón, Malasia, México, Noruega, Portugal, Reino Unido, Suecia, Suiza y Turquía. La potencia instalada muestra un crecimiento de tipo exponencial, incrementándose cada año un 41,6% de media. A los 88,5 GWP de potencia fotovoltaica instalada en todos los países miembros de la IEA a finales de 2012 habría que añadir, siempre según la IEA (2013), 7 GWP adicionales repartidos en seis países que no pertenecen a este organismo: Republica Checa, Grecia, Bulgaria, Eslovaquia, Ucrania y Tailandia. Esta tendencia en la tasa de crecimiento se mantiene incluso en los últimos años del periodo cuando varios países han reducido los incentivos a las energías renovables. Como consecuencia de este crecimiento en algunos países la proporción de energía eléctrica total de origen fotovoltaico empieza a ser apreciable. Para los casos de España, Alemania e Italia, el porcentaje de energía eléctrica final producida sistemas fotovoltaicos conectados a la red (SFCR) fue, respectivamente, de 3,1% y 4,7% en 2012 y de 3,1% en 2011 en Italia. La potencia instalada, la energía producida y la demanda total en estos países desde el año 2006 al 2012, de acuerdo con REE (2012, 2012, 2013), BMU (2013) y TERNA (2013), se recoge en la Tabla 1.1. Para el caso de Italia se incluyen únicamente datos hasta el año 2011 por no encontrarse disponibles datos para 2012. A medida que el nivel de penetración de la energía solar fotovoltaica en los sistemas eléctricos aumenta la necesidad de que este tipo de energía se integre de manera efectiva en dichos sistemas aumenta. La integración efectiva de un generador en el sistema eléctrico requiere que su producción sea conocida de antemano para poder incluirlo en la planificación del sistema eléctrico con el objetivo de que la producción programada para los distintos generadores iguale a la demanda esperada. Esta planificación del sistema eléctrico se suele hacer a escala diaria. Asimismo, además de equilibrar la generación con la demanda esperada un generador eléctrico debe ser capaz de proporcionar servicios auxiliares al sistema eléctrico como compensación de desequilibrios entre generación y consumo, regulación de tensión o inyección de potencia reactiva, entre otros. Por ejemplo, los sistemas fotovoltaicos cuya potencia sea superior a 2 MWP deben contribuir en España desde el 2010 a garantizar la continuidad del suministro eléctrico frente a huecos de tensión (España, 2010), aplicándose a estos sistemas fotovoltaicos el mismo procedimiento de operación – PO 12.3, REE(2006) – que ya se aplicó en su día a los generadores eólicos (España, 2007). La energía fotovoltaica, junto a otras energías renovables como la eólica, ha sido considerada tradicionalmente una fuente de energía no regulable. En consecuencia, no ha sido tenida en cuenta por los operadores de los sistemas eléctricos como una fuente de energía fiable. Esta consideración de la fotovoltaica como fuente de energía no fiable se debe a su dependencia de las condiciones meteorológicas, radiación y temperatura, para producir energía. Si la producción de un sistema fotovoltaico pudiese conocerse con exactitud y con la suficiente antelación se facilitaría su integración en los sistemas eléctricos. Sin embargo, la mera predicción de cuanta energía producirá un sistema fotovoltaico, aun cuando esta predicción se haga sin error, puede no ser suficiente; la energía producida por el sistema fotovoltaico sigue estando limitada por las condiciones meteorológicas y no es posible regular esta producción de energía. Como ya se ha comentado, la capacidad por parte de un generador eléctrico de regular su potencia de salida, tanto anticipadamente como en tiempo real, es crucial a la hora de su integración en el sistema eléctrico.
Resumo:
El objetivo general de esta Tesis Doctoral fue estudiar la influencia del sexo, el método de castración de los machos y la línea genética paterna sobre la productividad y la calidad de la canal y de la carne en cerdos blancos sacrificados a pesos elevados con destino a la industria de los productos curados de calidad. En el experimento 1, se utilizaron 360 cerdos sacrificados a 125 kg de peso vivo (PV) para estudiar la influencia del sexo y la castración [machos inmunocastrados (MI), machos castrados quirúrgicamente (MC) y hembras enteras (HE)] de dos líneas genéticas paternas Large White (Top York y Tempo) sobre los rendimientos productivos y la calidad de la canal y de la carne. La línea materna utilizada fue Large White × Landrace en todos los casos. Los MI se inmunizaron contra el factor de liberación de gonadotropina (GnRF) mediante la utilización de Improvac a los 78 (16 d en prueba) y 126 (64 d en prueba y 48 d antes del sacrificio) d de edad. Cada uno de los 6 tratamientos experimentales fue replicado 6 veces (cuadra con 10 cerdos). Desde el inicio de la prueba hasta el día de la primera inyección con Improvac (62 a 78 d de edad) los MI y las HE crecieron menos (P < 0,001) que los MC sin que se observaran diferencias en el consumo medio diario de pienso (CMD). Los MC tuvieron peor eficiencia alimenticia que las HE con los MI mostrando valores intermedios (P < 0,01). Entre las dos inyecciones de Improvac (78 a 126 d de edad), los MI crecieron y comieron menos que los MC, mostrando las HE valores intermedios (P < 0,001). Los MI fueron más eficientes que las HE y ambos más eficientes que los MC (P < 0,001). Sin embargo, desde la segunda inyección de Improvac hasta el sacrificio (126 a 174 d de edad) los MI crecieron más y fueron más eficientes (P < 0,001) que las HE y los MC. Al final de la prueba, MI y MC crecieron más (P < 0,01) que HE. Asimismo, los MI fueron más eficientes (P < 0,001) pero presentaron menor rendimiento de canal (P < 0,001) que los MC y las HE. Por otro lado, los MI y las HE depositaron menos grasa dorsal que los MC (P < 0,001). Las hembras tuvieron mayor rendimiento de lomo y menos grasa intramuscular que MI y MC (P < 0,01). Asimismo, las HE tuvieron mayor rendimiento de jamón en fresco y perfilado que los MC con los MI mostrando valores intermedios (P < 0,05). Los cerdos híbridos procedentes de machos Tempo crecieron más (P < 0,001) que los procedentes de machos Top York, sin que se encontraran diferencias para el CMD o para la eficiencia alimenticia. Los híbridos de los cruces con Top York tuvieron mejores rendimientos de jamones frescos y perfilados (P < 0,05) pero menor rendimiento de lomo y menos grasa intramuscular que los cruces con Tempo (P < 0,01). En conclusión, los MI presentaron mejor eficiencia alimenticia, pero menor rendimiento de canal que los MC y las HE. El contenido en grasa intramuscular fue similar entre MC y MI y superior para ambos que para las HE. Los cruces procedentes de la línea paterna Tempo crecieron más y tuvieron mayor contenido en grasa intramuscular, pero un rendimiento en jamón perfilado ligeramente inferior al de los cruces procedentes de la línea paterna Top York. Se concluye que la inmunocastración de los machos es una alternativa viable a la castración quirúrgica para la producción de cerdos pesados destinados a la industria de los productos curados. Debido a su mayor potencial de crecimiento y mayor contenido en grasa intramuscular, los híbridos procedentes de la línea paterna Tempo presentan ventajas frente a los híbridos procedentes de la línea paterna Top York cuando se destinan a la industria de productos curados de calidad. En el experimento 2, se utilizaron 240 cerdos para comparar los rendimientos productivos y los parámetros de calidad de la canal de MI, MC y HE destinados a la industria de productos cárnicos curados procedentes del cruce de la línea materna Large White × Landrace con la línea genética paterna Duroc o Pietrain. Entre las 2 inyecciones de Improvac (87 a 137 d de edad), los MI y las HE crecieron menos que los MC (P < 0,01). Asimismo, los MI comieron menos pienso que las HE y ambos menos que los MC (2,33, 2,55 y 2,77 kg/d; respectivamente; P < 0,001). Como resultado, los MI fueron más eficientes que los MC y las HE (P < 0,001). Desde la segunda inyección de Improvac hasta el momento del sacrificio (137 a 164 d de edad), los MI fueron más eficientes que las HE y ambos más que los MC (0,346, 0,323 y 0,300, respectivamente; P < 0,001). Las diferencias observadas en este periodo entre los sexos en cuanto a rendimientos productivos fueron más pronunciadas en los cerdos procedentes de la línea paterna Pietrain que los de la línea Duroc (P < 0,05 para la interacción). En el global de la prueba (87 a 164 d de edad) el sexo no afectó al crecimiento en los cerdos procedentes de la línea paterna Duroc pero en los cerdos procedentes de la línea paterna Pietrain, los MI y los MC crecieron más que las HE (P < 0,05 para la interacción). Asimismo, los MI tuvieron mejor eficiencia alimenticia (0,406, 0,364 y 0,380, P < 0,001) y menor rendimiento de la canal (76,6, 78,1 y 78,8%; P < 0,001) que los MC y las HE. Las canales de las HE fueron más magras que las canales de los MC, con las canales de los MI mostrando valores intermedios (P < 0,01). El rendimiento en jamones y lomos fue mayor para las HE que para los MI y los MC (P < 0,001). El contenido en grasa intramuscular fue menor en las HE que en los MC, con los MI mostrando valores intermedios (3,5 vs. 3,9 y 3,7%; P < 0,05). Por otra parte, los híbridos procedentes de machos Duroc crecieron más rápido (1,167 vs. 0,986 kg/d; P < 0,001), consumieron más pienso (3,07 vs. 2,56 kg/d; P < 0,001) y tuvieron más grasa intramuscular (P < 0,001), pero menor rendimiento en jamones y lomos (P < 0,01) que los híbridos procedentes de machos Pietrain. Se concluye que los MI presentaron mejores productividades pero menores rendimientos de canal que MC y HE. El contenido en grasa intramuscular en el músculo longissimus dorsi fue menor para las HE que para los MC con valores intermedios para los MI. Los cruces procedentes de la genética paterna Duroc crecieron más y tuvieron más grasa intramuscular pero menos rendimiento de jamón que los cerdos procedentes de machos Pietrain. Por tanto, los MI deben ser preferidos a los MC y los cruces con la línea paterna Duroc deben ser preferidos a los cruces con Pietrain para producir canales cuando sus partes nobles están destinadas a la industria de productos cárnicos curados. En base a estos resultados, se concluye que la inmunocastración es una alternativa factible a la castración quirúrgica y que líneas genéticas paternas Tempo y Duroc son mejores para la producción de cerdo blanco pesado que las líneas Top York y Pietrain. Las interacciones entre el sexo y las líneas genéticas paternas estudiadas, sugieren que el resultado final depende en parte de la línea genética paterna utilizada. En cualquier caso, la inmunocastración es una alternativa factible a la castración quirúrgica para la producción de canales destinadas a la industria de los productos cárnicos curados. ABSTRACT The general aim of this PhD Thesis was to study the influence of sex, method of castration, and genetic background of the sire line on growth performance and carcass and meat quality merits of heavy white pigs destined to the dry-cured industry. In experiment 1, 360 pigs slaughtered at 125 kg of body weight were used to study the influence of sex and castration methodology [immunocastrated males (ICM), surgically castrated males (SCM), and intact females (IF)] of 2 terminal Large White sire lines (Top York and Tempo) on growth performance and carcass and meat quality. The female line was Large White × Landrace in all cases. The ICM pigs were immunized against gonadotropin-releasing factor with Improvac at 78 (16 d on trial) and 126 (64 d on trial and 48 d before slaughter) d of age. Each of the 6 treatments was replicated 6 times (10 pigs/pen). From the start of the experiment to the day of the first Improvac injection (62 to 78 d of age), ICM and IF grew slowlier (P < 0.001) than SCM but no differences in feed intake were detected. The SCM pigs had greater gain to feed ratio (G:F) than the IF with the ICM pigs being intermediate (P < 0.01). Between the 2 Improvac injections (78 to 126 d of age), the ICM pigs ate less feed (P < 0.001) and grew slowlier rate than the SCM pigs, with the growth of IF being intermediate. The ICM pigs were more efficient than the IF, and both were more efficient than the SCM pigs (P < 0.001). However, from the second Improvac injection to slaughter (126 to 174 d of age), the ICM pigs grew at a faster rate (P < 0.001) and were more efficient (P < 0.001) than the IF and the SCM pigs. Cumulatively, ICM and SCM pigs grew faster (P < 0.01) than IF and the ICM pigs were more efficient than the other two sexes (P < 0.001). However, the ICM pigs had reduced (P < 0.001) carcass yield compared with SCM and IF. The ICM and IF pigs also had less (P < 0.001) backfat depth than the SCM pigs. Intact females had higher (P < 0.01) loin yield but less intramuscular fat (P < 0.01) than ICM and SCM pigs and higher (P < 0.05) fresh and trimmed ham yields than SCM pigs, with ICM pigs being intermediate. Crossbreds from the Tempo sires grew faster (P < 0.001) than crossbreds from the Top York sires but no differences (P > 0.10) were detected for feed intake or feed efficiency. Crossbreds from the Top York sires had higher (P < 0.05) fresh and trimmed ham yields but less (P < 0.01) loin yield and intramuscular fat content than crossbreds from the Tempo sires. In conclusion, ICM pigs are more efficient, but have less carcass yield than SCM and IF pigs. The intramuscular fat content was lowest for the IF and similar for ICM and SCM pigs. Crossbreds from Tempo sires were heavier and had greater intramuscular fat content, but had less trimmed ham yield as compared with crossbreds from the Top York sires. Immunocastrated pigs can replace SCM pigs for the production of heavy pigs destined for the dry-cured industry. Because of increased carcass weight and the higher intramuscular content, crossbreds from Tempo sires may have an advantage over crossbreds from Top York sires for the dry-cured industry. In experiment 2, a total of 240 pigs were used to compare growth performance and carcass quality traits of immunocastrated males, surgically castrated males, and intact females of crossbreds from Large White × Landrace females and Duroc or Pietrain sires destined to the dry-cured industry. Between the 2 Improvac injections (87 and 137 d of age), ICM and IF pigs had lower average daily gain (ADG) than SCM pigs (P < 0.01). Also, ICM pigs ate less feed than IF and both type of pigs ate less than SCM pigs (2.33, 2.55, and 2.77 kg/d; P < 0.001). Consequently, ICM pigs had better G:F than SCM and IF (P < 0.001). From the second Improvac injection to slaughter (137 to 164 d of age), ICM pigs were more efficient than IF and both were more efficient than SCM pigs (0.346, 0.323, and 0.300 g/g; P < 0.001). The differences in growth performance among genders observed in this period were more pronounced for the Pietrain than for the Duroc crossbreds (P < 0.05 for the interaction). For the entire experimental period (87 to 164 d of age), gender did not affect ADG for Duroc crossbreds but for Pietrain crossbreds ICM and SCM had higher ADG than IF (P < 0.05 for the interaction). The ICM pigs had better feed efficiency (0.406, 0.364, and 0.380; g/g; P < 0.001) and lower carcass yield (76.6, 78.1, and 78.8%; P < 0.001) than SCM or IF. Carcasses from IF were leaner than carcasses from SCM with carcasses from ICM being intermediate (P < 0.01). Ham and loin (P < 0.001) yields were higher for IF than for ICM or SCM pigs. Intramuscular fat content was lower for IF than for SCM pigs with that of ICM pigs being intermediate (3.5 vs. 3.9 and 3.7%; P < 0.05). Cumulatively, crossbreds from Duroc sires had higher ADG (1.167 vs. 0.986 kg/d; P < 0.001) and average daily feed intake (3.07 vs. 2.56 kg/d; P < 0.001) and more intramuscular fat (P < 0.001) but less ham and loin yields (P < 0.01) than crossbreds from Pietrain sires. It is concluded that growth performance was better, but carcass yield lower, for ICM pigs than for SCM and IF. Intramuscular fat content in longissimus dorsi muscle was lower for IF than for SCM pigs with ICM pigs being intermediate. Crossbreds from Duroc sires grew faster and had more intramuscular fat but less ham yield than crossbreds from Pietrain sires. Therefore, ICM pigs should be preferred to SCM pigs, and Duroc crossbreds should be preferred to Pietrain crossbreds to produce carcasses destined to the production of primal cuts for the dry-cured industry. We conclude that immunocastration might be a sound alternative to surgical castration in pigs and that Tempo and Duroc might be better for the production of heavy pigs than Top York and Pietrain. The interactions reported between sex and genetic sire line, suggested that the benefits of immunocastration as an alternative to surgical castration might depend at least part on the sire line used. In any case, immunocastration is a good alternative to surgical castration for the production of carcasses destined to the dry-cured industry.
Resumo:
En los últimos años ha habido una fuerte tendencia a disminuir las emisiones de CO2 y su negativo impacto medioambiental. En la industria del transporte, reducir el peso de los vehículos aparece como la mejor opción para alcanzar este objetivo. Las aleaciones de Mg constituyen un material con gran potencial para el ahorro de peso. Durante la última década se han realizado muchos esfuerzos encaminados a entender los mecanismos de deformación que gobiernan la plasticidad de estos materiales y así, las aleaciones de Mg de colada inyectadas a alta presión y forjadas son todavía objeto de intensas campañas de investigación. Es ahora necesario desarrollar modelos que contemplen la complejidad inherente de los procesos de deformación de éstos. Esta tesis doctoral constituye un intento de entender mejor la relación entre la microestructura y el comportamiento mecánico de aleaciones de Mg, y dará como resultado modelos de policristales capaces de predecir propiedades macro- y microscópicas. La deformación plástica de las aleaciones de Mg está gobernada por una combinación de mecanismos de deformación característicos de la estructura cristalina hexagonal, que incluye el deslizamiento cristalográfico en planos basales, prismáticos y piramidales, así como el maclado. Las aleaciones de Mg de forja presentan texturas fuertes y por tanto los mecanismos de deformación activos dependen de la orientación de la carga aplicada. En este trabajo se ha desarrollado un modelo de plasticidad cristalina por elementos finitos con el objetivo de entender el comportamiento macro- y micromecánico de la aleación de Mg laminada AZ31 (Mg-3wt.%Al-1wt.%Zn). Este modelo, que incorpora el maclado y tiene en cuenta el endurecimiento por deformación debido a las interacciones dislocación-dislocación, dislocación-macla y macla-macla, predice exitosamente las actividades de los distintos mecanismos de deformación y la evolución de la textura con la deformación. Además, se ha llevado a cabo un estudio que combina difracción de electrones retrodispersados en tres dimensiones y modelización para investigar el efecto de los límites de grano en la propagación del maclado en el mismo material. Ambos, experimentos y simulaciones, confirman que el ángulo de desorientación tiene una influencia decisiva en la propagación del maclado. Se ha observado que los efectos no-Schmid, esto es, eventos de deformación plástica que no cumplen la ley de Schmid con respecto a la carga aplicada, no tienen lugar en la vecindad de los límites de baja desorientación y se hacen más frecuentes a medida que la desorientación aumenta. Esta investigación también prueba que la morfología de las maclas está altamente influenciada por su factor de Schmid. Es conocido que los procesos de colada suelen dar lugar a la formación de microestructuras con una microporosidad elevada, lo cuál afecta negativamente a sus propiedades mecánicas. La aplicación de presión hidrostática después de la colada puede reducir la porosidad y mejorar las propiedades aunque es poco conocido su efecto en el tamaño y morfología de los poros. En este trabajo se ha utilizado un enfoque mixto experimentalcomputacional, basado en tomografía de rayos X, análisis de imagen y análisis por elementos finitos, para la determinación de la distribución tridimensional (3D) de la porosidad y de la evolución de ésta con la presión hidrostática en la aleación de Mg AZ91 (Mg- 9wt.%Al-1wt.%Zn) colada por inyección a alta presión. La distribución real de los poros en 3D obtenida por tomografía se utilizó como input para las simulaciones por elementos finitos. Los resultados revelan que la aplicación de presión tiene una influencia significativa tanto en el cambio de volumen como en el cambio de forma de los poros que han sido cuantificados con precisión. Se ha observado que la reducción del tamaño de éstos está íntimamente ligada con su volumen inicial. En conclusión, el modelo de plasticidad cristalina propuesto en este trabajo describe con éxito los mecanismos intrínsecos de la deformación de las aleaciones de Mg a escalas meso- y microscópica. Más especificamente, es capaz de capturar las activadades del deslizamiento cristalográfico y maclado, sus interacciones, así como los efectos en la porosidad derivados de los procesos de colada. ---ABSTRACT--- The last few years have seen a growing effort to reduce CO2 emissions and their negative environmental impact. In the transport industry more specifically, vehicle weight reduction appears as the most straightforward option to achieve this objective. To this end, Mg alloys constitute a significant weight saving material alternative. Many efforts have been devoted over the last decade to understand the main mechanisms governing the plasticity of these materials and, despite being already widely used, high pressure die-casting and wrought Mg alloys are still the subject of intense research campaigns. Developing models that can contemplate the complexity inherent to the deformation of Mg alloys is now timely. This PhD thesis constitutes an attempt to better understand the relationship between the microstructure and the mechanical behavior of Mg alloys, as it will result in the design of polycrystalline models that successfully predict macro- and microscopic properties. Plastic deformation of Mg alloys is driven by a combination of deformation mechanisms specific to their hexagonal crystal structure, namely, basal, prismatic and pyramidal dislocation slip as well as twinning. Wrought Mg alloys present strong textures and thus specific deformation mechanisms are preferentially activated depending on the orientation of the applied load. In this work a crystal plasticity finite element model has been developed in order to understand the macro- and micromechanical behavior of a rolled Mg AZ31 alloy (Mg-3wt.%Al-1wt.%Zn). The model includes twinning and accounts for slip-slip, slip-twin and twin-twin hardening interactions. Upon calibration and validation against experiments, the model successfully predicts the activity of the various deformation mechanisms and the evolution of the texture at different deformation stages. Furthermore, a combined three-dimensional electron backscatter diffraction and modeling approach has been adopted to investigate the effect of grain boundaries on twin propagation in the same material. Both experiments and simulations confirm that the misorientation angle has a critical influence on twin propagation. Non-Schmid effects, i.e. plastic deformation events that do not comply with the Schmid law with respect to the applied stress, are absent in the vicinity of low misorientation boundaries and become more abundant as misorientation angle increases. This research also proves that twin morphology is highly influenced by the Schmid factor. Finally, casting processes usually lead to the formation of significant amounts of gas and shrinkage microporosity, which adversely affect the mechanical properties. The application of hydrostatic pressure after casting can reduce the porosity and improve the properties but little is known about the effects on the casting’s pores size and morphology. In this work, an experimental-computational approach based on X-ray computed tomography, image analysis and finite element analysis is utilized for the determination of the 3D porosity distribution and its evolution with hydrostatic pressure in a high pressure diecast Mg AZ91 alloy (Mg-9wt.%Al-1wt.%Zn). The real 3D pore distribution obtained by tomography is used as input for the finite element simulations using an isotropic hardening law. The model is calibrated and validated against experimental stress-strain curves. The results reveal that the pressure treatment has a significant influence both on the volume and shape changes of individuals pores, which have been precisely quantified, and which are found to be related to the initial pore volume. In conclusion, the crystal plasticity model proposed in this work successfully describes the intrinsic deformation mechanisms of Mg alloys both at the mesoscale and the microscale. More specifically, it can capture slip and twin activities, their interactions, as well as the potential porosity effects arising from casting processes.
Resumo:
La investigación realizada en este trabajo de tesis se ha centrado en el estudio de la generación, anclaje y desenganche de paredes de dominio magnético en nanohilos de permalloy con defectos controlados. Las últimas tecnologías de nanofabricación han abierto importantes líneas de investigación centradas en el estudio del movimiento de paredes de dominio magnético, gracias a su potencial aplicación en memorias magnéticas del futuro. En el 2004, Stuart Parkin de IBM introdujo un concepto innovador, el dispositivo “Racetrack”, basado en un nanohilo ferromagnético donde los dominios de imanación representan los "bits" de información. La frontera entre dominios, ie pared magnética, se moverían en una situación ideal por medio de transferencia de espín de una corriente polarizada. Se anclan en determinadas posiciones gracias a pequeños defectos o constricciones de tamaño nanométrico fabricados por litografía electrónica. El éxito de esta idea se basa en la generación, anclaje y desenganche de las paredes de dominio de forma controlada y repetitiva, tanto para la lectura como para la escritura de los bits de información. Slonczewski en 1994 muestra que la corriente polarizada de espín puede transferir momento magnético a la imanación local y así mover paredes por transferencia de espín y no por el campo creado por la corriente. Desde entonces muchos grupos de investigación de todo el mundo trabajan en optimizar las condiciones de transferencia de espín para mover paredes de dominio. La fracción de electrones polarizados que viaja en un hilo ferromagnético es considerablemente pequeña, así hoy por hoy la corriente necesaria para mover una pared magnética por transferencia de espín es superior a 1 107 A/cm2. Una densidad de corriente tan elevada no sólo tiene como consecuencia una importante degradación del dispositivo sino también se observan importantes efectos relacionados con el calentamiento por efecto Joule inducido por la corriente. Otro de los problemas científico - tecnológicos a resolver es la diversidad de paredes de dominio magnético ancladas en el defecto. Los diferentes tipos de pared anclados en el defecto, su quiralidad o el campo o corriente necesarios para desenganchar la pared pueden variar dependiendo si el defecto posee dimensiones ligeramente diferentes o si la pared se ancla con un método distinto. Además, existe una componente estocástica presente tanto en la nucleación como en el proceso de anclaje y desenganche que por un lado puede ser debido a la naturaleza de la pared que viaja por el hilo a una determinada temperatura distinta de cero, así como a defectos inevitables en el proceso de fabricación. Esto constituye un gran inconveniente dado que según el tipo de pared es necesario aplicar distintos valores de corriente y/o campo para desenganchar la pared del defecto. Como se menciona anteriormente, para realizar de forma eficaz la lectura y escritura de los bits de información, es necesaria la inyección, anclaje y desenganche forma controlada y repetitiva. Esto implica generar, anclar y desenganchar las paredes de dominio siempre en las mismas condiciones, ie siempre a la misma corriente o campo aplicado. Por ello, en el primer capítulo de resultados de esta tesis estudiamos el anclaje y desenganche de paredes de dominio en defectos de seis formas distintas, cada uno, de dos profundidades diferentes. Hemos realizado un análisis estadístico en diferentes hilos, donde hemos estudiado la probabilidad de anclaje cada tipo de defecto y la dispersión en el valor de campo magnético aplicado necesario para desenganchar la pared. Luego, continuamos con el estudio de la nucleación de las paredes de dominio magnético con pulsos de corriente a través una linea adyacente al nanohilo. Estudiamos defectos de tres formas distintas e identificamos, en función del valor de campo magnético aplicado, los distintos tipos de paredes de dominio anclados en cada uno de ellos. Además, con la ayuda de este método de inyección que es rápido y eficaz, hemos sido capaces de generar y anclar un único tipo de pared minimizando el comportamiento estocástico de la pared mencionado anteriormente. En estas condiciones óptimas, hemos estudiado el desenganche de las paredes de dominio por medio de corriente polarizada en espín, donde hemos conseguido desenganchar la pared de forma controlada y repetitiva siempre para los mismos valores de corriente y campo magnético aplicados. Además, aplicando pulsos de corriente en distintas direcciones, estudiamos en base a su diferencia, la contribución térmica debido al efecto Joule. Los resultados obtenidos representan un importante avance hacia la explotación práctica de este tipo de dispositivos. ABSTRACT The research activity of this thesis was focused on the nucleation, pinning and depinning of magnetic domain walls (DWs) in notched permalloy nanowires. The access to nanofabrication techniques has boosted the number of applications based on magnetic domain walls (DWs) like memory devices. In 2004, Stuart Parkin at IBM, conceived an innovative concept, the “racetrack memory” based on a ferromagnetic nanowire were the magnetic domains constitute the “bits” of information. The frontier between those magnetic domains, ie magnetic domain wall, will move ideally assisted by a spin polarized current. DWs will pin at certain positions due to artificially created pinning sites or “notches” fabricated with ebeam lithography. The success of this idea relies on the careful and predictable control on DW nucleation and a defined pinning-depinning process in order to read and write the bits of information. Sloncsewski in 1994 shows that a spin polarized current can transfer magnetic moment to the local magnetization to move the DWs instead of the magnetic field created by the current. Since then many research groups worldwide have been working on optimizing the conditions for the current induced DW motion due to the spin transfer effect. The fraction of spin polarized electrons traveling through a ferromagnetic nanowire is considerably small, so nowadays the current density required to move a DW by STT exceeds 1 107 A/cm2. A high current density not only can produce a significant degradation of the device but also important effects related to Joule heating were also observed . There are other scientific and technological issues to solve regarding the diversity of DWs states pinned at the notch. The types of DWs pinned, their chirality or their characteristic depinning current or field, may change if the notch has slightly different dimensions, the stripe has different thickness or even if the DW is pinned by a different procedure. Additionally, there is a stochastic component in both the injection of the DW and in its pinning-depinning process, which may be partly intrinsic to the nature of the travelling DW at a non-zero temperature and partly due to the unavoidable defects introduced during the nano-fabrication process. This constitutes an important inconvenient because depending on the DW type different values of current of magnetic field need to be applied in order to depin a DW from the notch. As mentioned earlier, in order to write and read the bits of information accurately, a controlled reproducible and predictable pinning- depinning process is required. This implies to nucleate, pin and depin always at the same applied magnetic field or current. Therefore, in the first chapter of this thesis we studied the pinning and depinning of DW in six different notch shapes and two depths. An statistical analysis was conducted in order to determine which notch type performed best in terms of pinning probability and the dispersion measured in the magnetic field necessary to depin the magnetic DWs. Then, we continued studying the nucleation of DWs with nanosecond current pulses by an adjacent conductive stripe. We studied the conditions for DW injection that allow a selective pinning of the different types of DWs in Permalloy nanostripes with 3 different notch shapes. Furthermore, with this injection method, which has proven to be fast and reliable, we manage to nucleate only one type of DW avoiding its stochastic behavior mentioned earlier. Having achieved this optimized conditions we studied current induced depinning where we also achieved a controlled and reproducible depinning process at always the same applied current and magnetic field. Additionally, changing the pulse polarity we studied the joule heating contribution in a current induced depinning process. The results obtained represent an important step towards the practical exploitation of these devices.
Resumo:
El presente Trabajo fin Fin de Máster, versa sobre una caracterización preliminar del comportamiento de un robot de tipo industrial, configurado por 4 eslabones y 4 grados de libertad, y sometido a fuerzas de mecanizado en su extremo. El entorno de trabajo planteado es el de plantas de fabricación de piezas de aleaciones de aluminio para automoción. Este tipo de componentes parte de un primer proceso de fundición que saca la pieza en bruto. Para series medias y altas, en función de las propiedades mecánicas y plásticas requeridas y los costes de producción, la inyección a alta presión (HPDC) y la fundición a baja presión (LPC) son las dos tecnologías más usadas en esta primera fase. Para inyección a alta presión, las aleaciones de aluminio más empleadas son, en designación simbólica según norma EN 1706 (entre paréntesis su designación numérica); EN AC AlSi9Cu3(Fe) (EN AC 46000) , EN AC AlSi9Cu3(Fe)(Zn) (EN AC 46500), y EN AC AlSi12Cu1(Fe) (EN AC 47100). Para baja presión, EN AC AlSi7Mg0,3 (EN AC 42100). En los 3 primeros casos, los límites de Silicio permitidos pueden superan el 10%. En el cuarto caso, es inferior al 10% por lo que, a los efectos de ser sometidas a mecanizados, las piezas fabricadas en aleaciones con Si superior al 10%, se puede considerar que son equivalentes, diferenciándolas de la cuarta. Las tolerancias geométricas y dimensionales conseguibles directamente de fundición, recogidas en normas como ISO 8062 o DIN 1688-1, establecen límites para este proceso. Fuera de esos límites, las garantías en conseguir producciones con los objetivos de ppms aceptados en la actualidad por el mercado, obligan a ir a fases posteriores de mecanizado. Aquellas geometrías que, funcionalmente, necesitan disponer de unas tolerancias geométricas y/o dimensionales definidas acorde a ISO 1101, y no capaces por este proceso inicial de moldeado a presión, deben ser procesadas en una fase posterior en células de mecanizado. En este caso, las tolerancias alcanzables para procesos de arranque de viruta se recogen en normas como ISO 2768. Las células de mecanizado se componen, por lo general, de varios centros de control numérico interrelacionados y comunicados entre sí por robots que manipulan las piezas en proceso de uno a otro. Dichos robots, disponen en su extremo de una pinza utillada para poder coger y soltar las piezas en los útiles de mecanizado, las mesas de intercambio para cambiar la pieza de posición o en utillajes de equipos de medición y prueba, o en cintas de entrada o salida. La repetibilidad es alta, de centésimas incluso, definida según norma ISO 9283. El problema es que, estos rangos de repetibilidad sólo se garantizan si no se hacen esfuerzos o éstos son despreciables (caso de mover piezas). Aunque las inercias de mover piezas a altas velocidades hacen que la trayectoria intermedia tenga poca precisión, al inicio y al final (al coger y dejar pieza, p.e.) se hacen a velocidades relativamente bajas que hacen que el efecto de las fuerzas de inercia sean menores y que permiten garantizar la repetibilidad anteriormente indicada. No ocurre así si se quitara la garra y se intercambia con un cabezal motorizado con una herramienta como broca, mandrino, plato de cuchillas, fresas frontales o tangenciales… Las fuerzas ejercidas de mecanizado generarían unos pares en las uniones tan grandes y tan variables que el control del robot no sería capaz de responder (o no está preparado, en un principio) y generaría una desviación en la trayectoria, realizada a baja velocidad, que desencadenaría en un error de posición (ver norma ISO 5458) no asumible para la funcionalidad deseada. Se podría llegar al caso de que la tolerancia alcanzada por un pretendido proceso más exacto diera una dimensión peor que la que daría el proceso de fundición, en principio con mayor variabilidad dimensional en proceso (y por ende con mayor intervalo de tolerancia garantizable). De hecho, en los CNCs, la precisión es muy elevada, (pudiéndose despreciar en la mayoría de los casos) y no es la responsable de, por ejemplo la tolerancia de posición al taladrar un agujero. Factores como, temperatura de la sala y de la pieza, calidad constructiva de los utillajes y rigidez en el amarre, error en el giro de mesas y de colocación de pieza, si lleva agujeros previos o no, si la herramienta está bien equilibrada y el cono es el adecuado para el tipo de mecanizado… influyen más. Es interesante que, un elemento no específico tan común en una planta industrial, en el entorno anteriormente descrito, como es un robot, el cual no sería necesario añadir por disponer de él ya (y por lo tanto la inversión sería muy pequeña), puede mejorar la cadena de valor disminuyendo el costo de fabricación. Y si se pudiera conjugar que ese robot destinado a tareas de manipulación, en los muchos tiempos de espera que va a disfrutar mientras el CNC arranca viruta, pudiese coger un cabezal y apoyar ese mecanizado; sería doblemente interesante. Por lo tanto, se antoja sugestivo poder conocer su comportamiento e intentar explicar qué sería necesario para llevar esto a cabo, motivo de este trabajo. La arquitectura de robot seleccionada es de tipo SCARA. La búsqueda de un robot cómodo de modelar y de analizar cinemática y dinámicamente, sin limitaciones relevantes en la multifuncionalidad de trabajos solicitados, ha llevado a esta elección, frente a otras arquitecturas como por ejemplo los robots antropomórficos de 6 grados de libertad, muy populares a nivel industrial. Este robot dispone de 3 uniones, de las cuales 2 son de tipo par de revolución (1 grado de libertad cada una) y la tercera es de tipo corredera o par cilíndrico (2 grados de libertad). La primera unión, de tipo par de revolución, sirve para unir el suelo (considerado como eslabón número 1) con el eslabón número 2. La segunda unión, también de ese tipo, une el eslabón número 2 con el eslabón número 3. Estos 2 brazos, pueden describir un movimiento horizontal, en el plano X-Y. El tercer eslabón, está unido al eslabón número 4 por la unión de tipo corredera. El movimiento que puede describir es paralelo al eje Z. El robot es de 4 grados de libertad (4 motores). En relación a los posibles trabajos que puede realizar este tipo de robot, su versatilidad abarca tanto operaciones típicas de manipulación como operaciones de arranque de viruta. Uno de los mecanizados más usuales es el taladrado, por lo cual se elige éste para su modelización y análisis. Dentro del taladrado se elegirá para acotar las fuerzas, taladrado en macizo con broca de diámetro 9 mm. El robot se ha considerado por el momento que tenga comportamiento de sólido rígido, por ser el mayor efecto esperado el de los pares en las uniones. Para modelar el robot se utiliza el método de los sistemas multicuerpos. Dentro de este método existen diversos tipos de formulaciones (p.e. Denavit-Hartenberg). D-H genera una cantidad muy grande de ecuaciones e incógnitas. Esas incógnitas son de difícil comprensión y, para cada posición, hay que detenerse a pensar qué significado tienen. Se ha optado por la formulación de coordenadas naturales. Este sistema utiliza puntos y vectores unitarios para definir la posición de los distintos cuerpos, y permite compartir, cuando es posible y se quiere, para definir los pares cinemáticos y reducir al mismo tiempo el número de variables. Las incógnitas son intuitivas, las ecuaciones de restricción muy sencillas y se reduce considerablemente el número de ecuaciones e incógnitas. Sin embargo, las coordenadas naturales “puras” tienen 2 problemas. El primero, que 2 elementos con un ángulo de 0 o 180 grados, dan lugar a puntos singulares que pueden crear problemas en las ecuaciones de restricción y por lo tanto han de evitarse. El segundo, que tampoco inciden directamente sobre la definición o el origen de los movimientos. Por lo tanto, es muy conveniente complementar esta formulación con ángulos y distancias (coordenadas relativas). Esto da lugar a las coordenadas naturales mixtas, que es la formulación final elegida para este TFM. Las coordenadas naturales mixtas no tienen el problema de los puntos singulares. Y la ventaja más importante reside en su utilidad a la hora de aplicar fuerzas motrices, momentos o evaluar errores. Al incidir sobre la incógnita origen (ángulos o distancias) controla los motores de manera directa. El algoritmo, la simulación y la obtención de resultados se ha programado mediante Matlab. Para realizar el modelo en coordenadas naturales mixtas, es preciso modelar en 2 pasos el robot a estudio. El primer modelo se basa en coordenadas naturales. Para su validación, se plantea una trayectoria definida y se analiza cinemáticamente si el robot satisface el movimiento solicitado, manteniendo su integridad como sistema multicuerpo. Se cuantifican los puntos (en este caso inicial y final) que configuran el robot. Al tratarse de sólidos rígidos, cada eslabón queda definido por sus respectivos puntos inicial y final (que son los más interesantes para la cinemática y la dinámica) y por un vector unitario no colineal a esos 2 puntos. Los vectores unitarios se colocan en los lugares en los que se tenga un eje de rotación o cuando se desee obtener información de un ángulo. No son necesarios vectores unitarios para medir distancias. Tampoco tienen por qué coincidir los grados de libertad con el número de vectores unitarios. Las longitudes de cada eslabón quedan definidas como constantes geométricas. Se establecen las restricciones que definen la naturaleza del robot y las relaciones entre los diferentes elementos y su entorno. La trayectoria se genera por una nube de puntos continua, definidos en coordenadas independientes. Cada conjunto de coordenadas independientes define, en un instante concreto, una posición y postura de robot determinada. Para conocerla, es necesario saber qué coordenadas dependientes hay en ese instante, y se obtienen resolviendo por el método de Newton-Rhapson las ecuaciones de restricción en función de las coordenadas independientes. El motivo de hacerlo así es porque las coordenadas dependientes deben satisfacer las restricciones, cosa que no ocurre con las coordenadas independientes. Cuando la validez del modelo se ha probado (primera validación), se pasa al modelo 2. El modelo número 2, incorpora a las coordenadas naturales del modelo número 1, las coordenadas relativas en forma de ángulos en los pares de revolución (3 ángulos; ϕ1, ϕ 2 y ϕ3) y distancias en los pares prismáticos (1 distancia; s). Estas coordenadas relativas pasan a ser las nuevas coordenadas independientes (sustituyendo a las coordenadas independientes cartesianas del modelo primero, que eran coordenadas naturales). Es necesario revisar si el sistema de vectores unitarios del modelo 1 es suficiente o no. Para este caso concreto, se han necesitado añadir 1 vector unitario adicional con objeto de que los ángulos queden perfectamente determinados con las correspondientes ecuaciones de producto escalar y/o vectorial. Las restricciones habrán de ser incrementadas en, al menos, 4 ecuaciones; una por cada nueva incógnita. La validación del modelo número 2, tiene 2 fases. La primera, al igual que se hizo en el modelo número 1, a través del análisis cinemático del comportamiento con una trayectoria definida. Podrían obtenerse del modelo 2 en este análisis, velocidades y aceleraciones, pero no son necesarios. Tan sólo interesan los movimientos o desplazamientos finitos. Comprobada la coherencia de movimientos (segunda validación), se pasa a analizar cinemáticamente el comportamiento con trayectorias interpoladas. El análisis cinemático con trayectorias interpoladas, trabaja con un número mínimo de 3 puntos máster. En este caso se han elegido 3; punto inicial, punto intermedio y punto final. El número de interpolaciones con el que se actúa es de 50 interpolaciones en cada tramo (cada 2 puntos máster hay un tramo), resultando un total de 100 interpolaciones. El método de interpolación utilizado es el de splines cúbicas con condición de aceleración inicial y final constantes, que genera las coordenadas independientes de los puntos interpolados de cada tramo. Las coordenadas dependientes se obtienen resolviendo las ecuaciones de restricción no lineales con el método de Newton-Rhapson. El método de las splines cúbicas es muy continuo, por lo que si se desea modelar una trayectoria en el que haya al menos 2 movimientos claramente diferenciados, es preciso hacerlo en 2 tramos y unirlos posteriormente. Sería el caso en el que alguno de los motores se desee expresamente que esté parado durante el primer movimiento y otro distinto lo esté durante el segundo movimiento (y así sucesivamente). Obtenido el movimiento, se calculan, también mediante fórmulas de diferenciación numérica, las velocidades y aceleraciones independientes. El proceso es análogo al anteriormente explicado, recordando la condición impuesta de que la aceleración en el instante t= 0 y en instante t= final, se ha tomado como 0. Las velocidades y aceleraciones dependientes se calculan resolviendo las correspondientes derivadas de las ecuaciones de restricción. Se comprueba, de nuevo, en una tercera validación del modelo, la coherencia del movimiento interpolado. La dinámica inversa calcula, para un movimiento definido -conocidas la posición, velocidad y la aceleración en cada instante de tiempo-, y conocidas las fuerzas externas que actúan (por ejemplo el peso); qué fuerzas hay que aplicar en los motores (donde hay control) para que se obtenga el citado movimiento. En la dinámica inversa, cada instante del tiempo es independiente de los demás y tiene una posición, una velocidad y una aceleración y unas fuerzas conocidas. En este caso concreto, se desean aplicar, de momento, sólo las fuerzas debidas al peso, aunque se podrían haber incorporado fuerzas de otra naturaleza si se hubiese deseado. Las posiciones, velocidades y aceleraciones, proceden del cálculo cinemático. El efecto inercial de las fuerzas tenidas en cuenta (el peso) es calculado. Como resultado final del análisis dinámico inverso, se obtienen los pares que han de ejercer los cuatro motores para replicar el movimiento prescrito con las fuerzas que estaban actuando. La cuarta validación del modelo consiste en confirmar que el movimiento obtenido por aplicar los pares obtenidos en la dinámica inversa, coinciden con el obtenido en el análisis cinemático (movimiento teórico). Para ello, es necesario acudir a la dinámica directa. La dinámica directa se encarga de calcular el movimiento del robot, resultante de aplicar unos pares en motores y unas fuerzas en el robot. Por lo tanto, el movimiento real resultante, al no haber cambiado ninguna condición de las obtenidas en la dinámica inversa (pares de motor y fuerzas inerciales debidas al peso de los eslabones) ha de ser el mismo al movimiento teórico. Siendo así, se considera que el robot está listo para trabajar. Si se introduce una fuerza exterior de mecanizado no contemplada en la dinámica inversa y se asigna en los motores los mismos pares resultantes de la resolución del problema dinámico inverso, el movimiento real obtenido no es igual al movimiento teórico. El control de lazo cerrado se basa en ir comparando el movimiento real con el deseado e introducir las correcciones necesarias para minimizar o anular las diferencias. Se aplican ganancias en forma de correcciones en posición y/o velocidad para eliminar esas diferencias. Se evalúa el error de posición como la diferencia, en cada punto, entre el movimiento teórico deseado en el análisis cinemático y el movimiento real obtenido para cada fuerza de mecanizado y una ganancia concreta. Finalmente, se mapea el error de posición obtenido para cada fuerza de mecanizado y las diferentes ganancias previstas, graficando la mejor precisión que puede dar el robot para cada operación que se le requiere, y en qué condiciones. -------------- This Master´s Thesis deals with a preliminary characterization of the behaviour for an industrial robot, configured with 4 elements and 4 degrees of freedoms, and subjected to machining forces at its end. Proposed working conditions are those typical from manufacturing plants with aluminium alloys for automotive industry. This type of components comes from a first casting process that produces rough parts. For medium and high volumes, high pressure die casting (HPDC) and low pressure die casting (LPC) are the most used technologies in this first phase. For high pressure die casting processes, most used aluminium alloys are, in simbolic designation according EN 1706 standard (between brackets, its numerical designation); EN AC AlSi9Cu3(Fe) (EN AC 46000) , EN AC AlSi9Cu3(Fe)(Zn) (EN AC 46500), y EN AC AlSi12Cu1(Fe) (EN AC 47100). For low pressure, EN AC AlSi7Mg0,3 (EN AC 42100). For the 3 first alloys, Si allowed limits can exceed 10% content. Fourth alloy has admisible limits under 10% Si. That means, from the point of view of machining, that components made of alloys with Si content above 10% can be considered as equivalent, and the fourth one must be studied separately. Geometrical and dimensional tolerances directly achievables from casting, gathered in standards such as ISO 8062 or DIN 1688-1, establish a limit for this process. Out from those limits, guarantees to achieve batches with objetive ppms currently accepted by market, force to go to subsequent machining process. Those geometries that functionally require a geometrical and/or dimensional tolerance defined according ISO 1101, not capable with initial moulding process, must be obtained afterwards in a machining phase with machining cells. In this case, tolerances achievables with cutting processes are gathered in standards such as ISO 2768. In general terms, machining cells contain several CNCs that they are interrelated and connected by robots that handle parts in process among them. Those robots have at their end a gripper in order to take/remove parts in machining fixtures, in interchange tables to modify position of part, in measurement and control tooling devices, or in entrance/exit conveyors. Repeatibility for robot is tight, even few hundredths of mm, defined according ISO 9283. Problem is like this; those repeatibilty ranks are only guaranteed when there are no stresses or they are not significant (f.e. due to only movement of parts). Although inertias due to moving parts at a high speed make that intermediate paths have little accuracy, at the beginning and at the end of trajectories (f.e, when picking part or leaving it) movement is made with very slow speeds that make lower the effect of inertias forces and allow to achieve repeatibility before mentioned. It does not happens the same if gripper is removed and it is exchanged by an spindle with a machining tool such as a drilling tool, a pcd boring tool, a face or a tangential milling cutter… Forces due to machining would create such big and variable torques in joints that control from the robot would not be able to react (or it is not prepared in principle) and would produce a deviation in working trajectory, made at a low speed, that would trigger a position error (see ISO 5458 standard) not assumable for requested function. Then it could be possible that tolerance achieved by a more exact expected process would turn out into a worst dimension than the one that could be achieved with casting process, in principle with a larger dimensional variability in process (and hence with a larger tolerance range reachable). As a matter of fact, accuracy is very tight in CNC, (its influence can be ignored in most cases) and it is not the responsible of, for example position tolerance when drilling a hole. Factors as, room and part temperature, manufacturing quality of machining fixtures, stiffness at clamping system, rotating error in 4th axis and part positioning error, if there are previous holes, if machining tool is properly balanced, if shank is suitable for that machining type… have more influence. It is interesting to know that, a non specific element as common, at a manufacturing plant in the enviroment above described, as a robot (not needed to be added, therefore with an additional minimum investment), can improve value chain decreasing manufacturing costs. And when it would be possible to combine that the robot dedicated to handling works could support CNCs´ works in its many waiting time while CNCs cut, and could take an spindle and help to cut; it would be double interesting. So according to all this, it would be interesting to be able to know its behaviour and try to explain what would be necessary to make this possible, reason of this work. Selected robot architecture is SCARA type. The search for a robot easy to be modeled and kinematically and dinamically analyzed, without significant limits in the multifunctionality of requested operations, has lead to this choice. Due to that, other very popular architectures in the industry, f.e. 6 DOFs anthropomorphic robots, have been discarded. This robot has 3 joints, 2 of them are revolute joints (1 DOF each one) and the third one is a cylindrical joint (2 DOFs). The first joint, a revolute one, is used to join floor (body 1) with body 2. The second one, a revolute joint too, joins body 2 with body 3. These 2 bodies can move horizontally in X-Y plane. Body 3 is linked to body 4 with a cylindrical joint. Movement that can be made is paralell to Z axis. The robt has 4 degrees of freedom (4 motors). Regarding potential works that this type of robot can make, its versatility covers either typical handling operations or cutting operations. One of the most common machinings is to drill. That is the reason why it has been chosen for the model and analysis. Within drilling, in order to enclose spectrum force, a typical solid drilling with 9 mm diameter. The robot is considered, at the moment, to have a behaviour as rigid body, as biggest expected influence is the one due to torques at joints. In order to modelize robot, it is used multibodies system method. There are under this heading different sorts of formulations (f.e. Denavit-Hartenberg). D-H creates a great amount of equations and unknown quantities. Those unknown quatities are of a difficult understanding and, for each position, one must stop to think about which meaning they have. The choice made is therefore one of formulation in natural coordinates. This system uses points and unit vectors to define position of each different elements, and allow to share, when it is possible and wished, to define kinematic torques and reduce number of variables at the same time. Unknown quantities are intuitive, constrain equations are easy and number of equations and variables are strongly reduced. However, “pure” natural coordinates suffer 2 problems. The first one is that 2 elements with an angle of 0° or 180°, give rise to singular positions that can create problems in constrain equations and therefore they must be avoided. The second problem is that they do not work directly over the definition or the origin of movements. Given that, it is highly recommended to complement this formulation with angles and distances (relative coordinates). This leads to mixed natural coordinates, and they are the final formulation chosen for this MTh. Mixed natural coordinates have not the problem of singular positions. And the most important advantage lies in their usefulness when applying driving forces, torques or evaluating errors. As they influence directly over origin variable (angles or distances), they control motors directly. The algorithm, simulation and obtaining of results has been programmed with Matlab. To design the model in mixed natural coordinates, it is necessary to model the robot to be studied in 2 steps. The first model is based in natural coordinates. To validate it, it is raised a defined trajectory and it is kinematically analyzed if robot fulfils requested movement, keeping its integrity as multibody system. The points (in this case starting and ending points) that configure the robot are quantified. As the elements are considered as rigid bodies, each of them is defined by its respectively starting and ending point (those points are the most interesting ones from the point of view of kinematics and dynamics) and by a non-colinear unit vector to those points. Unit vectors are placed where there is a rotating axis or when it is needed information of an angle. Unit vectors are not needed to measure distances. Neither DOFs must coincide with the number of unit vectors. Lengths of each arm are defined as geometrical constants. The constrains that define the nature of the robot and relationships among different elements and its enviroment are set. Path is generated by a cloud of continuous points, defined in independent coordinates. Each group of independent coordinates define, in an specific instant, a defined position and posture for the robot. In order to know it, it is needed to know which dependent coordinates there are in that instant, and they are obtained solving the constraint equations with Newton-Rhapson method according to independent coordinates. The reason to make it like this is because dependent coordinates must meet constraints, and this is not the case with independent coordinates. When suitability of model is checked (first approval), it is given next step to model 2. Model 2 adds to natural coordinates from model 1, the relative coordinates in the shape of angles in revoluting torques (3 angles; ϕ1, ϕ 2 and ϕ3) and distances in prismatic torques (1 distance; s). These relative coordinates become the new independent coordinates (replacing to cartesian independent coordinates from model 1, that they were natural coordinates). It is needed to review if unit vector system from model 1 is enough or not . For this specific case, it was necessary to add 1 additional unit vector to define perfectly angles with their related equations of dot and/or cross product. Constrains must be increased in, at least, 4 equations; one per each new variable. The approval of model 2 has two phases. The first one, same as made with model 1, through kinematic analysis of behaviour with a defined path. During this analysis, it could be obtained from model 2, velocities and accelerations, but they are not needed. They are only interesting movements and finite displacements. Once that the consistence of movements has been checked (second approval), it comes when the behaviour with interpolated trajectories must be kinematically analyzed. Kinematic analysis with interpolated trajectories work with a minimum number of 3 master points. In this case, 3 points have been chosen; starting point, middle point and ending point. The number of interpolations has been of 50 ones in each strecht (each 2 master points there is an strecht), turning into a total of 100 interpolations. The interpolation method used is the cubic splines one with condition of constant acceleration both at the starting and at the ending point. This method creates the independent coordinates of interpolated points of each strecht. The dependent coordinates are achieved solving the non-linear constrain equations with Newton-Rhapson method. The method of cubic splines is very continuous, therefore when it is needed to design a trajectory in which there are at least 2 movements clearly differents, it is required to make it in 2 steps and join them later. That would be the case when any of the motors would keep stopped during the first movement, and another different motor would remain stopped during the second movement (and so on). Once that movement is obtained, they are calculated, also with numerical differenciation formulas, the independent velocities and accelerations. This process is analogous to the one before explained, reminding condition that acceleration when t=0 and t=end are 0. Dependent velocities and accelerations are calculated solving related derivatives of constrain equations. In a third approval of the model it is checked, again, consistence of interpolated movement. Inverse dynamics calculates, for a defined movement –knowing position, velocity and acceleration in each instant of time-, and knowing external forces that act (f.e. weights); which forces must be applied in motors (where there is control) in order to obtain requested movement. In inverse dynamics, each instant of time is independent of the others and it has a position, a velocity, an acceleration and known forces. In this specific case, it is intended to apply, at the moment, only forces due to the weight, though forces of another nature could have been added if it would have been preferred. The positions, velocities and accelerations, come from kinematic calculation. The inertial effect of forces taken into account (weight) is calculated. As final result of the inverse dynamic analysis, the are obtained torques that the 4 motors must apply to repeat requested movement with the forces that were acting. The fourth approval of the model consists on confirming that the achieved movement due to the use of the torques obtained in the inverse dynamics, are in accordance with movements from kinematic analysis (theoretical movement). For this, it is necessary to work with direct dynamics. Direct dynamic is in charge of calculating the movements of robot that results from applying torques at motors and forces at the robot. Therefore, the resultant real movement, as there was no change in any condition of the ones obtained at the inverse dynamics (motor torques and inertial forces due to weight of elements) must be the same than theoretical movement. When these results are achieved, it is considered that robot is ready to work. When a machining external force is introduced and it was not taken into account before during the inverse dynamics, and torques at motors considered are the ones of the inverse dynamics, the real movement obtained is not the same than the theoretical movement. Closed loop control is based on comparing real movement with expected movement and introducing required corrrections to minimize or cancel differences. They are applied gains in the way of corrections for position and/or tolerance to remove those differences. Position error is evaluated as the difference, in each point, between theoretical movemment (calculated in the kinematic analysis) and the real movement achieved for each machining force and for an specific gain. Finally, the position error obtained for each machining force and gains are mapped, giving a chart with the best accuracy that the robot can give for each operation that has been requested and which conditions must be provided.
Resumo:
Esta Tesis presenta un estudio sobre el comportamiento vibroacústico de estructuras espaciales que incluyen capas de aire delgadas, así como sobre su modelización numérica. Las capas de aire pueden constituir un elemento fundamental en estos sistemas, como paneles solares plegados, que se consideran el caso de estudio en este trabajo. Para evaluar la influencia de las capas de aire en la respuesta dinámica del sistema se presenta el uso de modelos unidimensionales. La modelización de estos sistemas se estudia para los rangos de baja y alta frecuencia. En el rango de baja frecuencia se propone un conjunto de estrategias de simulación basadas en técnicas numéricas que se utilizan habitualmente en la industria aeroespacial para facilitar la aplicación de los resultados de la Tesis en los modelos numéricos actuales. Los resultados muestran el importante papel de las capas de aire en la respuesta del sistema. El uso de modelos basados en elementos finitos o de contorno para estos elementos proporciona resultados equivalentes aunque la aplicabilidad de estos últimos puede estar condicionada por la geometría del problema. Se estudia asimismo el uso del Análisis Estadístico de la Energía (SEA) para estos elementos. Una de las estrategias de simulación propuestas, que incluye una formulación energética para el aire que rodea a la estructura, se propone como estimador preliminar de la respuesta del sistema y sus frecuencias propias. Para el rango de alta frecuencia, se estudia la influencia de la definición del propio modelo SEA. Se presenta el uso de técnicas de reducción para determinar una matriz de pérdidas SEA reducida para definiciones incompletas del sistema (si algún elemento que interactúa con el resto no se incluye en el modelo). Esta nueva matriz tiene en cuenta la contribución de las subestructuras que no se consideran parte del modelo y que suelen ignorarse en el procedimiento habitual para reducir el tamaño del mismo. Esta matriz permite también analizar sistemas que incluyen algún componente con problemas de accesibilidad para medir su respuesta. Respecto a la determinación de los factores de pérdidas del sistema, se presenta una metodología que permite abordar casos en los que el método usual, el Método de Inyección de Potencia (PIM), no puede usarse. Se presenta un conjunto de métodos basados en la técnicas de optimización y de actualización de modelos para casos en los que no se puede medir la respuesta de todos los elementos del sistema y también para casos en los que no todos los elementos pueden ser excitados, abarcando un conjunto de casos más amplio que el abordable con el PIM. Para ambos rangos de frecuencia se presentan diferentes casos de análisis: modelos numéricos para validar los métodos propuestos y un panel solar plegado como caso experimental que pone de manifiesto la aplicación práctica de los métodos presentados en la Tesis. ABSTRACT This Thesis presents an study on the vibro-acoustic behaviour of spacecraft structures with thin air layers and their numerical modelling. The air layers can play a key role in these systems as solar wings in folded configuration that constitute the study case for this Thesis. A method based on one-dimensional models is presented to assess the influence of the air layers in the dynamic response of the system. The modelling of such systems is studied for low and high frequency ranges. In the low frequency range a set of modelling strategies are proposed based on numerical techniques used in the industry to facilitate the application of the results in the current numerical models. Results show the active role of the air layers in the system response and their great level of influence. The modelling of these elements by means of Finite Elements (FE) and Boundary Elements (BE) provide equivalent results although the applicability of BE models can be conditioned by the geometry of the problem. The use of Statistical Energy Analysis (SEA) for these systems is also presented. Good results on the system response are found for models involving SEA beyond the usual applicability limit. A simulation strategy, involving energetic formulation for the surrounding fluid is proposed as fast preliminary approach for the system response and the coupled eigenfrequencies. For the high frequency range, the influence of the definition of the SEA model is presented. Reduction techniques are used to determine a Reduced SEA Loss Matrix if the system definition is not complete and some elements, which interact with the rest, are not included. This new matrix takes into account the contribution of the subsystems not considered that are neglected in the usual approach for decreasing the size of the model. It also allows the analysis of systems with accessibility restrictions on some element in order to measure its response. Regarding the determination of the loss factors of a system, a methodology is presented for cases in which the usual Power Injection Method (PIM) can not be applied. A set of methods are presented for cases in which not all the subsystem responses can be measured or not all the subsystems can be excited, as solar wings in folded configuration. These methods, based on error minimising and model updating techniques can be used to calculate the system loss factors in a set of cases wider than the PIM’s. For both frequency ranges, different test problems are analysed: Numerical models are studied to validate the methods proposed; an experimental case consisting in an actual solar wing is studied on both frequency ranges to highlight the industrial application of the new methods presented in the Thesis.
Resumo:
La diabetes mellitus es una enfermedad que se caracteriza por la nula o insuficiente producción de insulina, o la resistencia del organismo a la misma. La insulina es una hormona que ayuda a que la glucosa llegue a los tejidos periféricos y al sistema nervioso para suministrar energía. Actualmente existen dos tipos de terapias aplicada en tejido subcutáneo: mediante inyección múltiple realizada con plumas, y la otra es mediante infusión continua de insulina por bomba (CSII). El mayor problema de esta terapia son los retardos por la absorción, tanto de los carbohidratos como de la insulina, y los retardos introducidos por el sensor subcutáneo de glucosa que mide la glucosa del líquido intersticial, lo deseable es controlar la glucosa en sangre. Para intentar independizar al paciente de su enfermedad se está trabajando en el desarrollo del páncreas endocrino artificial (PEA) que dotaría al paciente de una bomba de insulina, un sensor de glucosa y un controlador, el cual se encargaría de la toma de decisiones de las infusiones de insulina. Este proyecto persigue el diseño de un regulador en modo de funcionamiento en CL, con el objetivo de conseguir una regulación óptima del nivel de glucosa en sangre. El diseño de dicho regulador va a ser acometido utilizando la teoría del control por modelo interno (IMC). Esta teoría se basa en la idea de que es necesario realimentar la respuesta de un modelo aproximado del proceso que se quiere controlar. La salida del modelo, comparada con la del proceso real nos da la incertidumbre del modelo de la planta, frente a la planta real. Dado que según la teoría del modelo interno, estas diferencias se dan en las altas frecuencias, la teoría IMC propone un filtro paso bajo como regulador en serie con la inversa del modelo de la planta para conseguir el comportamiento deseado. Además se pretende implementar un Predictor Smith para minimizar los efectos del retardo de la medida del sensor. En el proyecto para conseguir la viabilidad del PEA se ha adaptado el controlador IMC clásico utilizando las ganancias estáticas de un modelo de glucosa, a partir de la ruta subcutánea de infusión y la vía subcutánea de medida. El modo de funcionamiento del controlador en SCL mejora el rango de normoglucemia, necesitando la intervención del paciente indicando anticipadamente el momento de las ingestas al controlador. El uso de un control SCL con el Predictor de Smith mejora los resultados pues se añade al controlador una variable sobre las ingestas con la participación del paciente. ABSTRACT. Diabetes mellitus is a group of metabolic diseases in which a person has high blood sugar, due to the body does not produce enough insulin, or because cells do not respond to the insulin produced. The insulin is a hormone that helps the glucose to reach to outlying tissues and the nervous system to supply energy. There are currently two types of therapies applied in subcutaneous tissue: the first one consists in using the intensive therapy with an insulin pen, and the other one is by continuous subcutaneous insulin infusion (CSII). The biggest problems of this therapy are the delays caused by the absorption of carbohydrates and insulin, and the delays introduced by the subcutaneous glucose sensor that measures glucose from interstitial fluid, it is suitable to control glucose blood. To try to improve these patients quality of life, work is being done on the development of an artificial endocrine pancreas (PEA) consisting of a subcutaneous insulin pump, a subcutaneous glucose sensor and an algorithm of glucose control, which would calculate the bolus that the pump would infuse to patient. This project aims to design a controller for closed-loop therapy, with the objective of obtain an optimal regulation of blood glucose level. The design of this controller will be formed using the theory of internal model control (IMC). This theory is based on the uncertainties given by a model to feedback the system control. Output model, in comparison with the actual process gives the uncertainty of the plant model, compared to the real plant. Since the theory of the internal model, these differences occur at high frequencies, the theory proposes IMC as a low pass filter regulator in series with the inverse model of the plant to get the required behavior. In addition, it will implement a Smith Predictor to minimize the effects of the delay measurement sensor. The project for the viability of PEA has adapted the classic IMC controller using the gains static of glucose model from the subcutaneous infusion and subcutaneous measuring. In simulation the SemiClosed-Loop controller get on the normoglycemia range, requiring patient intervention announce the bolus priming connected to intakes. Using an SCL control with the Smith Predictor improves the outcome because a variable about intakes is added to the controller through patient intervention.
Resumo:
El objetivo de este Proyecto Final de Carrera es la realización de un ensayo de fiabilidad de componentes electrónicos, más concretamente de diodos LED, con el fin de estudiar su comportamiento a lo largo del tiempo de vida. Debido a la larga duración de los LEDs, un ensayo de este tipo podría durar años, por lo que es necesario realizar un ensayo acelerado que acorte significativamente el tiempo del experimento, para ello, han de someterse a esfuerzos mayores que en condiciones normales de funcionamiento. En la actualidad, los LEDs son usados en infinidad de aplicaciones, debido a sus múltiples ventajas respecto a otros sistemas de iluminación o señalización convencionales. En numerosos casos se utilizan en el exterior, soportando cambios de temperaturas y de humedad elevados, de ahí, la importancia de realizar ensayos de fiabilidad, que muestren sus posibles causas de fallo, los efectos que producen estos fallos y los aspectos de diseño, fabricación y mantenimiento que puedan afectarles. Como consecuencia del envejecimiento de los LEDs, pueden mostrar una reducción en el flujo luminoso y un empeoramiento de las propiedades cromáticas. Los LEDs utilizados en este Proyecto son de AlInGaP, rojos, de alta luminosidad. Para acelerar el ensayo, se utilizará una cámara climática que simule unas condiciones ambientales determinadas, en concreto, 85º C y 85% HR. Además, se realiza una monitorización periódica, siendo necesaria la utilización de un sistema automático de medida diseñado en LabVIEW, el cual, de manera simultánea realizará medidas y gestionará la inyección de corriente a los LEDs mientras se encuentren en el interior de la cámara climática. Se fabrican dos placas con 4 tiras de LEDs para inyectar un nivel de corriente diferente en cada una y así poder comparar la degradación en función de este parámetro. Fuera de la cámara climática se van a medir las curvas características de tensióncorriente de cada LED a una temperatura ambiente constante, fijada por un módulo Peltier. También se realizarán medidas de potencia luminosa y de espectro de emisión. Se analizarán los resultados obtenidos de cada una de las medidas y se realizará un estudio de fiabilidad y del proceso de degradación sufrido por los LEDs. Este PFC se puede dividir en las siguientes fases de trabajo, siendo el ensayo la parte más larga en el tiempo: · Búsqueda de bibliografía, documentación y normas aplicables. · Familiarización con los equipos y software, estudiando el manejo y funcionamiento de la cámara climática temperatura-humedad y el software a aplicar (LabVIEW y software del espectrómetro). · Desarrollo del hardware y sistemas necesarios para la realización del ensayo. · Realización del ensayo. · Análisis de resultados. ABSTRACT. The objective of this end of degree project is conducting an essay reliability of electronic components, more concretely LEDs, in order to study their behavior throughout its lifespan. Due to the long duration of the LEDs, a essay of this type could last for years, so it is necessary to perform an accelerated essay which significantly shorten the time of the experiment, testing should be subjected to greater efforts than in normal operation. Today, LEDs are used in many applications due to its many advantages over other conventional lighting systems or signaling. In numerous cases are used on the outside, enduring high changes in temperature and humidity, hence the importance of reliability essays, showing the possible causes of failure, the effects produced by these failures and aspects of design, manufacturing and maintenance that may affect them. As a result of the ageing of the LEDs, they may show a reduction in light output and a worsening of the chromatic properties. The LEDs used in this project are AlInGaP, red and high brightness. To speed up the essay will be used a climatic chamber to simulate specific environmental conditions, specifically 85 ° C and 85 % RH. In addition, is pe rformed a periodic monitoring using an automatic measurement system designed in LabVIEW , which , simultaneously will performed measurements and will manage the injection current to the LEDs while are inside of the climatic chamber. 4 strips of LEDs are created to inject a different level of current in each, so can compare the degradation in terms of this parameter. Out of the climatic chamber are obtained the characteristic curves of voltage-current of each LED at a constant room temperature, set by a Peltier module. Also, measures light power and the emitted spectrum. The results of each of the measures and a reliability study and degradation suffered by the LEDs will be discussed. This PFC can be divided into the following steps, the essay being the longest part: • Search bibliography, documentation and standards. • Familiarization with equipment and software, studying the management and the operation of the temperature-humidity environmental chamber and applying software (LabVIEW applications and spectrometer software). • Development of hardware and systems necessary for the conduct of the essay. • Carrying out the essay. • Analysis of results.
Resumo:
El aumento de la temperatura media de la Tierra durante el pasado siglo en casi 1 ºC; la subida del nivel medio del mar; la disminución del volumen de hielo y nieve terrestres; la fuerte variabilidad del clima y los episodios climáticos extremos que se vienen sucediendo durante las ultimas décadas; y el aumento de las epidemias y enfermedades infecciosas son solo algunas de las evidencias del cambio climático actual, causado, principalmente, por la acumulación de gases de efecto invernadero en la atmósfera por actividades antropogénicas. La problemática y preocupación creciente surgida a raíz de estos fenómenos, motivo que, en 1997, se adoptara el denominado “Protocolo de Kyoto” (Japón), por el que los países firmantes adoptaron diferentes medidas destinadas a controlar y reducir las emisiones de los citados gases. Entre estas medidas cabe destacar las tecnologías CAC, enfocadas a la captura, transporte y almacenamiento de CO2. En este contexto se aprobó, en octubre de 2008, el Proyecto Singular Estratégico “Tecnologías avanzadas de generación, captura y almacenamiento de CO2” (PSE-120000-2008-6), cofinanciado por el Ministerio de Ciencia e Innovación y el FEDER, el cual abordaba, en su Subproyecto “Almacenamiento Geológico de CO2” (PSS-120000-2008-31), el estudio detallado, entre otros, del Análogo Natural de Almacenamiento y Escape de CO2 de la cuenca de Ganuelas-Mazarrón (Murcia). Es precisamente en el marco de dicho Proyecto en el que se ha realizado este trabajo, cuyo objetivo final ha sido el de predecir el comportamiento y evaluar la seguridad, a corto, medio y largo plazo, de un Almacenamiento Geológico Profundo de CO2 (AGP-CO2), mediante el estudio integral del citado análogo natural. Este estudio ha comprendido: i) la contextualización geológica e hidrogeológica de la cuenca, así como la investigación geofísica de la misma; ii) la toma de muestras de aguas de algunos acuíferos seleccionados con el fin de realizar su estudio hidrogeoquímico e isotópico; iii) la caracterización mineralógica, petrográfica, geoquímica e isotópica de los travertinos precipitados a partir de las aguas de algunos de los sondeos de la cuenca; y iv) la medida y caracterización química e isotópica de los gases libres y disueltos detectados en la cuenca, con especial atención al CO2 y 222Rn. Esta información, desarrollada en capítulos independientes, ha permitido realizar un modelo conceptual de funcionamiento del sistema natural que constituye la cuenca de Ganuelas-Mazarrón, así como establecer las analogías entre este y un AGP-CO2, con posibles escapes naturales y/o antropogénicos. La aplicación de toda esta información ha servido, por un lado, para predecir el comportamiento y evaluar la seguridad, a corto, medio y largo plazo, de un AGP-CO2 y, por otro, proponer una metodología general aplicable al estudio de posibles emplazamientos de AGP-CO2 desde la perspectiva de los reservorios naturales de CO2. Los resultados más importantes indican que la cuenca de Ganuelas-Mazarrón se trata de una cubeta o fosa tectónica delimitada por fallas normales, con importantes saltos verticales, que hunden al substrato rocoso (Complejo Nevado-Filabride), y rellenas, generalmente, por materiales volcánicos-subvolcánicos ácidos. Además, esta cuenca se encuentra rellena por formaciones menos resistivas que son, de muro a techo, las margas miocenas, predominantes y casi exclusivas de la cuenca, y los conglomerados y gravas pliocuaternarias. El acuífero salino profundo y enriquecido en CO2, puesto de manifiesto por la xx exploración geotérmica realizada en dicha cuenca durante la década de los 80 y objeto principal de este estudio, se encuentra a techo de los materiales del Complejo Nevado-Filabride, a una profundidad que podría superar los 800 m, según los datos de la investigación mediante sondeos y geofísica. Por ello, no se descarta la posibilidad de que el CO2 se encuentre en estado supe critico, por lo que la citada cuenca reuniría las características principales de un almacenamiento geológico natural y profundo de CO2, o análogo natural de un AGP-CO2 en un acuífero salino profundo. La sobreexplotación de los acuíferos mas someros de la cuenca, con fines agrícolas, origino, por el descenso de sus niveles piezométricos y de la presión hidrostática, el ascenso de las aguas profundas, salinas y enriquecidas en CO2, las cuales son las responsables de la contaminación de dichos acuíferos. El estudio hidrogeoquímico de las aguas de los acuíferos investigados muestra una gran variedad de hidrofacies, incluso en aquellos de litología similar. La alta salinidad de estas aguas las hace inservibles tanto para el consumo humano como para fines agrícolas. Además, el carácter ligeramente ácido de la mayoría de estas aguas determina que tengan gran capacidad para disolver y transportar, hacia la superficie, elementos pesados y/o tóxicos, entre los que destaca el U, elemento abundante en las rocas volcánicas ácidas de la cuenca, con contenidos de hasta 14 ppm, y en forma de uraninita submicroscópica. El estudio isotópico ha permitido discernir el origen, entre otros, del C del DIC de las aguas (δ13C-DIC), explicándose como una mezcla de dos componentes principales: uno, procedente de la descomposición térmica de las calizas y mármoles del substrato y, otro, de origen edáfico, sin descartar una aportación menor de C de origen mantélico. El estudio de los travertinos que se están formando a la salida de las aguas de algunos sondeos, por la desgasificación rápida de CO2 y el consiguiente aumento de pH, ha permitido destacar este fenómeno, por analogía, como alerta de escapes de CO2 desde un AGP-CO2. El análisis de los gases disueltos y libres, con especial atención al CO2 y al 222Rn asociado, indican que el C del CO2, tanto disuelto como en fase libre, tiene un origen similar al del DIC, confirmándose la menor contribución de CO2 de origen mantélico, dada la relación R/Ra del He existente en estos gases. El 222Rn sería el generado por el decaimiento radiactivo del U, particularmente abundante en las rocas volcánicas de la cuenca, y/o por el 226Ra procedente del U o del existente en los yesos mesinienses de la cuenca. Además, el CO2 actúa como carrier del 222Rn, hecho evidenciado en las anomalías positivas de ambos gases a ~ 1 m de profundidad y relacionadas principalmente con perturbaciones naturales (fallas y contactos) y antropogénicas (sondeos). La signatura isotópica del C a partir del DIC, de los carbonatos (travertinos), y del CO2 disuelto y libre, sugiere que esta señal puede usarse como un excelente trazador de los escapes de CO2 desde un AGPCO2, en el cual se inyectara un CO2 procedente, generalmente, de la combustión de combustibles fósiles, con un δ13C(V-PDB) de ~ -30 ‰. Estos resultados han permitido construir un modelo conceptual de funcionamiento del sistema natural de la cuenca de Ganuelas-Mazarrón como análogo natural de un AGP-CO2, y establecer las relaciones entre ambos. Así, las analogías mas importantes, en cuanto a los elementos del sistema, serian la existencia de: i) un acuífero salino profundo enriquecido en CO2, que seria análoga a la formación almacén de un AGPxxi CO2; ii) una formación sedimentaria margosa que, con una potencia superior a 500 m, se correspondería con la formación sello de un AGP-CO2; y iii) acuíferos mas someros con aguas dulces y aptas para el consumo humano, rocas volcánicas ricas en U y fallas que se encuentran selladas por yesos y/o margas; elementos que también podrían concurrir en un emplazamiento de un AGP-CO2. Por otro lado, los procesos análogos mas importantes identificados serian: i) la inyección ascendente del CO2, que seria análoga a la inyección de CO2 de origen antropogénico, pero este con una signatura isotópica δ13C(V-PDB) de ~ -30 ‰; ii) la disolución de CO2 y 222Rn en las aguas del acuífero profundo, lo que seria análogo a la disolución de dichos gases en la formación almacén de un AGP-CO2; iii) la contaminación de los acuíferos mas someros por el ascenso de las aguas sobresaturadas en CO2, proceso que seria análogo a la contaminación que se produciría en los acuíferos existentes por encima de un AGP-CO2, siempre que este se perturbara natural (reactivación de fallas) o artificialmente (sondeos); iv) la desgasificación (CO2 y gases asociados, entre los que destaca el 222Rn) del acuífero salino profundo a través de sondeos, proceso análogo al que pudiera ocurrir en un AGP-CO2 perturbado; y v) la formación rápida de travertinos, proceso análogo indicativo de que el AGP-CO2 ha perdido su estanqueidad. La identificación de las analogías más importantes ha permitido, además, analizar y evaluar, de manera aproximada, el comportamiento y la seguridad, a corto, medio y largo plazo, de un AGP-CO2 emplazado en un contexto geológico similar al sistema natural estudiado. Para ello se ha seguido la metodología basada en el análisis e identificación de los FEPs (Features, Events and Processes), los cuales se han combinado entre sí para generar y analizar diferentes escenarios de evolución del sistema (scenario analysis). Estos escenarios de evolución identificados en el sistema natural perturbado, relacionados con la perforación de sondeos, sobreexplotación de acuíferos, precipitación rápida de travertinos, etc., serian análogos a los que podrían ocurrir en un AGP-CO2 que también fuera perturbado antropogénicamente, por lo que resulta totalmente necesario evitar la perturbación artificial de la formación sello del AGPCO2. Por último, con toda la información obtenida se ha propuesto una metodología de estudio que pueda aplicarse al estudio de posibles emplazamientos de un AGP-CO2 desde la perspectiva de los reservorios naturales de CO2, sean estancos o no. Esta metodología comprende varias fases de estudio, que comprendería la caracterización geológico-estructural del sitio y de sus componentes (agua, roca y gases), la identificación de las analogías entre un sistema natural de almacenamiento de CO2 y un modelo conceptual de un AGP-CO2, y el establecimiento de las implicaciones para el comportamiento y la seguridad de un AGP-CO2. ABSTRACT The accumulation of the anthropogenic greenhouse gases in the atmosphere is the main responsible for: i) the increase in the average temperature of the Earth over the past century by almost 1 °C; ii) the rise in the mean sea level; iii) the drop of the ice volume and terrestrial snow; iv) the strong climate variability and extreme weather events that have been happening over the last decades; and v) the spread of epidemics and infectious diseases. All of these events are just some of the evidence of current climate change. The problems and growing concern related to these phenomena, prompted the adoption of the so-called "Kyoto Protocol" (Japan) in 1997, in which the signatory countries established different measurements to control and reduce the emissions of the greenhouse gases. These measurements include the CCS technologies, focused on the capture, transport and storage of CO2. Within this context, it was approved, in October 2008, the Strategic Singular Project "Tecnologías avanzadas de generación, captura y almacenamiento de CO2" (PSE-120000-2008-6), supported by the Ministry of Science and Innovation and the FEDER funds. This Project, by means of the Subproject "Geological Storage of CO2" (PSS- 120000-2008-31), was focused on the detailed study of the Natural Analogue of CO2 Storage and Leakage located in the Ganuelas-Mazarron Tertiary basin (Murcia), among other Spanish Natural Analogues. This research work has been performed in the framework of this Subproject, being its final objective to predict the behaviour and evaluate the safety, at short, medium and long-term, of a CO2 Deep Geological Storage (CO2-DGS) by means of a comprehensive study of the abovementioned Natural Analogue. This study comprises: i) the geological and hydrogeological context of the basin and its geophysical research; ii) the water sampling of the selected aquifers to establish their hydrogeochemical and isotopic features; iii) the mineralogical, petrographic, geochemical and isotopic characterisation of the travertines formed from upwelling groundwater of several hydrogeological and geothermal wells; and iv) the measurement of the free and dissolved gases detected in the basin, as well as their chemical and isotopic characterisation, mainly regarding CO2 and 222Rn. This information, summarised in separate chapters in the text, has enabled to build a conceptual model of the studied natural system and to establish the analogies between both the studied natural system and a CO2-DGS, with possible natural and/or anthropogenic escapes. All this information has served, firstly, to predict the behaviour and to evaluate the safety, at short, medium and long-term, of a CO2-DGS and, secondly, to propose a general methodology to study suitable sites for a CO2-DGS, taking into account the lessons learned from this CO2 natural reservoir. The main results indicate that the Ganuelas-Mazarron basin is a graben bounded by normal faults with significant vertical movements, which move down the metamorphic substrate (Nevado-Filabride Complex), and filled with acid volcanic-subvolcanic rocks. Furthermore, this basin is filled with two sedimentary formations: i) the Miocene marls, which are predominant and almost exclusive in the basin; xxiv and ii) the Plio-Quaternary conglomerates and gravels. A deep saline CO2-rich aquifer was evidenced in this basin as a result of the geothermal exploration wells performed during the 80s, located just at the top of the Nevado-Filabride Complex and at a depth that could exceed 800 m, according to the geophysical exploration performed. This saline CO2-rich aquifer is precisely the main object of this study. Therefore, it is not discarded the possibility that the CO2 in this aquifer be in supercritical state. Consequently, the aforementioned basin gathers the main characteristics of a natural and deep CO2 geological storage, or natural analogue of a CO2-DGS in a deep saline aquifer. The overexploitation of the shallow aquifers in this basin for agriculture purposes caused the drop of the groundwater levels and hydrostatic pressures, and, as a result, the ascent of the deep saline and CO2-rich groundwater, which is the responsible for the contamination of the shallow and fresh aquifers. The hydrogeochemical features of groundwater from the investigated aquifers show the presence of very different hydrofacies, even in those with similar lithology. The high salinity of this groundwater prevents the human and agricultural uses. In addition, the slightly acidic character of most of these waters determines their capacity to dissolve and transport towards the surface heavy and/or toxic elements, among which U is highlighted. This element is abundant in the acidic volcanic rocks of the basin, with concentrations up to 14 ppm, mainly as sub-microscopic uraninite crystals. The isotopic study of this groundwater, particularly the isotopic signature of C from DIC (δ13C-DIC), suggests that dissolved C can be explained considering a mixture of C from two main different sources: i) from the thermal decomposition of limestones and marbles forming the substrate; and ii) from edaphic origin. However, a minor contribution of C from mantle degassing cannot be discarded. The study of travertines being formed from upwelling groundwater of several hydrogeological and geothermal wells, as a result of the fast CO2 degassing and the pH increase, has allowed highlighting this phenomenon, by analogy, as an alert for the CO2 leakages from a CO2-DGS. The analysis of the dissolved and free gases, with special attention to CO2 and 222Rn, indicates that the C from the dissolved and free CO2 has a similar origin to that of the DIC. The R/Ra ratio of He corroborates the minor contribution of CO2 from the mantle degassing. Furthermore, 222Rn is generated by the radioactive decay of U, particularly abundant in the volcanic rocks of the basin, and/or by 226Ra from the U or from the Messinian gypsum in the basin. Moreover, CO2 acts as a carrier of the 222Rn, a fact evidenced by the positive anomalies of both gases at ~ 1 m depth and mainly related to natural (faults and contacts) and anthropogenic (wells) perturbations. The isotopic signature of C from DIC, carbonates (travertines), and dissolved and free CO2, suggests that this parameter can be used as an excellent tracer of CO2 escapes from a CO2-DGS, in which CO2 usually from the combustion of fossil fuels, with δ13C(V-PDB) of ~ -30 ‰, will be injected. All of these results have allowed to build a conceptual model of the behaviour of the natural system studied as a natural analogue of a CO2-DGS, as well as to establish the relationships between both natural xxv and artificial systems. Thus, the most important analogies, regarding the elements of the system, would be the presence of: i) a deep saline CO2-rich aquifer, which would be analogous to the storage formation of a CO2-DGS; ii) a marly sedimentary formation with a thickness greater than 500 m, which would correspond to the sealing formation of a CO2-DGS; and iii) shallow aquifers with fresh waters suitable for human consumption, U-rich volcanic rocks, and faults that are sealed by gypsums and/or marls; geological elements that could also be present in a CO2-DGS. On the other hand, the most important analogous processes identified are: i) the upward injection of CO2, which would be analogous to the downward injection of the anthropogenic CO2, this last with a δ13C(V-PDB) of ~ -30 ‰; ii) the dissolution of CO2 and 222Rn in groundwater of the deep aquifer, which would be analogous to the dissolution of these gases in the storage formation of a CO2-DGS; iii) the contamination of the shallow aquifers by the uprising of CO2-oversaturated groundwater, an analogous process to the contamination that would occur in shallow aquifers located above a CO2-DGS, whenever it was naturally (reactivation of faults) or artificially (wells) perturbed; iv) the degassing (CO2 and associated gases, among which 222Rn is remarkable) of the deep saline aquifer through wells, process which could be similar in a perturbed CO2- DGS; v) the rapid formation of travertines, indicating that the CO2-DGS has lost its seal capacity. The identification of the most important analogies has also allowed analysing and evaluating, approximately, the behaviour and safety in the short, medium and long term, of a CO2-DGS hosted in a similar geological context of the natural system studied. For that, it has been followed the methodology based on the analysis and identification of FEPs (Features, Events and Processes) that have been combined together in order to generate and analyse different scenarios of the system evolution (scenario analysis). These identified scenarios in the perturbed natural system, related to boreholes, overexploitation of aquifers, rapid precipitation of travertines, etc., would be similar to those that might occur in a CO2-DGS anthropogenically perturbed, so that it is absolutely necessary to avoid the artificial perturbation of the seal formation of a CO2-DGS. Finally, a useful methodology for the study of possible sites for a CO2-DGS is suggested based on the information obtained from this investigation, taking into account the lessons learned from this CO2 natural reservoir. This methodology comprises several phases of study, including the geological and structural characterisation of the site and its components (water, rock and gases), the identification of the analogies between a CO2 storage natural system and a conceptual model of a CO2-DGS, and the implications regarding the behaviour and safety of a CO2-DGS.