975 resultados para Nanodipoles bowtie modificado


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las uniones estructurales mecánicas y adhesivas requieren la combinación de un número importante de parámetros para la obtención de la continuidad estructural que exigen las condiciones de diseño. Las características de las uniones presentan importantes variaciones, ligadas a las condiciones de ejecución, tanto en uniones mecánicas como especialmente en uniones adhesivas y mixtas (unión mecánica y adhesiva, también conocidas como uniones híbridas). Las propiedades mecánicas de las uniones adhesivas dependen de la naturaleza y propiedades de los adhesivos y también de muchos otros parámetros que influyen directamente en el comportamiento de estas uniones. Algunos de los parámetros más significativos son: el acabado superficial de los materiales, área y espesor de la capa adhesiva, diseño adecuado, secuencia de aplicación, propiedades químicas de la superficie y preparación de los sustratos antes de aplicar el adhesivo. Los mecanismos de adhesión son complejos. En general, cada unión adhesiva solo puede explicarse considerando la actuación conjunta de varios mecanismos de adhesión. No existen adhesivos universales para un determinado material o aplicación, por lo que cada pareja sustrato-adhesivo requiere un particular estudio y el comportamiento obtenido puede variar, significativamente, de uno a otro caso. El fallo de una junta adhesiva depende del mecanismo cohesión-adhesión, ligado a la secuencia y modo de ejecución de los parámetros operacionales utilizados en la unión. En aplicaciones estructurales existen un número muy elevado de sistemas de unión y de posibles sustratos. En este trabajo se han seleccionado cuatro adhesivos diferentes (cianoacrilato, epoxi, poliuretano y silano modificado) y dos procesos de unión mecánica (remachado y clinchado). Estas uniones se han aplicado sobre chapas de acero al carbono en diferentes estados superficiales (chapa blanca, galvanizada y prepintada). Los parámetros operacionales analizados han sido: preparación superficial, espesor del adhesivo, secuencia de aplicación y aplicación de presión durante el curado. Se han analizado tanto las uniones individuales como las uniones híbridas (unión adhesiva y unión mecánica). La combinación de procesos de unión, sustratos y parámetros operacionales ha dado lugar a la preparación y ensayo de más de mil muestras. Pues, debido a la dispersión de resultados característica de las uniones adhesivas, para cada condición analizada se han ensayado seis probetas. Los resultados obtenidos han sido: El espesor de adhesivo utilizado es una variable muy importante en los adhesivos flexibles, donde cuanto menor es el espesor del adhesivo mayor es la resistencia mecánica a cortadura de la unión. Sin embargo en los adhesivos rígidos su influencia es mucho menor. La naturaleza de la superficie es fundamental para una buena adherencia del adhesivo al substrato, que repercute en la resistencia mecánica de la unión. La superficie que mejor adherencia presenta es la prepintada, especialmente cuando existe una alta compatibilidad entre la pintura y el adhesivo. La superficie que peor adherencia tiene es la galvanizada. La secuencia de aplicación ha sido un parámetro significativo en las uniones híbridas, donde los mejores resultados se han obtenido cuando se aplicaba primero el adhesivo y la unión mecánica se realizaba antes del curado del adhesivo. La aplicación de presión durante el curado se ha mostrado un parámetro significativo en los adhesivos con poca capacidad para el relleno de la junta. En los otros casos su influencia ha sido poco relevante. El comportamiento de las uniones estructurales mecánicas y adhesivas en cuanto a la resistencia mecánica de la unión puede variar mucho en función del diseño de dicha unión. La resistencia mecánica puede ser tan grande que falle antes el substrato que la unión. Las mejores resistencias se consiguen diseñando las uniones con adhesivo cianoacrilato, eligiendo adecuadamente las condiciones superficiales y operacionales, por ejemplo chapa blanca aplicando una presión durante el curado de la unión. La utilización de uniones mixtas aumenta muy poco o nada la resistencia mecánica, pero a cambio proporciona una baja dispersión de resultados, siendo destacable para la superficie galvanizada, que es la que presenta peor reproducibilidad cuando se realizan uniones sólo con adhesivo. Las uniones mixtas conducen a un aumento de la deformación antes de la rotura. Los adhesivos dan rotura frágil y las uniones mecánicas rotura dúctil. La unión mixta proporciona ductilidad a la unión. Las uniones mixtas también pueden dar rotura frágil, esto sucede cuando la resistencia del adhesivo es tres veces superior a la resistencia de la unión mecánica. Las uniones híbridas mejoran la rigidez de la junta, sobre todo se aprecia un aumento importante en las uniones mixtas realizadas con adhesivos flexibles, pudiendo decirse que para todos los adhesivos la rigidez de la unión híbrida es superior. ABSTRACT The mechanical and adhesive structural joints require the combination of a large number of parameters to obtain the structural continuity required for the design conditions. The characteristics of the junctions have important variations, linked to performance conditions, in mechanical joints as particular in mixed adhesive joints (mechanical and adhesive joints, also known as hybrid joints). The mechanical properties of the adhesive joints depend of the nature and properties of adhesives and also of many other parameters that directly influence in the behavior of these joints. Some of the most significant parameters are: the surface finished of the material, area and thickness of the adhesive layer, suitable design, and application sequence, chemical properties of the surface and preparation of the substrate before applying the adhesive. Adhesion mechanisms are complex. In general, each adhesive joint can only be explained by considering the combined action of several adhesions mechanisms. There aren’t universal adhesives for a given material or application, so that each pair substrate-adhesive requires a particular study and the behavior obtained can vary significantly from one to another case. The failure of an adhesive joint depends on the cohesion-adhesion mechanism, linked to the sequence and manner of execution of the operational parameters used in the joint. In the structural applications, there are a very high number of joining systems and possible substrates. In this work we have selected four different adhesives (cyanoacrylate, epoxy, polyurethane and silano modified) and two mechanical joining processes (riveting and clinching). These joints were applied on carbon steel with different types of surfaces (white sheet, galvanized and pre-painted). The operational parameters analyzed were: surface preparation, thickness of adhesive, application sequence and application of pressure during curing. We have analyzed individual joints both as hybrid joints (adhesive joint and mechanical joint). The combination of joining processes, substrates and operational parameters has resulted in the preparation and testing of over a thousand specimens. Then, due to the spread of results characteristic of adhesive joints, for each condition analyzed we have tested six samples. The results have been: The thickness of adhesive used is an important variable in the flexible adhesives, where the lower the adhesive thickness greater the shear strength of the joint. However in rigid adhesives is lower influence. The nature of the surface is essential for good adherence of the adhesive to the substrate, which affects the shear strength of the joint. The surface has better adherence is preprinted, especially when there is a high compatibility between the paint and the adhesive. The surface which has poor adherence is the galvanized. The sequence of application has been a significant parameter in the hybrid junctions, where the best results are obtained when applying first the adhesive and the mechanical joint is performed before cured of the adhesive. The application of pressure during curing has shown a significant parameter in the adhesives with little capacity for filler the joint. In other cases their influence has been less relevant. The behavior of structural mechanical and adhesive joints in the shear strength of the joint can vary greatly depending on the design of such a joint. The shear strength may be so large that the substrate fails before the joint. The best shear strengths are achieved by designing the junctions with cyanoacrylate adhesive, by selecting appropriately the surface and operating conditions, for example by white sheet applying a pressure during curing of the joint. The use of hybrid joints no increase shear strength, but instead provides a low dispersion of results, being remarkable for the galvanized surface, which is the having worst reproducibility when performed bonded joints. The hybrid joints leading to increased deformation before rupture. The joints witch adhesives give brittle fracture and the mechanics joints give ductile fracture. Hybrid joint provides ductility at the joint. Hybrid joint can also give brittle fracture, this happens when the shear strength of the adhesive is three times the shear strength of the mechanical joint. The hybrid joints improve stiffness of joint, especially seen a significant increase in hybrid joints bonding with flexible adhesives, can be said that for all the adhesives, the hybrid junction stiffness is higher.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objeto de la Tesis es el régimen de humedad de los suelos de la España Peninsular, cuya determinación a partir de datos climáticos se ha realizado de acuerdo con la metodología incluida en la taxonomía norteamericana de suelos (Soil Survey StafF 1975, 1994). Esta metodología presenta algunas indefiniciones, que se pretenden solventar. La investigación ha consistido en la clasificación de los regímenes de humedad del suelo de la España Peninsular y su representación cartográfica. Se han considerado varios métodos de determinación de la evapotranspiración y varios modelos de estimación del régimen de humedad. La clasificación numérica de los regímenes de 467 localidades ha permitido su agrupamiento en clases y su subdivisión natural. El contraste de esta información con la aportada por la cartografía de series de vegetación, mediante un sistema de información geográfica tipo reticular, ha servido para afinar los mapas. El resultado revela que un modelo modificado sirve para subsanar las indefiniciones y posibilita la adaptación de los grupos a las condiciones naturales. SUMMARY The soil moisture regime defined by the Soil Taxonomy (Soil Survey StafF, 1975, 1994) has been determined by Newhall's simulation model from climatic data. This classification presents some diffículties as gaps and overlaps in the definitions, that we have tried to solve. The soil moisture regimes have been determined by different methods and the results have been classified and mapped. We have compared differents methods of evapotranspiration estimation. A simple modification of Newhall's model matchs better the natural conditions of Spain when comparing with the potential vegatation. A ráster geographical information system has been used to overlay the information layers. As result of the numerical classification of soil moistures regimes of 467 sites, the regimes have been grouped in classes adapted to the natural conditions of Spain. We have compared the results with the potential vegetation map in order to tune the soil moisture regime boundaries. We propose a new soil moisture regimes classification divided in two categories. This classification is adapted to Spanish natural conditions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La optimización de parámetros tales como el consumo de potencia, la cantidad de recursos lógicos empleados o la ocupación de memoria ha sido siempre una de las preocupaciones principales a la hora de diseñar sistemas embebidos. Esto es debido a que se trata de sistemas dotados de una cantidad de recursos limitados, y que han sido tradicionalmente empleados para un propósito específico, que permanece invariable a lo largo de toda la vida útil del sistema. Sin embargo, el uso de sistemas embebidos se ha extendido a áreas de aplicación fuera de su ámbito tradicional, caracterizadas por una mayor demanda computacional. Así, por ejemplo, algunos de estos sistemas deben llevar a cabo un intenso procesado de señales multimedia o la transmisión de datos mediante sistemas de comunicaciones de alta capacidad. Por otra parte, las condiciones de operación del sistema pueden variar en tiempo real. Esto sucede, por ejemplo, si su funcionamiento depende de datos medidos por el propio sistema o recibidos a través de la red, de las demandas del usuario en cada momento, o de condiciones internas del propio dispositivo, tales como la duración de la batería. Como consecuencia de la existencia de requisitos de operación dinámicos es necesario ir hacia una gestión dinámica de los recursos del sistema. Si bien el software es inherentemente flexible, no ofrece una potencia computacional tan alta como el hardware. Por lo tanto, el hardware reconfigurable aparece como una solución adecuada para tratar con mayor flexibilidad los requisitos variables dinámicamente en sistemas con alta demanda computacional. La flexibilidad y adaptabilidad del hardware requieren de dispositivos reconfigurables que permitan la modificación de su funcionalidad bajo demanda. En esta tesis se han seleccionado las FPGAs (Field Programmable Gate Arrays) como los dispositivos más apropiados, hoy en día, para implementar sistemas basados en hardware reconfigurable De entre todas las posibilidades existentes para explotar la capacidad de reconfiguración de las FPGAs comerciales, se ha seleccionado la reconfiguración dinámica y parcial. Esta técnica consiste en substituir una parte de la lógica del dispositivo, mientras el resto continúa en funcionamiento. La capacidad de reconfiguración dinámica y parcial de las FPGAs es empleada en esta tesis para tratar con los requisitos de flexibilidad y de capacidad computacional que demandan los dispositivos embebidos. La propuesta principal de esta tesis doctoral es el uso de arquitecturas de procesamiento escalables espacialmente, que son capaces de adaptar su funcionalidad y rendimiento en tiempo real, estableciendo un compromiso entre dichos parámetros y la cantidad de lógica que ocupan en el dispositivo. A esto nos referimos con arquitecturas con huellas escalables. En particular, se propone el uso de arquitecturas altamente paralelas, modulares, regulares y con una alta localidad en sus comunicaciones, para este propósito. El tamaño de dichas arquitecturas puede ser modificado mediante la adición o eliminación de algunos de los módulos que las componen, tanto en una dimensión como en dos. Esta estrategia permite implementar soluciones escalables, sin tener que contar con una versión de las mismas para cada uno de los tamaños posibles de la arquitectura. De esta manera se reduce significativamente el tiempo necesario para modificar su tamaño, así como la cantidad de memoria necesaria para almacenar todos los archivos de configuración. En lugar de proponer arquitecturas para aplicaciones específicas, se ha optado por patrones de procesamiento genéricos, que pueden ser ajustados para solucionar distintos problemas en el estado del arte. A este respecto, se proponen patrones basados en esquemas sistólicos, así como de tipo wavefront. Con el objeto de poder ofrecer una solución integral, se han tratado otros aspectos relacionados con el diseño y el funcionamiento de las arquitecturas, tales como el control del proceso de reconfiguración de la FPGA, la integración de las arquitecturas en el resto del sistema, así como las técnicas necesarias para su implementación. Por lo que respecta a la implementación, se han tratado distintos aspectos de bajo nivel dependientes del dispositivo. Algunas de las propuestas realizadas a este respecto en la presente tesis doctoral son un router que es capaz de garantizar el correcto rutado de los módulos reconfigurables dentro del área destinada para ellos, así como una estrategia para la comunicación entre módulos que no introduce ningún retardo ni necesita emplear recursos configurables del dispositivo. El flujo de diseño propuesto se ha automatizado mediante una herramienta denominada DREAMS. La herramienta se encarga de la modificación de las netlists correspondientes a cada uno de los módulos reconfigurables del sistema, y que han sido generadas previamente mediante herramientas comerciales. Por lo tanto, el flujo propuesto se entiende como una etapa de post-procesamiento, que adapta esas netlists a los requisitos de la reconfiguración dinámica y parcial. Dicha modificación la lleva a cabo la herramienta de una forma completamente automática, por lo que la productividad del proceso de diseño aumenta de forma evidente. Para facilitar dicho proceso, se ha dotado a la herramienta de una interfaz gráfica. El flujo de diseño propuesto, y la herramienta que lo soporta, tienen características específicas para abordar el diseño de las arquitecturas dinámicamente escalables propuestas en esta tesis. Entre ellas está el soporte para el realojamiento de módulos reconfigurables en posiciones del dispositivo distintas a donde el módulo es originalmente implementado, así como la generación de estructuras de comunicación compatibles con la simetría de la arquitectura. El router has sido empleado también en esta tesis para obtener un rutado simétrico entre nets equivalentes. Dicha posibilidad ha sido explotada para aumentar la protección de circuitos con altos requisitos de seguridad, frente a ataques de canal lateral, mediante la implantación de lógica complementaria con rutado idéntico. Para controlar el proceso de reconfiguración de la FPGA, se propone en esta tesis un motor de reconfiguración especialmente adaptado a los requisitos de las arquitecturas dinámicamente escalables. Además de controlar el puerto de reconfiguración, el motor de reconfiguración ha sido dotado de la capacidad de realojar módulos reconfigurables en posiciones arbitrarias del dispositivo, en tiempo real. De esta forma, basta con generar un único bitstream por cada módulo reconfigurable del sistema, independientemente de la posición donde va a ser finalmente reconfigurado. La estrategia seguida para implementar el proceso de realojamiento de módulos es diferente de las propuestas existentes en el estado del arte, pues consiste en la composición de los archivos de configuración en tiempo real. De esta forma se consigue aumentar la velocidad del proceso, mientras que se reduce la longitud de los archivos de configuración parciales a almacenar en el sistema. El motor de reconfiguración soporta módulos reconfigurables con una altura menor que la altura de una región de reloj del dispositivo. Internamente, el motor se encarga de la combinación de los frames que describen el nuevo módulo, con la configuración existente en el dispositivo previamente. El escalado de las arquitecturas de procesamiento propuestas en esta tesis también se puede beneficiar de este mecanismo. Se ha incorporado también un acceso directo a una memoria externa donde se pueden almacenar bitstreams parciales. Para acelerar el proceso de reconfiguración se ha hecho funcionar el ICAP por encima de la máxima frecuencia de reloj aconsejada por el fabricante. Así, en el caso de Virtex-5, aunque la máxima frecuencia del reloj deberían ser 100 MHz, se ha conseguido hacer funcionar el puerto de reconfiguración a frecuencias de operación de hasta 250 MHz, incluyendo el proceso de realojamiento en tiempo real. Se ha previsto la posibilidad de portar el motor de reconfiguración a futuras familias de FPGAs. Por otro lado, el motor de reconfiguración se puede emplear para inyectar fallos en el propio dispositivo hardware, y así ser capaces de evaluar la tolerancia ante los mismos que ofrecen las arquitecturas reconfigurables. Los fallos son emulados mediante la generación de archivos de configuración a los que intencionadamente se les ha introducido un error, de forma que se modifica su funcionalidad. Con el objetivo de comprobar la validez y los beneficios de las arquitecturas propuestas en esta tesis, se han seguido dos líneas principales de aplicación. En primer lugar, se propone su uso como parte de una plataforma adaptativa basada en hardware evolutivo, con capacidad de escalabilidad, adaptabilidad y recuperación ante fallos. En segundo lugar, se ha desarrollado un deblocking filter escalable, adaptado a la codificación de vídeo escalable, como ejemplo de aplicación de las arquitecturas de tipo wavefront propuestas. El hardware evolutivo consiste en el uso de algoritmos evolutivos para diseñar hardware de forma autónoma, explotando la flexibilidad que ofrecen los dispositivos reconfigurables. En este caso, los elementos de procesamiento que componen la arquitectura son seleccionados de una biblioteca de elementos presintetizados, de acuerdo con las decisiones tomadas por el algoritmo evolutivo, en lugar de definir la configuración de las mismas en tiempo de diseño. De esta manera, la configuración del core puede cambiar cuando lo hacen las condiciones del entorno, en tiempo real, por lo que se consigue un control autónomo del proceso de reconfiguración dinámico. Así, el sistema es capaz de optimizar, de forma autónoma, su propia configuración. El hardware evolutivo tiene una capacidad inherente de auto-reparación. Se ha probado que las arquitecturas evolutivas propuestas en esta tesis son tolerantes ante fallos, tanto transitorios, como permanentes y acumulativos. La plataforma evolutiva se ha empleado para implementar filtros de eliminación de ruido. La escalabilidad también ha sido aprovechada en esta aplicación. Las arquitecturas evolutivas escalables permiten la adaptación autónoma de los cores de procesamiento ante fluctuaciones en la cantidad de recursos disponibles en el sistema. Por lo tanto, constituyen un ejemplo de escalabilidad dinámica para conseguir un determinado nivel de calidad, que puede variar en tiempo real. Se han propuesto dos variantes de sistemas escalables evolutivos. El primero consiste en un único core de procesamiento evolutivo, mientras que el segundo está formado por un número variable de arrays de procesamiento. La codificación de vídeo escalable, a diferencia de los codecs no escalables, permite la decodificación de secuencias de vídeo con diferentes niveles de calidad, de resolución temporal o de resolución espacial, descartando la información no deseada. Existen distintos algoritmos que soportan esta característica. En particular, se va a emplear el estándar Scalable Video Coding (SVC), que ha sido propuesto como una extensión de H.264/AVC, ya que este último es ampliamente utilizado tanto en la industria, como a nivel de investigación. Para poder explotar toda la flexibilidad que ofrece el estándar, hay que permitir la adaptación de las características del decodificador en tiempo real. El uso de las arquitecturas dinámicamente escalables es propuesto en esta tesis con este objetivo. El deblocking filter es un algoritmo que tiene como objetivo la mejora de la percepción visual de la imagen reconstruida, mediante el suavizado de los "artefactos" de bloque generados en el lazo del codificador. Se trata de una de las tareas más intensivas en procesamiento de datos de H.264/AVC y de SVC, y además, su carga computacional es altamente dependiente del nivel de escalabilidad seleccionado en el decodificador. Por lo tanto, el deblocking filter ha sido seleccionado como prueba de concepto de la aplicación de las arquitecturas dinámicamente escalables para la compresión de video. La arquitectura propuesta permite añadir o eliminar unidades de computación, siguiendo un esquema de tipo wavefront. La arquitectura ha sido propuesta conjuntamente con un esquema de procesamiento en paralelo del deblocking filter a nivel de macrobloque, de tal forma que cuando se varía del tamaño de la arquitectura, el orden de filtrado de los macrobloques varia de la misma manera. El patrón propuesto se basa en la división del procesamiento de cada macrobloque en dos etapas independientes, que se corresponden con el filtrado horizontal y vertical de los bloques dentro del macrobloque. Las principales contribuciones originales de esta tesis son las siguientes: - El uso de arquitecturas altamente regulares, modulares, paralelas y con una intensa localidad en sus comunicaciones, para implementar cores de procesamiento dinámicamente reconfigurables. - El uso de arquitecturas bidimensionales, en forma de malla, para construir arquitecturas dinámicamente escalables, con una huella escalable. De esta forma, las arquitecturas permiten establecer un compromiso entre el área que ocupan en el dispositivo, y las prestaciones que ofrecen en cada momento. Se proponen plantillas de procesamiento genéricas, de tipo sistólico o wavefront, que pueden ser adaptadas a distintos problemas de procesamiento. - Un flujo de diseño y una herramienta que lo soporta, para el diseño de sistemas reconfigurables dinámicamente, centradas en el diseño de las arquitecturas altamente paralelas, modulares y regulares propuestas en esta tesis. - Un esquema de comunicaciones entre módulos reconfigurables que no introduce ningún retardo ni requiere el uso de recursos lógicos propios. - Un router flexible, capaz de resolver los conflictos de rutado asociados con el diseño de sistemas reconfigurables dinámicamente. - Un algoritmo de optimización para sistemas formados por múltiples cores escalables que optimice, mediante un algoritmo genético, los parámetros de dicho sistema. Se basa en un modelo conocido como el problema de la mochila. - Un motor de reconfiguración adaptado a los requisitos de las arquitecturas altamente regulares y modulares. Combina una alta velocidad de reconfiguración, con la capacidad de realojar módulos en tiempo real, incluyendo el soporte para la reconfiguración de regiones que ocupan menos que una región de reloj, así como la réplica de un módulo reconfigurable en múltiples posiciones del dispositivo. - Un mecanismo de inyección de fallos que, empleando el motor de reconfiguración del sistema, permite evaluar los efectos de fallos permanentes y transitorios en arquitecturas reconfigurables. - La demostración de las posibilidades de las arquitecturas propuestas en esta tesis para la implementación de sistemas de hardware evolutivos, con una alta capacidad de procesamiento de datos. - La implementación de sistemas de hardware evolutivo escalables, que son capaces de tratar con la fluctuación de la cantidad de recursos disponibles en el sistema, de una forma autónoma. - Una estrategia de procesamiento en paralelo para el deblocking filter compatible con los estándares H.264/AVC y SVC que reduce el número de ciclos de macrobloque necesarios para procesar un frame de video. - Una arquitectura dinámicamente escalable que permite la implementación de un nuevo deblocking filter, totalmente compatible con los estándares H.264/AVC y SVC, que explota el paralelismo a nivel de macrobloque. El presente documento se organiza en siete capítulos. En el primero se ofrece una introducción al marco tecnológico de esta tesis, especialmente centrado en la reconfiguración dinámica y parcial de FPGAs. También se motiva la necesidad de las arquitecturas dinámicamente escalables propuestas en esta tesis. En el capítulo 2 se describen las arquitecturas dinámicamente escalables. Dicha descripción incluye la mayor parte de las aportaciones a nivel arquitectural realizadas en esta tesis. Por su parte, el flujo de diseño adaptado a dichas arquitecturas se propone en el capítulo 3. El motor de reconfiguración se propone en el 4, mientras que el uso de dichas arquitecturas para implementar sistemas de hardware evolutivo se aborda en el 5. El deblocking filter escalable se describe en el 6, mientras que las conclusiones finales de esta tesis, así como la descripción del trabajo futuro, son abordadas en el capítulo 7. ABSTRACT The optimization of system parameters, such as power dissipation, the amount of hardware resources and the memory footprint, has been always a main concern when dealing with the design of resource-constrained embedded systems. This situation is even more demanding nowadays. Embedded systems cannot anymore be considered only as specific-purpose computers, designed for a particular functionality that remains unchanged during their lifetime. Differently, embedded systems are now required to deal with more demanding and complex functions, such as multimedia data processing and high-throughput connectivity. In addition, system operation may depend on external data, the user requirements or internal variables of the system, such as the battery life-time. All these conditions may vary at run-time, leading to adaptive scenarios. As a consequence of both the growing computational complexity and the existence of dynamic requirements, dynamic resource management techniques for embedded systems are needed. Software is inherently flexible, but it cannot meet the computing power offered by hardware solutions. Therefore, reconfigurable hardware emerges as a suitable technology to deal with the run-time variable requirements of complex embedded systems. Adaptive hardware requires the use of reconfigurable devices, where its functionality can be modified on demand. In this thesis, Field Programmable Gate Arrays (FPGAs) have been selected as the most appropriate commercial technology existing nowadays to implement adaptive hardware systems. There are different ways of exploiting reconfigurability in reconfigurable devices. Among them is dynamic and partial reconfiguration. This is a technique which consists in substituting part of the FPGA logic on demand, while the rest of the device continues working. The strategy followed in this thesis is to exploit the dynamic and partial reconfiguration of commercial FPGAs to deal with the flexibility and complexity demands of state-of-the-art embedded systems. The proposal of this thesis to deal with run-time variable system conditions is the use of spatially scalable processing hardware IP cores, which are able to adapt their functionality or performance at run-time, trading them off with the amount of logic resources they occupy in the device. This is referred to as a scalable footprint in the context of this thesis. The distinguishing characteristic of the proposed cores is that they rely on highly parallel, modular and regular architectures, arranged in one or two dimensions. These architectures can be scaled by means of the addition or removal of the composing blocks. This strategy avoids implementing a full version of the core for each possible size, with the corresponding benefits in terms of scaling and adaptation time, as well as bitstream storage memory requirements. Instead of providing specific-purpose architectures, generic architectural templates, which can be tuned to solve different problems, are proposed in this thesis. Architectures following both systolic and wavefront templates have been selected. Together with the proposed scalable architectural templates, other issues needed to ensure the proper design and operation of the scalable cores, such as the device reconfiguration control, the run-time management of the architecture and the implementation techniques have been also addressed in this thesis. With regard to the implementation of dynamically reconfigurable architectures, device dependent low-level details are addressed. Some of the aspects covered in this thesis are the area constrained routing for reconfigurable modules, or an inter-module communication strategy which does not introduce either extra delay or logic overhead. The system implementation, from the hardware description to the device configuration bitstream, has been fully automated by modifying the netlists corresponding to each of the system modules, which are previously generated using the vendor tools. This modification is therefore envisaged as a post-processing step. Based on these implementation proposals, a design tool called DREAMS (Dynamically Reconfigurable Embedded and Modular Systems) has been created, including a graphic user interface. The tool has specific features to cope with modular and regular architectures, including the support for module relocation and the inter-module communications scheme based on the symmetry of the architecture. The core of the tool is a custom router, which has been also exploited in this thesis to obtain symmetric routed nets, with the aim of enhancing the protection of critical reconfigurable circuits against side channel attacks. This is achieved by duplicating the logic with an exactly equal routing. In order to control the reconfiguration process of the FPGA, a Reconfiguration Engine suited to the specific requirements set by the proposed architectures was also proposed. Therefore, in addition to controlling the reconfiguration port, the Reconfiguration Engine has been enhanced with the online relocation ability, which allows employing a unique configuration bitstream for all the positions where the module may be placed in the device. Differently to the existing relocating solutions, which are based on bitstream parsers, the proposed approach is based on the online composition of bitstreams. This strategy allows increasing the speed of the process, while the length of partial bitstreams is also reduced. The height of the reconfigurable modules can be lower than the height of a clock region. The Reconfiguration Engine manages the merging process of the new and the existing configuration frames within each clock region. The process of scaling up and down the hardware cores also benefits from this technique. A direct link to an external memory where partial bitstreams can be stored has been also implemented. In order to accelerate the reconfiguration process, the ICAP has been overclocked over the speed reported by the manufacturer. In the case of Virtex-5, even though the maximum frequency of the ICAP is reported to be 100 MHz, valid operations at 250 MHz have been achieved, including the online relocation process. Portability of the reconfiguration solution to today's and probably, future FPGAs, has been also considered. The reconfiguration engine can be also used to inject faults in real hardware devices, and this way being able to evaluate the fault tolerance offered by the reconfigurable architectures. Faults are emulated by introducing partial bitstreams intentionally modified to provide erroneous functionality. To prove the validity and the benefits offered by the proposed architectures, two demonstration application lines have been envisaged. First, scalable architectures have been employed to develop an evolvable hardware platform with adaptability, fault tolerance and scalability properties. Second, they have been used to implement a scalable deblocking filter suited to scalable video coding. Evolvable Hardware is the use of evolutionary algorithms to design hardware in an autonomous way, exploiting the flexibility offered by reconfigurable devices. In this case, processing elements composing the architecture are selected from a presynthesized library of processing elements, according to the decisions taken by the algorithm, instead of being decided at design time. This way, the configuration of the array may change as run-time environmental conditions do, achieving autonomous control of the dynamic reconfiguration process. Thus, the self-optimization property is added to the native self-configurability of the dynamically scalable architectures. In addition, evolvable hardware adaptability inherently offers self-healing features. The proposal has proved to be self-tolerant, since it is able to self-recover from both transient and cumulative permanent faults. The proposed evolvable architecture has been used to implement noise removal image filters. Scalability has been also exploited in this application. Scalable evolvable hardware architectures allow the autonomous adaptation of the processing cores to a fluctuating amount of resources available in the system. Thus, it constitutes an example of the dynamic quality scalability tackled in this thesis. Two variants have been proposed. The first one consists in a single dynamically scalable evolvable core, and the second one contains a variable number of processing cores. Scalable video is a flexible approach for video compression, which offers scalability at different levels. Differently to non-scalable codecs, a scalable video bitstream can be decoded with different levels of quality, spatial or temporal resolutions, by discarding the undesired information. The interest in this technology has been fostered by the development of the Scalable Video Coding (SVC) standard, as an extension of H.264/AVC. In order to exploit all the flexibility offered by the standard, it is necessary to adapt the characteristics of the decoder to the requirements of each client during run-time. The use of dynamically scalable architectures is proposed in this thesis with this aim. The deblocking filter algorithm is the responsible of improving the visual perception of a reconstructed image, by smoothing blocking artifacts generated in the encoding loop. This is one of the most computationally intensive tasks of the standard, and furthermore, it is highly dependent on the selected scalability level in the decoder. Therefore, the deblocking filter has been selected as a proof of concept of the implementation of dynamically scalable architectures for video compression. The proposed architecture allows the run-time addition or removal of computational units working in parallel to change its level of parallelism, following a wavefront computational pattern. Scalable architecture is offered together with a scalable parallelization strategy at the macroblock level, such that when the size of the architecture changes, the macroblock filtering order is modified accordingly. The proposed pattern is based on the division of the macroblock processing into two independent stages, corresponding to the horizontal and vertical filtering of the blocks within the macroblock. The main contributions of this thesis are: - The use of highly parallel, modular, regular and local architectures to implement dynamically reconfigurable processing IP cores, for data intensive applications with flexibility requirements. - The use of two-dimensional mesh-type arrays as architectural templates to build dynamically reconfigurable IP cores, with a scalable footprint. The proposal consists in generic architectural templates, which can be tuned to solve different computational problems. •A design flow and a tool targeting the design of DPR systems, focused on highly parallel, modular and local architectures. - An inter-module communication strategy, which does not introduce delay or area overhead, named Virtual Borders. - A custom and flexible router to solve the routing conflicts as well as the inter-module communication problems, appearing during the design of DPR systems. - An algorithm addressing the optimization of systems composed of multiple scalable cores, which size can be decided individually, to optimize the system parameters. It is based on a model known as the multi-dimensional multi-choice Knapsack problem. - A reconfiguration engine tailored to the requirements of highly regular and modular architectures. It combines a high reconfiguration throughput with run-time module relocation capabilities, including the support for sub-clock reconfigurable regions and the replication in multiple positions. - A fault injection mechanism which takes advantage of the system reconfiguration engine, as well as the modularity of the proposed reconfigurable architectures, to evaluate the effects of transient and permanent faults in these architectures. - The demonstration of the possibilities of the architectures proposed in this thesis to implement evolvable hardware systems, while keeping a high processing throughput. - The implementation of scalable evolvable hardware systems, which are able to adapt to the fluctuation of the amount of resources available in the system, in an autonomous way. - A parallelization strategy for the H.264/AVC and SVC deblocking filter, which reduces the number of macroblock cycles needed to process the whole frame. - A dynamically scalable architecture that permits the implementation of a novel deblocking filter module, fully compliant with the H.264/AVC and SVC standards, which exploits the macroblock level parallelism of the algorithm. This document is organized in seven chapters. In the first one, an introduction to the technology framework of this thesis, specially focused on dynamic and partial reconfiguration, is provided. The need for the dynamically scalable processing architectures proposed in this work is also motivated in this chapter. In chapter 2, dynamically scalable architectures are described. Description includes most of the architectural contributions of this work. The design flow tailored to the scalable architectures, together with the DREAMs tool provided to implement them, are described in chapter 3. The reconfiguration engine is described in chapter 4. The use of the proposed scalable archtieectures to implement evolvable hardware systems is described in chapter 5, while the scalable deblocking filter is described in chapter 6. Final conclusions of this thesis, and the description of future work, are addressed in chapter 7.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Casa Huarte (Madrid, 1966) representa, ante todo, una actuación en el paisaje. Mediante una transformación topográfica sus creadores, los arquitectos José Antonio Corrales y Ramón Vázquez Molezún, construyeron un lugar en el que el horizonte, entendido como el paisaje formado por el encuentro de planos donde converge nuestra mirada, fue modificado. Cuando esto ocurre se produce una alteración de la mirada del observador, se ?construye? un nuevo horizonte visual, que es en definitiva el horizonte de la arquitectura. En esta construcción del nuevo horizonte, en la creación de nuevas experiencias visuales, las esculturas situadas en los patios de la Casa Huarte se convirtieron en referencias visuales que alteraban los ángulos de visión previamente establecidos por la arquitectura. Las esculturas, también los árboles como esculturas naturales mutantes, incorporaban nuevos puntos de referencia en ese horizonte, entre la posición del observador y el infinito. Corrales y Molezún evolucionaron un sistema ya contrastado en proyectos anteriores (Instituto en Herrera de Pisuerga, Residencia en Miraflores, Pabellón de Bruselas) de relación de la edificación con el entorno y con el paisaje, donde alteraban la orografía natural del terreno esculpiendo unas plataformas artificialmente escalonadas en función de la modulación de la estructura de la edificación.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este trabajo se han preparado nanocompuestos de matriz polímero termoestable del tipo poliéster insaturado y epoxídica utilizando como refuerzo nanosilicatos laminares que se han modificado específicamente para mejorar la interacción con la matriz. En concreto se han modificado montmorillonitas con cationes orgánicos reactivos con la matriz de poliéster insaturado. Asimismo se han silanizado montmorillonitas comerciales orgánicamente modificadas con el objetivo de formar enlaces químicos con la matriz epoxídica. En ambos nanocompuestos se han estudiado las propiedades termo- mecánicas pudiendo comprobar la efectividad de los nuevos organosilicatos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los betunes modificados con polímeros (BMP) son ampliamente utilizados en la pavimentación de carreteras sometidas a gran afluencia de vehículos y a condiciones extremas de temperatura. La presencia de polímero en contacto con el betún amplía notablemente el intervalo de temperaturas en las que el betún mantiene sus prestaciones. En general los betunes modificados con polímero presentan un aumento significativo de la resistencia a la deformación permanente en el intervalo de elevadas temperaturas, sin que su compo rtamiento sufra deterioro a bajas temperaturas. Cuando un polímero se añade al betún tiene lugar su hinchamiento a partir de las moléculas de aromáticos ligeros presentes en el betún. A bajas concentraciones de polímero, aparece una morfología bifásica en la que una fase rica en polímero se dispersa en una matriz malténica enriquecida en asfaltenos. La existencia de esta estructura bifásica es la llave que controla la mejora en las propiedades de los BMP en relación al betún puro. En la literatura existen muchos trabajos dedicados a investigar las propiedades y morfología de los BMP, sin embargo en pocos se hace referencia a la influencia de la estructura del betún. Este trabajo está enfocado a relacionar la estructura/composición del betún con la compatibilidad del sistema SBS/betún/azufre. Para ello se han elegido cuatro betunes de distinta procedencia denominados, A17, A500, M18, M170, que mezclados convenientemente han sido utilizados en la preparación de betún modificado con SBS y vulcanizado con azufre. La fracción en peso de SBS, en relación al contenido de betún, ha sido del 3%. Se han determinado propiedades tales como viscosidad, penetración y temperatura anillo-bola, así como la estabilidad en almacenamiento a elevada temperatura. Finalmente la estabilidad de estos sistemas se ha analizado en función de la estructura y la composición de los betunes utilizados en su preparación

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este trabajo se presenta el estudio de la energía de fractura de dos tipos de morteros de cemento reforzados con fibras de vidrio (GRC). El primer tipo es un GRC normal y en el segundo se ha realizado una adición de un 25% en peso de cemento de metacaolín de alta reactividad. El estudio de la energía de fractura de este tipo de material es de especial relevancia puesto que las normas que rigen su utilización no proporcionan datos sobre esta propiedad del material. Para solventar estos problemas se ha planteado una modificación de la recomendación RILEM TC-187-SOC. Se han modificado las dimensiones de las probetas y se han adaptado el resto de características. Los ensayos han mostrado como el GRC de control y el GRC con metacaolín tienen respectivamente una energía de 455 N/m y 1824 N/m.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este trabajo se presenta el estudio de la energía de fractura de dos tipos de morteros de cemento reforzados con fibras de vidrio (GRC). El primer tipo es un GRC normal y en el segundo se ha realizado una adición de un 25% en peso de cemento de metacaolín de alta reactividad. El estudio de la energía de fractura de este tipo de material es de especial relevancia puesto que las normas que rigen su utilización no proporcionan datos sobre esta propiedad del material. Para solventar estos problemas se ha planteado una modificación de la recomendación RILEM TC-187-SOC. Se han modificado las dimensiones de las probetas y se han adaptado el resto de características. Los ensayos han mostrado como el GRC de control y el GRC con metacaolín tienen respectivamente una energía de 455 N/m y 1824 N/m.This work presents the evaluation of the fracture energy of two types of glass fiber reinforced cement (GRC). The first type of GRC had a normal composition and the second type had a 25% of the cement weight metakaolin addition. This metakaolin had high reactivity. The study of the fracture energy in GRC is essential due to the lack of data about this mechanical property. Also the usual test method recommendations of this material do not provide any mean to obtain it. To solve these problems a modification of recommendation RILEM TC-187-SOC has been performed. Sample geometry has been modified to adapt it to GRC while the rest of the test parameters were maintained. Tests results showed that GRC without additions has a fracture energy of 455 N/m and GRC with 25% metakaolin addition has a fracture energy of 1824 N/m.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se presentan las mejoras introducidas en un código de transporte de radiación acoplada a la hidrodinámica llamado ARWEN para el estudio de sistemas en el rango de física de alta densidad de energía (High Energy Density Physics). Los desarrollos introducidos se basan en las siguientes áreas: ít>,~ Ecuaciones de estado: se desarrolla una nueva metodología mediante la cual es posible ajustar los resultados de un modelo simple de ecuaciones de estado como QEOS a datos experimentales y resultados de AIMD. Esta metodología tiene carácter general para poder ser aplicada en gran cantidad de materuales de interés y amplia la flexibilidad de ajuste de los métodos de los que ha partido como base este trabajo. En segundo lugar, se ha desarrollado una librería para la gestión de tablas de datos de ecuaciones de estado que también incluye la gestión de tablas con datos de opacidades y de ionización. Esta nueva librería extiende las capacidades de la anterior al tener llamadas más específicas que aceleran los cálculos, y posibilidad de uso de varias tablas a la vez. Solver de difusión: se ha desarrollado un nuevo paquete para resolver la ecuación de difusión que se aplicará a la conducción de calor dentro del plasma. El método anterior no podía ser ejecutado en paralelo y producía resultados dependientes de la resolución de la malla, mientras que este método es paralelizable y además obtiene una solución con mejor convergencia, lo que supone una solución que no depende del refinamiento del mallado. Revisión del paquete de radiación: en primer lugar se ha realizado una revisión de la implementación del modelo de radiación descubriendo varios errores que han sido depurados. También se ha incluido la nueva librería de gestión de tablas de opacidades que permiten la obtención de las propiedades ópticas del plasma en multigrupos de energía. Por otra parte se ha extendido el cálculo de los coeficientes de transporte al esquema multimaterial que ha introducido David Portillo García en el paquete hidrodinámico del código de simulación. Por último se ha revisado el esquema de resolución del transporte y se ha modificado para hacerlo paralelizable. • Se ha implementado un paquete de trazado de rayos para deposición láser que extiende la utilidad del anterior al ser en 3D y poder utilizar entonces diferentes configuraciones. • Una vez realizadas todas estas tareas se ha aplicado el código ARWEN al estudio de la astrofísica de laboratorio simulando los experimentos llevados a cabo en la instalación PALS por Chantal Stehlé acerca de ondas de choque radiativas. Se han comparado los resultados experimentales frente a las predicciones del código ARWEN obteniéndose una gran concordancia en la velocidad de la onda de choque generada y en las dimensiones del precursor. El código de simulación sobre el que se ha trabajado, junto con los desarrollos aportados por otros investigadores durante la realización de esta tesis, ha permitido participar en colaboraciones con laboratorios de Francia o Japón y se han producido resultados científicos publicados basados en el trabajo descrito en esta tesis. ABSTRACT Improvements in radiation hydrodynamic code ARWEN for the study of systems in the range of physics high energy density (High Energy Density Physics) are presented. The developments introduced are based on the following áreas: • Equations of state: a new methodology was developed to adjust the results of a simple Equation of State model like QEOS to experimental data and results of AIMD. This methodology can be applied to a large amount of materials and it increases the flexibility and range of the previous methods used as basis for this work. Also a new computer library has been developed to manage data tables of thermodynamic properties as well as includes the management of opacity and ionization data tables. This new library extends the capabilities of the previous one with more specific routines, and the possibility of using múltiple tables for several materials. • Diffusion solver: a new package has been developed to solve the diffusion equation applied to the heat conduction of the plasma. The previous method is not parallelizable and it produced mesh dependent results, while this new package can be executed in parallel and achieves a more converged solution that does not depend on the refinement of the mesh. • Radiation package: the check of the radiation model rose several bugs in the implementation that had been removed. The new computer library for EOS managing includes capabilities to store opacity tables for multigroups of energy. Moreover the transport coefficients calculations have been extended for the new multimaterial hydrodynamic package developed by David Portillo García. Also the solving methodology for the transport equation has been modified to make the code run in parallel. • A new ray tracing package has been introduced to extend the previous one to 3D. Once all these tasks has been implemented, the ARWEN code has been applied to study laboratory astrophysics systems. Simulations have been done in order to reproduce the results of the experiments carried out in PALS facility by Chantal Stehlé in radiative shock production. Experimental results are in cióse agreement to the ARWEN estimations of the speed of the shock wave and the length of the precursor. The simulation code used in this thesis, including the work done in ARWEN by other colleagues at the time of this research, allowed the collaboration with other research institution in France and Japan and some of the results presented in this thesis have been published in scientific journals.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La finalidad de esta investigación se enmarca dentro de los estudios sobre hormigones de presas llevados a cabo en el Laboratorio Central de Estructuras y Materiales del CEDEX. En España se han diagnosticado 18 obras afectadas tanto por la reacción álcali-sílice de tipo rápido como por la de tipo lento. Dos de de las obras, fabricadas con áridos graníticos, no presentan signos de deterioro pero en laboratorio se han hallado productos expansivos. En las 16 presas españolas restantes, el hormigón de 10 de ellas estaba fabricado con áridos graníticos, de las cuales, 7 están afectadas por la reacción de tipo lento. Sin embargo, en las clasificaciones internacionales de las rocas potencialmente reactivas se establece habitualmente que las rocas graníticas son inocuas o de reactividad muy baja. En los casos puntuales encontrados en la literatura, la reactividad de este tipo de áridos se encuentra frecuentemente asociada al cuarzo microcristalino que contienen y ocasionalmente se asocia esta reactividad también al cuarzo deformado y/o microfisurado. En la tesis doctoral de Víctor Daniel Lanza Fernández, también realizada en el CEDEX, se han tratado los áridos de reacción rápida, dando una descripción detallada de los componentes que intervienen en este tipo de reacción y presentando un ensayo eficaz para su detección en el laboratorio. La investigación desarrollada en la presente tesis doctoral se ha centrado en los áridos de reacción lenta, mucho menos estudiados. A partir del estudio bibliográfico realizado sobre este tipo de reacción se ha detectado ciertas lagunas, basadas principalmente en la falta de un método de detección en el laboratorio para los áridos de reacción lenta. No se ha encontrado un procedimiento en el estudio petrográfico que sea fiable y cuantificable para este tipo de áridos. El ensayo acelerado de barras de mortero, que para los áridos de reacción rápida supone un método rápido y fiable, falla en la detección de los áridos de reacción lenta al aplicar los límites normalizados. Si bien en publicaciones recientes se ha propuesto la posibilidad de ampliar el tiempo de tratamiento hasta los 90 días, la duración del ensayo es más larga de lo deseado. Para resolver estas lagunas, se han tomado áridos de obras reales afectadas por la reacción álcali-sílice (en algún caso también de las canteras de donde se extrajeron los áridos para la ejecución), con lo que la reactividad de estos áridos queda demostrada por su comportamiento en obra. Al objeto de aumentar la muestra de ensayo y utilizar también áridos inocuos, se han tomado muestras de canteras, tanto en uso como abandonadas. Sobre estos áridos se ha realizado una caracterización completa con los ensayos actualmente disponibles para el estudio de su reactividad con los álcalis del cemento: estudio petrográfico, ensayo acelerado de barras de mortero y Gel-Pat modificado. En la investigación se ha desarrollado una metodología de tinción de geles álcali-sílice para la cuantificación de los mismos en el interior de las barras de mortero. Se ha relacionado el volumen de gel generado en la reacción con la expansión producida, tanto para áridos lentos, como rápidos, estableciendo analogías y diferencias en el comportamiento de ambos. La cuantificación de este tipo de compuestos realizada en las barras de mortero, abre la posibilidad de estudiar la capacidad expansiva que presentan en testigos de hormigón de obras afectadas. Este dato podría ser una herramienta importante para el desarrollo de modelos matemáticos que puedan predecir el futuro comportamiento de las estructuras afectadas por la reacción álcali-sílice. La tinción ha sido asimismo utilizada para establecer un método de detección de áridos reactivos basado en el ensayo de Gel-Pat modificado. La metodología de detección propuesta para estos áridos es cuantitativa y proporciona los resultados en 14 días, suponiendo una ventaja importante sobre los métodos actuales, que permiten detectarlos en 90 días (de forma orientativa en 56 días). This research is part of the studies on durability of concrete dams carried out in the Laboratorio Central de Estructuras y Materiales of CEDEX during the last years. At the present time, 18 public works affected by alkali-silica reaction have been diagnosed in Spain. In 12 of them the concrete was mixed with granitic aggregates, 7 of which were damaged by the slow alkali-silica reaction, 3 by the rapid alkali-silica reaction and in the other 2 cases, although there was no visual evidence of the reaction in field, the laboratory tests showed the presence of expansive products inside the concrete. However, in the international classifications of potentially reactive aggregates granitic rocks are pointed out as innocuous or as low reactivity and usually their reactivity is attributed to the presence of microcrystalline quartz and occasionally with the strained and microcracked quartz. The rapid reactive aggregates were deeply studied in a previous research (Víctor Daniel Lanza’s Thesis) also carried out in CEDEX. In this research, a detailed description of the components involved in the rapid alkali-silica reaction was given. Also, a fast method to detect them in the laboratory was developed. The research of the present PhD Thesis is focused in the slow-reactive aggregates, much less studied. The state of the art has shown some gaps in the knowledge about this reaction, mainly the absence of a reliable method to detect slow-reactive aggregates. On one side, there is no systematic and quantitative petrographic test for these aggregates. On the other side, the accelerated mortar bar test has been proved to be effective to detect rapid reactive aggregates but the standard limits fail in the detection of the slowreactive aggregates. In recent investigations it has been proposed extending the test until 90 days, but this period is considered too long. In this research, aggregates taken from affected structures have been used in the test, so their reactivity has been shown in practice. With the aim of increasing the number of samples aggregates from quarries have been also used. A method to stain alkali-silica gels has been applied to mortar bars, thereby quantifying the volume of gel generated inside. This volume has been related to the expansion of the bars, both for rapid for slow reactive aggregates, establishing similarities and differences. The quantification of the gel volume, applied to concrete cores extracted from affected structures, could be an important tool in mathematical models to predict the future behaviour of the structures affected by the alkali-silica reaction. The staining method has been also used to develop a method to detect slow reactive aggregates, based on the optimised Gel-Pat test, obtaining results in 14 days. This represents a major improvement compared to the actual methods (accelerated mortar bar test) which give an indicative value of reactivity at 56 days, and a final result at 90 days.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta Tesis aborda los problemas de eficiencia de las redes eléctrica desde el punto de vista del consumo. En particular, dicha eficiencia es mejorada mediante el suavizado de la curva de consumo agregado. Este objetivo de suavizado de consumo implica dos grandes mejoras en el uso de las redes eléctricas: i) a corto plazo, un mejor uso de la infraestructura existente y ii) a largo plazo, la reducción de la infraestructura necesaria para suplir las mismas necesidades energéticas. Además, esta Tesis se enfrenta a un nuevo paradigma energético, donde la presencia de generación distribuida está muy extendida en las redes eléctricas, en particular, la generación fotovoltaica (FV). Este tipo de fuente energética afecta al funcionamiento de la red, incrementando su variabilidad. Esto implica que altas tasas de penetración de electricidad de origen fotovoltaico es perjudicial para la estabilidad de la red eléctrica. Esta Tesis trata de suavizar la curva de consumo agregado considerando esta fuente energética. Por lo tanto, no sólo se mejora la eficiencia de la red eléctrica, sino que también puede ser aumentada la penetración de electricidad de origen fotovoltaico en la red. Esta propuesta conlleva grandes beneficios en los campos económicos, social y ambiental. Las acciones que influyen en el modo en que los consumidores hacen uso de la electricidad con el objetivo producir un ahorro energético o un aumento de eficiencia son llamadas Gestión de la Demanda Eléctrica (GDE). Esta Tesis propone dos algoritmos de GDE diferentes para cumplir con el objetivo de suavizado de la curva de consumo agregado. La diferencia entre ambos algoritmos de GDE reside en el marco en el cual estos tienen lugar: el marco local y el marco de red. Dependiendo de este marco de GDE, el objetivo energético y la forma en la que se alcanza este objetivo son diferentes. En el marco local, el algoritmo de GDE sólo usa información local. Este no tiene en cuenta a otros consumidores o a la curva de consumo agregado de la red eléctrica. Aunque esta afirmación pueda diferir de la definición general de GDE, esta vuelve a tomar sentido en instalaciones locales equipadas con Recursos Energéticos Distribuidos (REDs). En este caso, la GDE está enfocada en la maximización del uso de la energía local, reduciéndose la dependencia con la red. El algoritmo de GDE propuesto mejora significativamente el auto-consumo del generador FV local. Experimentos simulados y reales muestran que el auto-consumo es una importante estrategia de gestión energética, reduciendo el transporte de electricidad y alentando al usuario a controlar su comportamiento energético. Sin embargo, a pesar de todas las ventajas del aumento de auto-consumo, éstas no contribuyen al suavizado del consumo agregado. Se han estudiado los efectos de las instalaciones locales en la red eléctrica cuando el algoritmo de GDE está enfocado en el aumento del auto-consumo. Este enfoque puede tener efectos no deseados, incrementando la variabilidad en el consumo agregado en vez de reducirlo. Este efecto se produce porque el algoritmo de GDE sólo considera variables locales en el marco local. Los resultados sugieren que se requiere una coordinación entre las instalaciones. A través de esta coordinación, el consumo debe ser modificado teniendo en cuenta otros elementos de la red y buscando el suavizado del consumo agregado. En el marco de la red, el algoritmo de GDE tiene en cuenta tanto información local como de la red eléctrica. En esta Tesis se ha desarrollado un algoritmo autoorganizado para controlar el consumo de la red eléctrica de manera distribuida. El objetivo de este algoritmo es el suavizado del consumo agregado, como en las implementaciones clásicas de GDE. El enfoque distribuido significa que la GDE se realiza desde el lado de los consumidores sin seguir órdenes directas emitidas por una entidad central. Por lo tanto, esta Tesis propone una estructura de gestión paralela en lugar de una jerárquica como en las redes eléctricas clásicas. Esto implica que se requiere un mecanismo de coordinación entre instalaciones. Esta Tesis pretende minimizar la cantidad de información necesaria para esta coordinación. Para lograr este objetivo, se han utilizado dos técnicas de coordinación colectiva: osciladores acoplados e inteligencia de enjambre. La combinación de estas técnicas para llevar a cabo la coordinación de un sistema con las características de la red eléctrica es en sí mismo un enfoque novedoso. Por lo tanto, este objetivo de coordinación no es sólo una contribución en el campo de la gestión energética, sino también en el campo de los sistemas colectivos. Los resultados muestran que el algoritmo de GDE propuesto reduce la diferencia entre máximos y mínimos de la red eléctrica en proporción a la cantidad de energía controlada por el algoritmo. Por lo tanto, conforme mayor es la cantidad de energía controlada por el algoritmo, mayor es la mejora de eficiencia en la red eléctrica. Además de las ventajas resultantes del suavizado del consumo agregado, otras ventajas surgen de la solución distribuida seguida en esta Tesis. Estas ventajas se resumen en las siguientes características del algoritmo de GDE propuesto: • Robustez: en un sistema centralizado, un fallo o rotura del nodo central provoca un mal funcionamiento de todo el sistema. La gestión de una red desde un punto de vista distribuido implica que no existe un nodo de control central. Un fallo en cualquier instalación no afecta el funcionamiento global de la red. • Privacidad de datos: el uso de una topología distribuida causa de que no hay un nodo central con información sensible de todos los consumidores. Esta Tesis va más allá y el algoritmo propuesto de GDE no utiliza información específica acerca de los comportamientos de los consumidores, siendo la coordinación entre las instalaciones completamente anónimos. • Escalabilidad: el algoritmo propuesto de GDE opera con cualquier número de instalaciones. Esto implica que se permite la incorporación de nuevas instalaciones sin afectar a su funcionamiento. • Bajo coste: el algoritmo de GDE propuesto se adapta a las redes actuales sin requisitos topológicos. Además, todas las instalaciones calculan su propia gestión con un bajo requerimiento computacional. Por lo tanto, no se requiere un nodo central con un alto poder de cómputo. • Rápido despliegue: las características de escalabilidad y bajo coste de los algoritmos de GDE propuestos permiten una implementación rápida. No se requiere una planificación compleja para el despliegue de este sistema. ABSTRACT This Thesis addresses the efficiency problems of the electrical grids from the consumption point of view. In particular, such efficiency is improved by means of the aggregated consumption smoothing. This objective of consumption smoothing entails two major improvements in the use of electrical grids: i) in the short term, a better use of the existing infrastructure and ii) in long term, the reduction of the required infrastructure to supply the same energy needs. In addition, this Thesis faces a new energy paradigm, where the presence of distributed generation is widespread over the electrical grids, in particular, the Photovoltaic (PV) generation. This kind of energy source affects to the operation of the grid by increasing its variability. This implies that a high penetration rate of photovoltaic electricity is pernicious for the electrical grid stability. This Thesis seeks to smooth the aggregated consumption considering this energy source. Therefore, not only the efficiency of the electrical grid is improved, but also the penetration of photovoltaic electricity into the grid can be increased. This proposal brings great benefits in the economic, social and environmental fields. The actions that influence the way that consumers use electricity in order to achieve energy savings or higher efficiency in energy use are called Demand-Side Management (DSM). This Thesis proposes two different DSM algorithms to meet the aggregated consumption smoothing objective. The difference between both DSM algorithms lie in the framework in which they take place: the local framework and the grid framework. Depending on the DSM framework, the energy goal and the procedure to reach this goal are different. In the local framework, the DSM algorithm only uses local information. It does not take into account other consumers or the aggregated consumption of the electrical grid. Although this statement may differ from the general definition of DSM, it makes sense in local facilities equipped with Distributed Energy Resources (DERs). In this case, the DSM is focused on the maximization of the local energy use, reducing the grid dependence. The proposed DSM algorithm significantly improves the self-consumption of the local PV generator. Simulated and real experiments show that self-consumption serves as an important energy management strategy, reducing the electricity transport and encouraging the user to control his energy behavior. However, despite all the advantages of the self-consumption increase, they do not contribute to the smooth of the aggregated consumption. The effects of the local facilities on the electrical grid are studied when the DSM algorithm is focused on self-consumption maximization. This approach may have undesirable effects, increasing the variability in the aggregated consumption instead of reducing it. This effect occurs because the algorithm only considers local variables in the local framework. The results suggest that coordination between these facilities is required. Through this coordination, the consumption should be modified by taking into account other elements of the grid and seeking for an aggregated consumption smoothing. In the grid framework, the DSM algorithm takes into account both local and grid information. This Thesis develops a self-organized algorithm to manage the consumption of an electrical grid in a distributed way. The goal of this algorithm is the aggregated consumption smoothing, as the classical DSM implementations. The distributed approach means that the DSM is performed from the consumers side without following direct commands issued by a central entity. Therefore, this Thesis proposes a parallel management structure rather than a hierarchical one as in the classical electrical grids. This implies that a coordination mechanism between facilities is required. This Thesis seeks for minimizing the amount of information necessary for this coordination. To achieve this objective, two collective coordination techniques have been used: coupled oscillators and swarm intelligence. The combination of these techniques to perform the coordination of a system with the characteristics of the electric grid is itself a novel approach. Therefore, this coordination objective is not only a contribution in the energy management field, but in the collective systems too. Results show that the proposed DSM algorithm reduces the difference between the maximums and minimums of the electrical grid proportionally to the amount of energy controlled by the system. Thus, the greater the amount of energy controlled by the algorithm, the greater the improvement of the efficiency of the electrical grid. In addition to the advantages resulting from the smoothing of the aggregated consumption, other advantages arise from the distributed approach followed in this Thesis. These advantages are summarized in the following features of the proposed DSM algorithm: • Robustness: in a centralized system, a failure or breakage of the central node causes a malfunction of the whole system. The management of a grid from a distributed point of view implies that there is not a central control node. A failure in any facility does not affect the overall operation of the grid. • Data privacy: the use of a distributed topology causes that there is not a central node with sensitive information of all consumers. This Thesis goes a step further and the proposed DSM algorithm does not use specific information about the consumer behaviors, being the coordination between facilities completely anonymous. • Scalability: the proposed DSM algorithm operates with any number of facilities. This implies that it allows the incorporation of new facilities without affecting its operation. • Low cost: the proposed DSM algorithm adapts to the current grids without any topological requirements. In addition, every facility calculates its own management with low computational requirements. Thus, a central computational node with a high computational power is not required. • Quick deployment: the scalability and low cost features of the proposed DSM algorithms allow a quick deployment. A complex schedule of the deployment of this system is not required.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Una de las aplicaciones más interesantes de las tecnologías de Realidad Acústica Virtual es la posibilidad de recuperar el patrimonio cultural del sonido de los recintos históricos que se han perdido o cuyas características se han modificado a lo largo de los siglos. En este trabajo, las tecnologías de realidad acústica virtual se utilizan para tratar de reconstruir virtualmente el sonido producido en las actividades litúrgicas del antiguo rito hispánico. Bajo este nombre se conoce a la liturgia que celebraban los cristianos de la península ibérica hasta su prohibición, en favor del culto romano, a mediados del siglo XI. El rito hispánico -también conocido como rito visigótico-mozárabe- es una de las manifestaciones culturales más interesantes de la Alta Edad Media en occidente. Se trata de un patrimonio cultural desaparecido, tanto desde el punto de vista de las señales sonoras que lo integraban -ya que la mayoría de las melodías que conformaban el rito se han perdido- como desde el punto de vista de los espacios en los que se desarrollaba, debido a que las iglesias conservadas de la época han experimentado modificaciones a lo largo de los siglos que alteran sus condiciones acústicas con respecto a las que tenían en el periodo de vigencia de esta liturgia. Para llevar a cabo este proyecto, se han realizado modelos acústicos digitales de un grupo representativo de iglesias prerrománicas de la Península Ibérica en su estado primitivo. Se ha procurado que las iglesias seleccionadas representen la variedad de comportamientos acústicos esperables en este tipo de edificios. Con este objetivo, se han elegido cinco iglesias prerrománicas que presentan diferencias sustanciales en los parámetros que, a priori, van a influir en mayor manera a su comportamiento acústico: el volumen del recinto, la forma de la planta y el tipo de cubierta. El proceso de creación de los modelos acústicos digitales de las iglesias se ha dividido en dos fases: en la primera se han creado modelos de los edificios en su estado actual, que se han validado a partir de los datos obtenidos en mediciones acústicas realizadas in situ; a partir de los modelos validados de las iglesias en su estado actual, en la segunda fase se han generado los modelos acústicos digitales correspondientes al estado primitivo de las mismas, modificando los modelos anteriores de acuerdo con las hipótesis de reconstrucción propuestas en las investigaciones arqueológicas más recientes. Se han realizado grabaciones en cámara anecoica de una serie de piezas del repertorio original del canto mozárabe. Las grabaciones se han llevado a cabo con un array esférico compuesto por 32 micrófonos, con objeto de obtener información sobre la directividad de la emisión sonora de los cantantes, que se aplicará en las auralizaciones. Finalmente, se han realizado diversas auralizaciones, teniendo en cuenta diferentes configuraciones litúrgicas que eran usuales en este rito. ABSTRACT One of the most interesting applications of the Acoustic Virtual Reality technologies is the possibility to recover the cultural heritage of the sound of the historical sites that have been lost or whose characteristics have been modified through time. In this work, Acoustic Virtual Reality technologies are used to try to reconstruct virtually the sound produced in the liturgical activities of the Hispanic Rite. This is the name given to the liturgy celebrated by Christians of the Iberian Peninsula prior to the introduction of the Roman cult in the mid-eleventh century. The Hispanic Rite (also known as Visigothic or Mozarabic rite) is one of the most interesting cultural manifestations of the Middle Ages. It is a lost cultural heritage, both from the point of view of the sound signals that were used since the majority of the melodies that conformed the rite have been lost, and from the point of view of the spaces in which this liturgy was celebrated, because the churches preserved from that era have changed over the centuries altering its acoustic conditions respect to which they were in the period in which this liturgy was in effect. To carry out this project, acoustic models of a representative group of the pre-Romanesque churches in the Iberian Peninsula have been made in his primitive state. To select the sample of buildings to study, efforts have been made to ensure that the selected churches were representative of the range of expected acoustic behaviors in this type of buildings. Five churches have been selected, showing differences in the parameters that have the greatest influence on their acoustic behavior: the enclosure volume, the shape of the floor plan and the type of roof. The process of creating digital acoustic models of the churches has been divided into two phases. In the first phase acoustic models of the churches in its current state have been created. These models have been validated with the data obtained from in situ acoustic measurements. From the validated models of churches in its current state, in the second phase, changes in the acoustic models have been performed in order to represent the primitive state of the churches, according to the historical reconstruction hypothesis that have been proposed in the most recent archaeological investigations. Anechoic recordings of a series of pieces of the original Mozarabic Chant repertoire have been recorded. The recordings were made with a spherical array composed of 32 microphones, in order to obtain information on the directivity of the sound emission of the singers. These directivity data will be used to simulate the directional radiation of the sound sources in the auralizations. Finally, auralizations were produced corresponding to different liturgical configurations which were common in this rite.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las herramientas de configuración basadas en lenguajes de alto nivel como LabVIEW permiten el desarrollo de sistemas de adquisición de datos basados en hardware reconfigurable FPGA muy complejos en un breve periodo de tiempo. La estandarización del ciclo de diseño hardware/software y la utilización de herramientas como EPICS facilita su integración con la plataforma de adquisición y control ITER CODAC CORE SYSTEM (CCS) basada en Linux. En este proyecto se propondrá una metodología que simplificará el ciclo completo de integración de plataformas novedosas, como cRIO, en las que el funcionamiento del hardware de adquisición puede ser modificado por el usuario para que éste se amolde a sus requisitos específicos. El objetivo principal de este proyecto fin de master es realizar la integración de un sistema cRIO NI9159 y diferentes módulos de E/S analógica y digital en EPICS y en CODAC CORE SYSTEM (CCS). Este último consiste en un conjunto de herramientas software que simplifican la integración de los sistemas de instrumentación y control del experimento ITER. Para cumplir el objetivo se realizarán las siguientes tareas: • Desarrollo de un sistema de adquisición de datos basado en FPGA con la plataforma hardware CompactRIO. En esta tarea se realizará la configuración del sistema y la implementación en LabVIEW para FPGA del hardware necesario para comunicarse con los módulos: NI9205, NI9264, NI9401.NI9477, NI9426, NI9425 y NI9476 • Implementación de un driver software utilizando la metodología de AsynDriver para integración del cRIO con EPICS. Esta tarea requiere definir todos los records necesarios que exige EPICS y crear las interfaces adecuadas que permitirán comunicarse con el hardware. • Implementar la descripción del sistema cRIO y del driver EPICS en el sistema de descripción de plantas de ITER llamado SDD. Esto automatiza la creación de las aplicaciones de EPICS que se denominan IOCs. SUMMARY The configuration tools based in high-level programing languages like LabVIEW allows the development of high complex data acquisition systems based on reconfigurable hardware FPGA in a short time period. The standardization of the hardware/software design cycle and the use of tools like EPICS ease the integration with the data acquisition and control platform of ITER, the CODAC Core System based on Linux. In this project a methodology is proposed in order to simplify the full integration cycle of new platforms like CompactRIO (cRIO), in which the data acquisition functionality can be reconfigured by the user to fits its concrete requirements. The main objective of this MSc final project is to develop the integration of a cRIO NI-9159 and its different analog and digital Input/Output modules with EPICS in a CCS. The CCS consists of a set of software tools that simplifies the integration of instrumentation and control systems in the International Thermonuclear Reactor (ITER) experiment. To achieve such goal the following tasks are carried out: • Development of a DAQ system based on FPGA using the cRIO hardware platform. This task comprehends the configuration of the system and the implementation of the mandatory hardware to communicate to the I/O adapter modules NI9205, NI9264, NI9401, NI9477, NI9426, NI9425 y NI9476 using LabVIEW for FPGA. • Implementation of a software driver using the asynDriver methodology to integrate such cRIO system with EPICS. This task requires the definition of the necessary EPICS records and the creation of the appropriate interfaces that allow the communication with the hardware. • Develop the cRIO system’s description and the EPICS driver in the ITER plant description tool named SDD. This development will automate the creation of EPICS applications, called IOCs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Es bien conocido por todos que la Primera Revolución Industrial, que tuvo su inicio en la segunda mitad del Siglo XVIII, conllevó un aumento del uso de los recursos energéticos que no se ha detenido para llegar a los niveles de desarrollo tecnológico, industrial y de calidad de vida, de los que se dispone en la actualidad. A simple vista podría intuirse que para disponer de un mayor nivel tecnológico, industrial, de confort, etc. sea necesario un mayor consumo de energía primaria. La actual generación de energía está principalmente basada en el procesamiento de los diversos compuestos del carbono (hidrocarburos, gases y productos derivados del petróleo), que son contaminantes y además, se agotan. Desde hace unas pocas décadas, la humanidad ha sido consciente que es necesario generar energía a partir de fuentes de origen renovable, y que además resulten menos contaminantes. Así, en la actualidad, se ha llegado a un estado de desarrollo avanzado para la explotación de diversas fuentes de energías como la eólica, a la vez que se comienza a mirar con realismo la posibilidad de explotación de diversas energías de origen marino. Se considera que las energías renovables procedentes de los océanos que se encuentran más desarrolladas tecnológicamente hablando, sin tener en cuenta la energía eólica fuera costa (offshore), son la denominada energía undimotriz o de las olas y la energía de las corrientes marinas, no necesariamente en este orden. El trabajo propuesto en esta Tesis se centra en este último recurso energético y, aunque no se dispone todavía de ningún dispositivo en fase de explotación comercial, la concepción, diseño y desarrollo de dispositivos para la extracción de energía de las corrientes, y su evolución, han sido relativamente rápidos e importantes en estos últimos años. Existen ya diferentes dispositivos en fase de pruebas con resultados muy prometedores. Aunque los dispositivos actuales se encuentran limitados a la explotación energética en zonas de poca profundidad, los diferentes estudios del recurso indican la necesidad de explotar corrientes marinas a mayores profundidades, para lo que se están desarrollando actualmente dispositivos, cuya evolución en lo que a sistemas de fondeo se refiere, está siendo muy parecida a la que se ha producido en los parques eólicos fuera costa, similar a su vez, a la evolución llevada a cabo en las plataformas oceánicas para la explotación de recursos petrolíferos (denominados oil & gas) que se extraen de profundidades cada vez mayores. Las soluciones tecnológicas que resulten válidas han de ser también económicamente viables, y en la actualidad se requiere todavía reducir costos en todas las fases de instalación, explotación y mantenimiento de estos dispositivos, sea cual sea su profundidad de operación. Uno de los focos de estudio para abaratar los costes de explotación en general, pasa por abaratar y reducir los costes en las maniobras necesarias de inmersión (de la superficie del mar a la profundidad de operación) y emersión (de la profundidad de operación a la superficie del mar) de estos dispositivos, para llevar a cabo tareas de mantenimiento in situ, en el mar, y sin necesidad de buques especializados ni de su transporte a tierra. En esta Tesis se propone, en primer lugar, un método para evaluar el ciclo de vida de diversos dispositivos de aprovechamiento de las corrientes marinas. Se evidencia que el coste de la energía así generada sigue siendo no plenamente competitivo, por lo que se requiere avanzar en el abaratamiento de costes, principalmente en la instalación y en su mantenimiento. Para ello se propone como novedad principal, introducir sistemas de control en lazo cerrado para realizar maniobras de instalación y mantenimiento de forma automática. También se aporta un modelo dinámico original y muy sencillo para dispositivos bajo estos movimientos de emersión/inmersión, a partir del cual se han desarrollado los algoritmos de control para el propósito mencionado, que no es otro sino automatizar en todo lo posible las maniobras completas. Los algoritmos de control propuestos han sido validados mediante simulación. Se proponen trayectorias de referencia de movimiento suaves (smooth) similares a las utilizadas en robótica. Estos movimientos de cambios de profundidad en lazo cerrado, combinados con secuencias de movimientos en bucle abierto para cuando el dispositivo interacciona en la superficie libre, han dado lugar a nuevas maniobras completas de instalación y mantenimiento que se presentan en esta Tesis, diferentes a las actuales. Finalmente, y como justificación de la viabilidad económica del método novedoso aportado, se ha realizado un estudio comparativo de los costes de la tecnología propuesta, frente a la tecnología actual. Este nuevo sistema de maniobras automáticas implica un ciclo de vida diferente para los dispositivos de aprovechamiento de la energía de las corrientes, ciclo que se cuantifica a partir de un dispositivo base que ha sido modificado y adaptado para la nueva tecnología propuesta, demostrando su viabilidad tanto técnica como económica. ABSTRACT It’s well known that the First Industrial Revolution started in the second half of the eighteenth century, carried the increasing of the use of energy resource which have not been stopped until reach the present technology, industrial evolution and daily life quality. On the surface, it can be known intuitively that a higher consumption of primary energy resource is demanded for benefiting from a higher technological industrial and daily life level. Today, the generation of energy is mainly based in the processing of carbon products (hydrocarbons, gases and petroleum products) which are pollutants, and additionally, are depleted. From a few decades ago, the humanity is aware the energy should be obtained from renewable resources, which besides, should be cleaner. So, at the present, a technical develop has been gained to exploit several energy source, as wind energy, and, at the same time, the extraction of the marine energy starts to seem as a reality. The renewable marine energies considered more advanced and technically developed, without keeping in mind, the offshore wind energy, are the wave energy and the tidal current energy, not necessarily in that order. This Thesis is focused in this last energy resource, and, although, any device is under commercial operation, the concept, design and develop of this type of devices to extract the tidal current energy and their evolution has been comparatively fast and important the last years. There are several devices under test with promising results. Even through the current devices are limited to lower depth areas, the several studies of the tidal energy resource suggest the need to exploit the marine current at greater depths to what is being developed devices, where their evolution in the anchoring system is being very similar to the evolution performed in the offshore wind farms, which is at the same time, similar to the evolution in the oil and gas exploitation which are extracted to greatest depths. Viable technical solutions should be also viable economically and nowadays the cost in all phases of the project (installation, maintenance and operation) should be decreased whatever the operation depth is. One focus of study to lower the operation cost is the cost decreasing of immersion manoeuvring operations (from sea surface to the operation depth) and immersion manoeuvring operations (from operation depth to the sea surface), therefore the maintenance operations can be performed on – site, in the sea, and no specialized vessels are required to transport the devices from the sea to shore. In this dissertation, firstly is proposed a method to evaluate the life cycle of the tidal energy current devices. It is proved the energy generated by these devices is not fully competitive; therefore, the cost falling is mainly an objective in the installation and the maintenance operations. For that, it is proposed as main novelty, the using of closed loop control systems to perform the automatic installation and manoeuvring operations. It is also contributed with an original and simple dynamic model and for controlling the immersion/emersion movements of these devices, from which the control algorithms are developed in order to automate as much as possible the complete manoeuvring. The control algorithms proposed has been validated by simulations. Reference paths with smooth movements, similar which are used in robotics, are suggested. These movements to change the depth using closed loop control, combined with the sequences in open loop movements when the device is in free surface, have been development for a new complete manoeuvring to installation and maintenance operations which are advanced in this Thesis and they are different to the present manoeuvrings. Finally and as justification of the economic viability of this original method, a comparative cost study between the technology proposed and the current technology is performed. This new automatic manoeuvring system involves a different life cycle for the tidal energy current devices, cycle that is quantified from a base device which has been modified and adapted for the new proposed technology, showing the technical and economic viability.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El aislamiento acústico depende de las particiones que separan los recintos, de las transmisiones indirectas y de los posibles errores de ejecución. Respecto a las transmisiones indirectas, éstas pueden controlarse con un diseño riguroso de las uniones y una buena puesta en obra. Este trabajo muestra la influencia que tiene el diseño de las uniones en el aislamiento acústico medido in situ, específicamente de las uniones entre las particiones y la fachada de dos hojas. Simulando una obra nueva, en un laboratorio se han realizado distintos montajes de particiones, se han trasdosado con paredes cerámicas con bandas y se ha modificado el diseño de la unión entre la fachada y las particiones. Para cada uno de los montajes se ha realizado un ensayo de aislamiento acústico. Las diferencias encontradas entre cada una de las diferentes configuraciones ensayadas llegan a los 9 dB.