830 resultados para Vida útil
Resumo:
El proyecto estudia un tramo de la carretera M-204 de la red secundaria del territorio español, perteneciente a la Comunidad Autónoma de Madrid, en el sureste de ésta y en concreto se encuentra entre los términos municipales de Tielmes y Carabaña. Discurre por la vega del río Tajuña con una trayectoria sensiblemente paralela al cauce. Se sitúa entre dos pequeños sistemas de montañas y su trazado divide al paisaje en dos. Se ha realizado un Estudio Previo de Soluciones para poder determinar que alternativa de acondicionamiento, mejora o nueva construcción se debe desarrollar más adelante para su eventual construcción. De esta manera se analizan a lo largo de los diversos anejos las posibles alternativas al actual tramo de la M-204 Tielmes-Carabaña, que presenta varios puntos de su trazado donde los radios mínimos no cumplen con la normativa, habiendo también numerosas zonas con visibilidad limitada. Además la mejora de los accesos del resto de carreteras y caminos a dicha carretera también debe acometerse, con independencia de la alternativa que resulte más adecuada.Se ha hecho una estimación de la intensidad de tráfico media diaria que soportará dicho tramo durante el año de puesta en servicio (2015) y para el final de la vida útil de la solución adoptada (2035). A continuación, se ha determinado la IMD y se calculó el nivel de servicio y la categoría de tráfico pesado que se podrá tener en estos años con el diseño planteado y así conocer si se satisfacen las necesidades de la zona. Después del estudio en el que se han tenido en cuenta aspectos funcionales, económicos, medioambientales y topográficos, se ha obtenido una solución para su posterior desarrollo y construcción, que consiste en una carretera de una sola calzada con un carril por sentido.
Resumo:
La optimización de parámetros tales como el consumo de potencia, la cantidad de recursos lógicos empleados o la ocupación de memoria ha sido siempre una de las preocupaciones principales a la hora de diseñar sistemas embebidos. Esto es debido a que se trata de sistemas dotados de una cantidad de recursos limitados, y que han sido tradicionalmente empleados para un propósito específico, que permanece invariable a lo largo de toda la vida útil del sistema. Sin embargo, el uso de sistemas embebidos se ha extendido a áreas de aplicación fuera de su ámbito tradicional, caracterizadas por una mayor demanda computacional. Así, por ejemplo, algunos de estos sistemas deben llevar a cabo un intenso procesado de señales multimedia o la transmisión de datos mediante sistemas de comunicaciones de alta capacidad. Por otra parte, las condiciones de operación del sistema pueden variar en tiempo real. Esto sucede, por ejemplo, si su funcionamiento depende de datos medidos por el propio sistema o recibidos a través de la red, de las demandas del usuario en cada momento, o de condiciones internas del propio dispositivo, tales como la duración de la batería. Como consecuencia de la existencia de requisitos de operación dinámicos es necesario ir hacia una gestión dinámica de los recursos del sistema. Si bien el software es inherentemente flexible, no ofrece una potencia computacional tan alta como el hardware. Por lo tanto, el hardware reconfigurable aparece como una solución adecuada para tratar con mayor flexibilidad los requisitos variables dinámicamente en sistemas con alta demanda computacional. La flexibilidad y adaptabilidad del hardware requieren de dispositivos reconfigurables que permitan la modificación de su funcionalidad bajo demanda. En esta tesis se han seleccionado las FPGAs (Field Programmable Gate Arrays) como los dispositivos más apropiados, hoy en día, para implementar sistemas basados en hardware reconfigurable De entre todas las posibilidades existentes para explotar la capacidad de reconfiguración de las FPGAs comerciales, se ha seleccionado la reconfiguración dinámica y parcial. Esta técnica consiste en substituir una parte de la lógica del dispositivo, mientras el resto continúa en funcionamiento. La capacidad de reconfiguración dinámica y parcial de las FPGAs es empleada en esta tesis para tratar con los requisitos de flexibilidad y de capacidad computacional que demandan los dispositivos embebidos. La propuesta principal de esta tesis doctoral es el uso de arquitecturas de procesamiento escalables espacialmente, que son capaces de adaptar su funcionalidad y rendimiento en tiempo real, estableciendo un compromiso entre dichos parámetros y la cantidad de lógica que ocupan en el dispositivo. A esto nos referimos con arquitecturas con huellas escalables. En particular, se propone el uso de arquitecturas altamente paralelas, modulares, regulares y con una alta localidad en sus comunicaciones, para este propósito. El tamaño de dichas arquitecturas puede ser modificado mediante la adición o eliminación de algunos de los módulos que las componen, tanto en una dimensión como en dos. Esta estrategia permite implementar soluciones escalables, sin tener que contar con una versión de las mismas para cada uno de los tamaños posibles de la arquitectura. De esta manera se reduce significativamente el tiempo necesario para modificar su tamaño, así como la cantidad de memoria necesaria para almacenar todos los archivos de configuración. En lugar de proponer arquitecturas para aplicaciones específicas, se ha optado por patrones de procesamiento genéricos, que pueden ser ajustados para solucionar distintos problemas en el estado del arte. A este respecto, se proponen patrones basados en esquemas sistólicos, así como de tipo wavefront. Con el objeto de poder ofrecer una solución integral, se han tratado otros aspectos relacionados con el diseño y el funcionamiento de las arquitecturas, tales como el control del proceso de reconfiguración de la FPGA, la integración de las arquitecturas en el resto del sistema, así como las técnicas necesarias para su implementación. Por lo que respecta a la implementación, se han tratado distintos aspectos de bajo nivel dependientes del dispositivo. Algunas de las propuestas realizadas a este respecto en la presente tesis doctoral son un router que es capaz de garantizar el correcto rutado de los módulos reconfigurables dentro del área destinada para ellos, así como una estrategia para la comunicación entre módulos que no introduce ningún retardo ni necesita emplear recursos configurables del dispositivo. El flujo de diseño propuesto se ha automatizado mediante una herramienta denominada DREAMS. La herramienta se encarga de la modificación de las netlists correspondientes a cada uno de los módulos reconfigurables del sistema, y que han sido generadas previamente mediante herramientas comerciales. Por lo tanto, el flujo propuesto se entiende como una etapa de post-procesamiento, que adapta esas netlists a los requisitos de la reconfiguración dinámica y parcial. Dicha modificación la lleva a cabo la herramienta de una forma completamente automática, por lo que la productividad del proceso de diseño aumenta de forma evidente. Para facilitar dicho proceso, se ha dotado a la herramienta de una interfaz gráfica. El flujo de diseño propuesto, y la herramienta que lo soporta, tienen características específicas para abordar el diseño de las arquitecturas dinámicamente escalables propuestas en esta tesis. Entre ellas está el soporte para el realojamiento de módulos reconfigurables en posiciones del dispositivo distintas a donde el módulo es originalmente implementado, así como la generación de estructuras de comunicación compatibles con la simetría de la arquitectura. El router has sido empleado también en esta tesis para obtener un rutado simétrico entre nets equivalentes. Dicha posibilidad ha sido explotada para aumentar la protección de circuitos con altos requisitos de seguridad, frente a ataques de canal lateral, mediante la implantación de lógica complementaria con rutado idéntico. Para controlar el proceso de reconfiguración de la FPGA, se propone en esta tesis un motor de reconfiguración especialmente adaptado a los requisitos de las arquitecturas dinámicamente escalables. Además de controlar el puerto de reconfiguración, el motor de reconfiguración ha sido dotado de la capacidad de realojar módulos reconfigurables en posiciones arbitrarias del dispositivo, en tiempo real. De esta forma, basta con generar un único bitstream por cada módulo reconfigurable del sistema, independientemente de la posición donde va a ser finalmente reconfigurado. La estrategia seguida para implementar el proceso de realojamiento de módulos es diferente de las propuestas existentes en el estado del arte, pues consiste en la composición de los archivos de configuración en tiempo real. De esta forma se consigue aumentar la velocidad del proceso, mientras que se reduce la longitud de los archivos de configuración parciales a almacenar en el sistema. El motor de reconfiguración soporta módulos reconfigurables con una altura menor que la altura de una región de reloj del dispositivo. Internamente, el motor se encarga de la combinación de los frames que describen el nuevo módulo, con la configuración existente en el dispositivo previamente. El escalado de las arquitecturas de procesamiento propuestas en esta tesis también se puede beneficiar de este mecanismo. Se ha incorporado también un acceso directo a una memoria externa donde se pueden almacenar bitstreams parciales. Para acelerar el proceso de reconfiguración se ha hecho funcionar el ICAP por encima de la máxima frecuencia de reloj aconsejada por el fabricante. Así, en el caso de Virtex-5, aunque la máxima frecuencia del reloj deberían ser 100 MHz, se ha conseguido hacer funcionar el puerto de reconfiguración a frecuencias de operación de hasta 250 MHz, incluyendo el proceso de realojamiento en tiempo real. Se ha previsto la posibilidad de portar el motor de reconfiguración a futuras familias de FPGAs. Por otro lado, el motor de reconfiguración se puede emplear para inyectar fallos en el propio dispositivo hardware, y así ser capaces de evaluar la tolerancia ante los mismos que ofrecen las arquitecturas reconfigurables. Los fallos son emulados mediante la generación de archivos de configuración a los que intencionadamente se les ha introducido un error, de forma que se modifica su funcionalidad. Con el objetivo de comprobar la validez y los beneficios de las arquitecturas propuestas en esta tesis, se han seguido dos líneas principales de aplicación. En primer lugar, se propone su uso como parte de una plataforma adaptativa basada en hardware evolutivo, con capacidad de escalabilidad, adaptabilidad y recuperación ante fallos. En segundo lugar, se ha desarrollado un deblocking filter escalable, adaptado a la codificación de vídeo escalable, como ejemplo de aplicación de las arquitecturas de tipo wavefront propuestas. El hardware evolutivo consiste en el uso de algoritmos evolutivos para diseñar hardware de forma autónoma, explotando la flexibilidad que ofrecen los dispositivos reconfigurables. En este caso, los elementos de procesamiento que componen la arquitectura son seleccionados de una biblioteca de elementos presintetizados, de acuerdo con las decisiones tomadas por el algoritmo evolutivo, en lugar de definir la configuración de las mismas en tiempo de diseño. De esta manera, la configuración del core puede cambiar cuando lo hacen las condiciones del entorno, en tiempo real, por lo que se consigue un control autónomo del proceso de reconfiguración dinámico. Así, el sistema es capaz de optimizar, de forma autónoma, su propia configuración. El hardware evolutivo tiene una capacidad inherente de auto-reparación. Se ha probado que las arquitecturas evolutivas propuestas en esta tesis son tolerantes ante fallos, tanto transitorios, como permanentes y acumulativos. La plataforma evolutiva se ha empleado para implementar filtros de eliminación de ruido. La escalabilidad también ha sido aprovechada en esta aplicación. Las arquitecturas evolutivas escalables permiten la adaptación autónoma de los cores de procesamiento ante fluctuaciones en la cantidad de recursos disponibles en el sistema. Por lo tanto, constituyen un ejemplo de escalabilidad dinámica para conseguir un determinado nivel de calidad, que puede variar en tiempo real. Se han propuesto dos variantes de sistemas escalables evolutivos. El primero consiste en un único core de procesamiento evolutivo, mientras que el segundo está formado por un número variable de arrays de procesamiento. La codificación de vídeo escalable, a diferencia de los codecs no escalables, permite la decodificación de secuencias de vídeo con diferentes niveles de calidad, de resolución temporal o de resolución espacial, descartando la información no deseada. Existen distintos algoritmos que soportan esta característica. En particular, se va a emplear el estándar Scalable Video Coding (SVC), que ha sido propuesto como una extensión de H.264/AVC, ya que este último es ampliamente utilizado tanto en la industria, como a nivel de investigación. Para poder explotar toda la flexibilidad que ofrece el estándar, hay que permitir la adaptación de las características del decodificador en tiempo real. El uso de las arquitecturas dinámicamente escalables es propuesto en esta tesis con este objetivo. El deblocking filter es un algoritmo que tiene como objetivo la mejora de la percepción visual de la imagen reconstruida, mediante el suavizado de los "artefactos" de bloque generados en el lazo del codificador. Se trata de una de las tareas más intensivas en procesamiento de datos de H.264/AVC y de SVC, y además, su carga computacional es altamente dependiente del nivel de escalabilidad seleccionado en el decodificador. Por lo tanto, el deblocking filter ha sido seleccionado como prueba de concepto de la aplicación de las arquitecturas dinámicamente escalables para la compresión de video. La arquitectura propuesta permite añadir o eliminar unidades de computación, siguiendo un esquema de tipo wavefront. La arquitectura ha sido propuesta conjuntamente con un esquema de procesamiento en paralelo del deblocking filter a nivel de macrobloque, de tal forma que cuando se varía del tamaño de la arquitectura, el orden de filtrado de los macrobloques varia de la misma manera. El patrón propuesto se basa en la división del procesamiento de cada macrobloque en dos etapas independientes, que se corresponden con el filtrado horizontal y vertical de los bloques dentro del macrobloque. Las principales contribuciones originales de esta tesis son las siguientes: - El uso de arquitecturas altamente regulares, modulares, paralelas y con una intensa localidad en sus comunicaciones, para implementar cores de procesamiento dinámicamente reconfigurables. - El uso de arquitecturas bidimensionales, en forma de malla, para construir arquitecturas dinámicamente escalables, con una huella escalable. De esta forma, las arquitecturas permiten establecer un compromiso entre el área que ocupan en el dispositivo, y las prestaciones que ofrecen en cada momento. Se proponen plantillas de procesamiento genéricas, de tipo sistólico o wavefront, que pueden ser adaptadas a distintos problemas de procesamiento. - Un flujo de diseño y una herramienta que lo soporta, para el diseño de sistemas reconfigurables dinámicamente, centradas en el diseño de las arquitecturas altamente paralelas, modulares y regulares propuestas en esta tesis. - Un esquema de comunicaciones entre módulos reconfigurables que no introduce ningún retardo ni requiere el uso de recursos lógicos propios. - Un router flexible, capaz de resolver los conflictos de rutado asociados con el diseño de sistemas reconfigurables dinámicamente. - Un algoritmo de optimización para sistemas formados por múltiples cores escalables que optimice, mediante un algoritmo genético, los parámetros de dicho sistema. Se basa en un modelo conocido como el problema de la mochila. - Un motor de reconfiguración adaptado a los requisitos de las arquitecturas altamente regulares y modulares. Combina una alta velocidad de reconfiguración, con la capacidad de realojar módulos en tiempo real, incluyendo el soporte para la reconfiguración de regiones que ocupan menos que una región de reloj, así como la réplica de un módulo reconfigurable en múltiples posiciones del dispositivo. - Un mecanismo de inyección de fallos que, empleando el motor de reconfiguración del sistema, permite evaluar los efectos de fallos permanentes y transitorios en arquitecturas reconfigurables. - La demostración de las posibilidades de las arquitecturas propuestas en esta tesis para la implementación de sistemas de hardware evolutivos, con una alta capacidad de procesamiento de datos. - La implementación de sistemas de hardware evolutivo escalables, que son capaces de tratar con la fluctuación de la cantidad de recursos disponibles en el sistema, de una forma autónoma. - Una estrategia de procesamiento en paralelo para el deblocking filter compatible con los estándares H.264/AVC y SVC que reduce el número de ciclos de macrobloque necesarios para procesar un frame de video. - Una arquitectura dinámicamente escalable que permite la implementación de un nuevo deblocking filter, totalmente compatible con los estándares H.264/AVC y SVC, que explota el paralelismo a nivel de macrobloque. El presente documento se organiza en siete capítulos. En el primero se ofrece una introducción al marco tecnológico de esta tesis, especialmente centrado en la reconfiguración dinámica y parcial de FPGAs. También se motiva la necesidad de las arquitecturas dinámicamente escalables propuestas en esta tesis. En el capítulo 2 se describen las arquitecturas dinámicamente escalables. Dicha descripción incluye la mayor parte de las aportaciones a nivel arquitectural realizadas en esta tesis. Por su parte, el flujo de diseño adaptado a dichas arquitecturas se propone en el capítulo 3. El motor de reconfiguración se propone en el 4, mientras que el uso de dichas arquitecturas para implementar sistemas de hardware evolutivo se aborda en el 5. El deblocking filter escalable se describe en el 6, mientras que las conclusiones finales de esta tesis, así como la descripción del trabajo futuro, son abordadas en el capítulo 7. ABSTRACT The optimization of system parameters, such as power dissipation, the amount of hardware resources and the memory footprint, has been always a main concern when dealing with the design of resource-constrained embedded systems. This situation is even more demanding nowadays. Embedded systems cannot anymore be considered only as specific-purpose computers, designed for a particular functionality that remains unchanged during their lifetime. Differently, embedded systems are now required to deal with more demanding and complex functions, such as multimedia data processing and high-throughput connectivity. In addition, system operation may depend on external data, the user requirements or internal variables of the system, such as the battery life-time. All these conditions may vary at run-time, leading to adaptive scenarios. As a consequence of both the growing computational complexity and the existence of dynamic requirements, dynamic resource management techniques for embedded systems are needed. Software is inherently flexible, but it cannot meet the computing power offered by hardware solutions. Therefore, reconfigurable hardware emerges as a suitable technology to deal with the run-time variable requirements of complex embedded systems. Adaptive hardware requires the use of reconfigurable devices, where its functionality can be modified on demand. In this thesis, Field Programmable Gate Arrays (FPGAs) have been selected as the most appropriate commercial technology existing nowadays to implement adaptive hardware systems. There are different ways of exploiting reconfigurability in reconfigurable devices. Among them is dynamic and partial reconfiguration. This is a technique which consists in substituting part of the FPGA logic on demand, while the rest of the device continues working. The strategy followed in this thesis is to exploit the dynamic and partial reconfiguration of commercial FPGAs to deal with the flexibility and complexity demands of state-of-the-art embedded systems. The proposal of this thesis to deal with run-time variable system conditions is the use of spatially scalable processing hardware IP cores, which are able to adapt their functionality or performance at run-time, trading them off with the amount of logic resources they occupy in the device. This is referred to as a scalable footprint in the context of this thesis. The distinguishing characteristic of the proposed cores is that they rely on highly parallel, modular and regular architectures, arranged in one or two dimensions. These architectures can be scaled by means of the addition or removal of the composing blocks. This strategy avoids implementing a full version of the core for each possible size, with the corresponding benefits in terms of scaling and adaptation time, as well as bitstream storage memory requirements. Instead of providing specific-purpose architectures, generic architectural templates, which can be tuned to solve different problems, are proposed in this thesis. Architectures following both systolic and wavefront templates have been selected. Together with the proposed scalable architectural templates, other issues needed to ensure the proper design and operation of the scalable cores, such as the device reconfiguration control, the run-time management of the architecture and the implementation techniques have been also addressed in this thesis. With regard to the implementation of dynamically reconfigurable architectures, device dependent low-level details are addressed. Some of the aspects covered in this thesis are the area constrained routing for reconfigurable modules, or an inter-module communication strategy which does not introduce either extra delay or logic overhead. The system implementation, from the hardware description to the device configuration bitstream, has been fully automated by modifying the netlists corresponding to each of the system modules, which are previously generated using the vendor tools. This modification is therefore envisaged as a post-processing step. Based on these implementation proposals, a design tool called DREAMS (Dynamically Reconfigurable Embedded and Modular Systems) has been created, including a graphic user interface. The tool has specific features to cope with modular and regular architectures, including the support for module relocation and the inter-module communications scheme based on the symmetry of the architecture. The core of the tool is a custom router, which has been also exploited in this thesis to obtain symmetric routed nets, with the aim of enhancing the protection of critical reconfigurable circuits against side channel attacks. This is achieved by duplicating the logic with an exactly equal routing. In order to control the reconfiguration process of the FPGA, a Reconfiguration Engine suited to the specific requirements set by the proposed architectures was also proposed. Therefore, in addition to controlling the reconfiguration port, the Reconfiguration Engine has been enhanced with the online relocation ability, which allows employing a unique configuration bitstream for all the positions where the module may be placed in the device. Differently to the existing relocating solutions, which are based on bitstream parsers, the proposed approach is based on the online composition of bitstreams. This strategy allows increasing the speed of the process, while the length of partial bitstreams is also reduced. The height of the reconfigurable modules can be lower than the height of a clock region. The Reconfiguration Engine manages the merging process of the new and the existing configuration frames within each clock region. The process of scaling up and down the hardware cores also benefits from this technique. A direct link to an external memory where partial bitstreams can be stored has been also implemented. In order to accelerate the reconfiguration process, the ICAP has been overclocked over the speed reported by the manufacturer. In the case of Virtex-5, even though the maximum frequency of the ICAP is reported to be 100 MHz, valid operations at 250 MHz have been achieved, including the online relocation process. Portability of the reconfiguration solution to today's and probably, future FPGAs, has been also considered. The reconfiguration engine can be also used to inject faults in real hardware devices, and this way being able to evaluate the fault tolerance offered by the reconfigurable architectures. Faults are emulated by introducing partial bitstreams intentionally modified to provide erroneous functionality. To prove the validity and the benefits offered by the proposed architectures, two demonstration application lines have been envisaged. First, scalable architectures have been employed to develop an evolvable hardware platform with adaptability, fault tolerance and scalability properties. Second, they have been used to implement a scalable deblocking filter suited to scalable video coding. Evolvable Hardware is the use of evolutionary algorithms to design hardware in an autonomous way, exploiting the flexibility offered by reconfigurable devices. In this case, processing elements composing the architecture are selected from a presynthesized library of processing elements, according to the decisions taken by the algorithm, instead of being decided at design time. This way, the configuration of the array may change as run-time environmental conditions do, achieving autonomous control of the dynamic reconfiguration process. Thus, the self-optimization property is added to the native self-configurability of the dynamically scalable architectures. In addition, evolvable hardware adaptability inherently offers self-healing features. The proposal has proved to be self-tolerant, since it is able to self-recover from both transient and cumulative permanent faults. The proposed evolvable architecture has been used to implement noise removal image filters. Scalability has been also exploited in this application. Scalable evolvable hardware architectures allow the autonomous adaptation of the processing cores to a fluctuating amount of resources available in the system. Thus, it constitutes an example of the dynamic quality scalability tackled in this thesis. Two variants have been proposed. The first one consists in a single dynamically scalable evolvable core, and the second one contains a variable number of processing cores. Scalable video is a flexible approach for video compression, which offers scalability at different levels. Differently to non-scalable codecs, a scalable video bitstream can be decoded with different levels of quality, spatial or temporal resolutions, by discarding the undesired information. The interest in this technology has been fostered by the development of the Scalable Video Coding (SVC) standard, as an extension of H.264/AVC. In order to exploit all the flexibility offered by the standard, it is necessary to adapt the characteristics of the decoder to the requirements of each client during run-time. The use of dynamically scalable architectures is proposed in this thesis with this aim. The deblocking filter algorithm is the responsible of improving the visual perception of a reconstructed image, by smoothing blocking artifacts generated in the encoding loop. This is one of the most computationally intensive tasks of the standard, and furthermore, it is highly dependent on the selected scalability level in the decoder. Therefore, the deblocking filter has been selected as a proof of concept of the implementation of dynamically scalable architectures for video compression. The proposed architecture allows the run-time addition or removal of computational units working in parallel to change its level of parallelism, following a wavefront computational pattern. Scalable architecture is offered together with a scalable parallelization strategy at the macroblock level, such that when the size of the architecture changes, the macroblock filtering order is modified accordingly. The proposed pattern is based on the division of the macroblock processing into two independent stages, corresponding to the horizontal and vertical filtering of the blocks within the macroblock. The main contributions of this thesis are: - The use of highly parallel, modular, regular and local architectures to implement dynamically reconfigurable processing IP cores, for data intensive applications with flexibility requirements. - The use of two-dimensional mesh-type arrays as architectural templates to build dynamically reconfigurable IP cores, with a scalable footprint. The proposal consists in generic architectural templates, which can be tuned to solve different computational problems. •A design flow and a tool targeting the design of DPR systems, focused on highly parallel, modular and local architectures. - An inter-module communication strategy, which does not introduce delay or area overhead, named Virtual Borders. - A custom and flexible router to solve the routing conflicts as well as the inter-module communication problems, appearing during the design of DPR systems. - An algorithm addressing the optimization of systems composed of multiple scalable cores, which size can be decided individually, to optimize the system parameters. It is based on a model known as the multi-dimensional multi-choice Knapsack problem. - A reconfiguration engine tailored to the requirements of highly regular and modular architectures. It combines a high reconfiguration throughput with run-time module relocation capabilities, including the support for sub-clock reconfigurable regions and the replication in multiple positions. - A fault injection mechanism which takes advantage of the system reconfiguration engine, as well as the modularity of the proposed reconfigurable architectures, to evaluate the effects of transient and permanent faults in these architectures. - The demonstration of the possibilities of the architectures proposed in this thesis to implement evolvable hardware systems, while keeping a high processing throughput. - The implementation of scalable evolvable hardware systems, which are able to adapt to the fluctuation of the amount of resources available in the system, in an autonomous way. - A parallelization strategy for the H.264/AVC and SVC deblocking filter, which reduces the number of macroblock cycles needed to process the whole frame. - A dynamically scalable architecture that permits the implementation of a novel deblocking filter module, fully compliant with the H.264/AVC and SVC standards, which exploits the macroblock level parallelism of the algorithm. This document is organized in seven chapters. In the first one, an introduction to the technology framework of this thesis, specially focused on dynamic and partial reconfiguration, is provided. The need for the dynamically scalable processing architectures proposed in this work is also motivated in this chapter. In chapter 2, dynamically scalable architectures are described. Description includes most of the architectural contributions of this work. The design flow tailored to the scalable architectures, together with the DREAMs tool provided to implement them, are described in chapter 3. The reconfiguration engine is described in chapter 4. The use of the proposed scalable archtieectures to implement evolvable hardware systems is described in chapter 5, while the scalable deblocking filter is described in chapter 6. Final conclusions of this thesis, and the description of future work, are addressed in chapter 7.
Resumo:
Este proyecto tiene por objeto definir las diferentes obras e instalaciones necesarias para poder realizar, de acuerdo con la normativa vigente, el tratamiento de la totalidad de las aguas residuales producidas en el casco urbano del municipio de Arganda del Rey, con una previsión de vida útil de 25 años, es decir, para el año de proyecto 2038. Las obras que se consideran incluidas en la construcción de la Estación Depuradora de Aguas Residuales (E.D.A.R.) de Arganda del Rey son: bombeo de las aguas residuales a tratar, desde el emisario a la planta de nueva onstrucción, toma de entrada de las aguas residuales a la estación de tratamiento;instalaciones de tratamiento de las aguas residuales (E.D.A.R.), restitución al río Jarama del efluente tratado,instalaciones de energía eléctrica, agua potable y telefonía necesarias para el funcionamiento correcto de la estación y acondicionamiento del camino de acceso existente a la planta. Así mismo se pretende la consecución en todo momento de unos requisitos mínimos de calidad, costes y funcionalidad que se pueden resumir en: buena relación coste/calidad,introducción de nuevas técnicas ya experimentadas con resultados óptimos, establecimiento de equilibrio entre los costes de primera inversión y los de mantenimiento, facilitar la explotación y mantenimiento de la instalación, reducción de costes de mantenimiento y aspecto estético de la instalación agradable.
Resumo:
El presente proyecto consiste en la construcción de un nuevo puente sobre la vía Enköpingsvägen (carretera 841), que conecta los distritos municipales de Kallhäll y Kungsängen en la provincia de Estocolmo (Suecia). Dicha construcción se realiza con el objetivo de sustituir el ya existente en dicha ruta, que es un puente rotatorio que permite el paso a aquellas embarcaciones que cruzan por el lago Mälaren con destino a Sigtuna, desde Estocolmo y viceversa. La sustitución de este puente por uno nuevo se fundamenta en lo siguiente: primero, evitar el importante consumo energético que el puente requiere a la hora de rotar sobre sí mismo; segundo, disminuir los gastos de mantenimiento asociados a la rotación de la estructura; tercero, reducir los atascos que se producen en los accesos al puente actual, cuando entra en funcionamiento para permitir el paso de embarcaciones, para lo cual se propone, como alternativa, un puente fijo que tenga la altura necesaria para permitir la navegación de las embarcaciones existentes. Por último, otro motivo es la cercanía a la expiración de la vida útil que tiene dicho puente. La construcción del mismo data de hace más de 80 años y, en Suecia, actualmente la media del plazo de desmantelamiento se sitúa entre 60 y 70 años.
Resumo:
El ciclo térmico natural de la célula y receptores en módulos CPV (Concentrated PhotoVoltaic) es considerado un punto débil en la operación de campo real de estos dispositivos, así como la fluctuación entre valores altos y bajos de niveles de irradiancia incidente en la célula, comúnmente causadas por nubes, produce un estrés termo-mecánico que puede ser motivo de fallo. La normativa IEC 6218 ha tenido en cuenta esta serie de problemas a la hora de diseñar una norma de calificación y homologación para módulos CPV. En concreto, este proyecto se va a basar en el test denominado "Thermal cycling test" que realiza un ciclo térmico en la base de la célula mientras se le inyectan pulsos de corriente. Sin embargo, este método produce un nivel de estrés un 50% menor que el estrés real en condiciones nominales. En este proyecto se diseña e implementa la máquina LYSS (Light cYcling Stress Source) que trata de realizar dos tipos de ciclos basados en el definido en la IEC 62108 con la variación de utilizar pulsos de luz directa a muy alta irradiancia focalizada en la parte activa de la célula en lugar de los pulsos de corriente mencionados. Con este método se pretende acelerar el proceso de degradación en la célula de manera que en tan solo 2 meses se pueda producir la misma que en 30 años de vida útil de la célula. En el primer tipo de ciclo la temperatura permanece constante durante la ejecución de los pulsos de luz y, en el segundo se realiza un ciclo térmico que varía entre una temperatura mínima y otra máxima durante estos pulsos. Además, se establece un criterio de fallo basado en la estimación de la resistencia serie de la célula a partir de los valores de su curva característica IV en condiciones de oscuridad. La metodología del proyecto realizado consiste en realizar un estudio detallado para identificar los componentes necesarios para construir la máquina, adquirirlos, llevar a cabo el montaje de éstos para que la máquina pueda implementar los ciclos diseñados, realizar los experimentos necesarios para caracterizar los diferentes dispositivos que componen la máquina, programar una aplicación de control, monitorización y adquisición de datos que comande la máquina, realizar una serie de pruebas basadas en uno de los ciclos térmico-luminosos diseñados a receptores solares de concentración reales y, por último, observar la degradación que se pudiera producirse en ésta conforme aumenta el número de ciclos realizados analizando su curva IV en condiciones de oscuridad y obteniendo conclusiones sobre la fiabilidad de la célula y/o el receptor CPV.
Resumo:
La salinización en suelos de cultivos es un fenómeno muy relevante en el Sureste español que se produce por el empleo de aguas de riego salinas o de mala calidad. La lechuga (Lactuca sativa L.) es uno de los cultivos hortícolas de mayor implantación en esta área, destinándose principalmente para consumo en fresco y en productos cuarta gama. La salinidad puede afectar a la productividad y calidad del cultivo, sin embargo, en determinadas concentraciones investigaciones previas muestran que la salinidad puede favorecer la conservación de las hojas tras el corte, disminuyendo los procesos de degradación enzimática y el desarrollo de microorganismos. El objetivo del presente trabajo es evaluar la viabilidad de la imagen hiperespectral (400 a 1000 nm) para identificar la influencia del estrés salino en lechuga ?baby? recién recolectada. Para ello, se han adquirido imágenes de 40 hojas de diferentes lechugas sometidas a tres soluciones salinas diferentes y a una solución control. Dichas imágenes fueron sometidas a preprocesado de espectros (suavizado con el algoritmo Savitsky-Golay + normalización SNV), combinado con Análisis de Componentes Principales. Las imágenes virtuales de scores generadas con el modelo muestran diferencias progresivas en los valores asignados a los píxeles de las imágenes a medida que aumenta la concentración salina de la solución aplicada al cultivo. Se observa cómo la solución salina afecta a la hoja cambiando la coloración de las zonas medias, posiblemente debido a la concentración de solutos. La interpretación de los loadings de estos modelos permite conocer cómo afecta la salinidad al comportamiento espectral de las hojas. La imagen hiperespectral puede tener un gran potencial para identificar los límites de salinidad tolerados y evitar concentraciones tóxicas que afecten negativamente la vida útil de las hortalizas de hoja. Este conocimiento permitirá desarrollar índices multiespectrales capaces de identificar hojas afectadas por salinidad durante su cultivo y procesado postcosecha.
Resumo:
En su vida en servicio las estructuras deben tener capacidad para soportar el ambiente de exposición en el que se encuentran, garantizando su durabilidad en la vida útil para la que han sido proyectadas. En el caso del hormigón armado la perdida de la durabilidad se produce por acciones que pueden degradar las características del hormigón o de las armaduras. La ocurrencia de acciones extraordinarias no consideradas en el dimensionamiento puede provocar la aparición de solicitaciones en el hormigón que originan valores tensionales que aún siendo inferiores a los resistentes, y por tanto no suponiendo a priori un riesgo en su seguridad estructural, pueden producir procesos de microfisuración del hormigón que aumentan la permeabilidad a los agentes externos reduciendo la durabilidad de la estructura. En el presente trabajo se describen los resultados de la investigación realizada para el estudio de la evolución de la permeabilidad del hormigón en diferentes procesos de compresión previa, en base al ensayo de penetración de agua. Para ello se ha realizado un plan experimental de ensayos sobre hormigones los cuales son previamente comprimidos a diferentes niveles de tensión, y a continuación se ensayan a permeabilidad. Asimismo, con el fin de investigar la influencia de la microfisuración inducida por el cansancio del hormigón sobre la permeabilidad, la carga de compresión aplicada es mantenida en los niveles establecidos durante distintos plazos de tiempo. De los resultados obtenidos se deduce que la aplicación de compresiones previas en el hormigón en valores inferiores a los resistentes en rotura, provoca procesos de microfisuración en el hormigón que aumentan su permeabilidad y por tanto pueden dejar a la estructura fuera de servicio por el incumplimiento del estado límite de durabilidad.
Resumo:
Entre los requisitos que deben cumplir las estructuras se debe garantizar que estas posean la durabilidad necesaria para permanecer en servicio a lo largo de todo el periodo de vida útil para el que han sido proyectadas. Para conseguir este objetivo las normativas han ido incorporando prescripciones para el diseño del hormigón, en base a distintas clases de exposición dependiendo del origen y magnitud de la agresividad exterior. En ambientes con una elevada agresividad, una de las comprobaciones que debe cumplir el hormigón es que tenga una permeabilidad inferior a los valores máximos fijados según la clase de exposición, y que en caso de considerar como ensayo de referencia el de penetración de agua, analiza el frente de penetración limitando las profundidades de penetración media y máxima. Adicionalmente a las condiciones de diseño según el tipo de ambiente, principalmente basadas en la dosificación del hormigón en términos de la relación agua/cemento y el mínimo contenido de cemento y el recubrimiento de las armaduras, durante la vida en servicio las estructuras pueden están solicitadas por distintas acciones imprevistas que pueden provocar cambios en la microestructura interna del hormigón que modifican su permeabilidad y resistencia, y por tanto pueden alterar la durabilidad inicialmente prevista. Es conocido el efecto de cansancio del hormigón cuando está solicitado por cargas de compresión mantenidas en el tiempo, provocando bajas en su resistencia debido al incremento de la microfisuración. Dada la relación entre la permeabilidad y la microfisuración del hormigón, es previsible el aumento de la permeabilidad en hormigones que han sido precomprimidos durante un periodo largo de tiempo. Los estudios de la permeabilidad en hormigones previamente comprimidos se han realizado analizando periodos de tiempo de compresión cortos que no permiten evaluar el efecto del cansancio sobre la permeabilidad. La presente tesis doctoral investiga la permeabilidad y resistencia a tracción en hormigones que previamente han sido comprimidos en carga mantenida durante distintos plazos de tiempo, al objeto de conocer su evolución en base al tiempo de precompresión. La investigación se apoya en el estudio de otras dos variables como son el tipo de hormigón de acuerdo a su dosificación según el tipo de ambiente considerando una agresividad baja, media o alta, y el grado de compresión aplicado respecto de su carga última de rotura. En los resultados del plan experimental desarrollado se ha obtenido que la permeabilidad presenta un incremento significante con el tiempo de precompresión, que dependiendo del valor inicial de la permeabilidad que tiene el hormigón puede provocar que hormigones que previamente satisfacen las limitaciones de permeabilidad pasen a incumplirlas, pudiendo afectar a su durabilidad. También se confirma la influencia del tiempo de precompresión sobre la resistencia a tracción obteniendo bajas de resistencia importantes en los casos pésimos ensayados, que deben ser tenidas en consideración en tanto afectan a la capacidad resistente del hormigón como a otros aspectos fundamentales como el anclaje de las armaduras en el hormigón armado y pretensado. One of the requirements that structures must meet is to guarantee their durability to remain in service throughout all the working life period for which they have been designed. To achieve this goal, building standards and codes have included specifications for the design of concrete structures, based on different exposure classes depending on the environmental conditions and their origin and magnitude. In severe aggressive environments, one of the specifications the concrete must meet is to have a permeability lower than the maximum values set for a certain exposure class. If this parameter is referenced to water penetration on specimens, then the average and maximum depths of front penetration are analyzed. In addition to the design conditions depending on the exposure class, which regulate the dosage of concrete in terms of the water/cement ratio, minimum samples that have been pre-compressed for a long period of time. Previous studies on permeability have been carried on pre-compressed concrete elements analyzing short periods of time. However, they have not studied the effects of compression forces on concrete in the long term. This Thesis investigates permeability and tensile strength of concrete samples that have been previously compressed under loads applied for different periods of time. The goal is to understand its evolution based on the time exposed to compression. The research variables also include the type of concrete according to the dosage used - depending on the environmental exposure it will have low, medium or high aggressiveness-, and the amount of compression applied in relation to its failure load. Results of the experimental tests showed that permeability increases significantly over the time of pre-compression. Depending on the initial value of permeability, this change could make the concrete not meet the original permeability restrictions and therefore affect its durability. These investigations also confirmed the influence of time of pre-compression in tensile strength, where some cases showed a significant decrease of resistance. These issues must be taken into consideration as they affect the bearing capacity of the material and other key features such as the anchoring of steel bars in reinforced and pre-stressed concrete. amount of cement content and the minimum concrete cover of the steel bars, during their working life structures may be subject to various unforeseen actions. As a result, the concrete’s internal microstructure might be affected, changing its permeability and resistance, and possibly altering the original specified durability. It is a known fact that when concrete is loaded in compression maintained over a long time, its resistance to compression forces is diminished due to the increase in micro-cracking. Considering the relationship between permeability and microcracking of concrete, an increase in permeability may be expected in concrete
Resumo:
El proceso de cambio de una sociedad industrial a una sociedad del conocimiento, que experimenta el mundo globalizado en el siglo XXI, induce a las empresas y organizaciones a desarrollar ventajas competitivas y sostenibles basadas en sus activos intangibles, entre los cuales destacan los sistemas de gestión en general y los sistemas de gestión de la calidad (SGC) en particular. Las organizaciones dedicadas a la producción de petróleo están influenciadas por dicha tendencia. El petróleo es un recurso natural con reservas limitadas, cuya producción y consumo ha crecido progresivamente, aportando la mayor cuota (35 %) del total de la energía que se consume en el mundo contemporáneo, aporte que se mantendrá hasta el año 2035, según las previsiones más conservadoras. Por tanto, se hace necesario desarrollar modelos de producción innovadores, que contribuyan a la mejora del factor de recobro de los yacimientos y de la vida útil de los mismos, al tiempo que satisfagan los requerimientos de producción y consumo diarios de los exigentes mercados globales. El objeto de esta investigación es el desarrollo de un modelo de gestión de la calidad y su efecto en el desempeño organizacional, a través del efecto mediador de los constructos satisfacción del cliente interno y gestión del conocimiento en la producción de petróleo. Esta investigación de carácter explicativo, no experimental, transeccional y ex-postfacto, se realizó en la región petrolífera del lago de Maracaibo, al occidente de Venezuela, la cual tiene más de 70 años en producción y cuenta con yacimientos maduros. La población objeto de estudio fue de 369 trabajadores petroleros, quienes participaron en las mesas técnicas de la calidad, durante los meses de mayo y julio del año 2012, los cuales en su mayoría están en proceso de formación como analistas, asesores y auditores de los SGC. La técnica de muestreo aplicada fue de tipo aleatorio simple, con una muestra de 252 individuos. A la misma se le aplicó un cuestionario diseñado ad hoc, el cual fue validado por las técnicas de juicio de expertos y prueba piloto. El procedimiento de investigación se realizó a través de una secuencia, que incluyó la elaboración de un modelo teórico, basado en la revisión del estado del arte; un modelo factorial, sobre la base del análisis factorial de los datos de la encuesta; un modelo de regresión lineal, elaborado a través del método de regresión lineal simple y múltiple; un modelo de análisis de sendero, realizado con el software Amos 20 SPSS y finalmente, un modelo informático, realizado con el simulador Vensim PLE v.6.2. Los resultados obtenidos indican que el modelo teórico se transformó en un modelo empírico, en el cual, la variable independiente fue el SGC, la variable mediadora fue la integración de las dimensiones eliminación de la no conformidad, satisfacción del cliente interno y aprendizaje organizacional (ENCSCIAO) y la variable respuesta la integración de las dimensiones desempeño organizacional y aprendizaje organizacional (DOOA). Se verificó el efecto mediador del ENSCIAO sobre la relación SGC-DOOA con una bondad del ajuste, del 42,65%. En el modelo de regresión múltiple se encontró que las variables determinantes son eliminación de la no conformidad (ENC), conocimiento adquirido (CA) y conocimiento espontáneo (CE), lo cual fue corroborado con el modelo de análisis de sendero. El modelo informático se desarrolló empleando datos aproximados de una unidad de producción tipo, generándose cuatro escenarios; siendo el más favorable, aquel en el cual se aplicaba el SGC y variables relacionadas, reduciendo la desviación de la producción, incrementando el factor de recobro y ampliando la vida útil del yacimiento. Se concluye que la aplicación del SGC y constructos relacionados favorece el desempeño y la producción de las unidades de explotación de yacimientos petrolíferos maduros. Los principales aportes de la tesis son la obtención de un modelo de gestión de la producción de petróleo en yacimientos maduros, basado en los SGC. Asimismo, el desarrollo de un concepto de gestión de la calidad asociado a la reducción de la desviación de la producción petrolífera anual, al incremento del factor de recobro y al aumento de la vida útil del yacimiento. Las futuras líneas de investigación están orientadas a la aplicación del modelo en contextos reales y específicos, para medir su impacto y realizar los ajustes pertinentes. ABSTRACT The process of change from an industrial society to a knowledge-based society, which undergoes the globalized world in the twenty-first century, induces companies and organizations to develop a sustainable and competitive advantages based on its intangible assets, among which are noteworthy the management systems in general and particularly the quality management systems (QMS). Organizations engaged in oil production are influenced by said trend. Oil is a natural resource with limited reserves, where production and consumption has grown progressively, providing the largest share (35%) of the total energy consumed in the contemporary world, a contribution that will remain until the year 2035 according to the more conservative trust estimations. Therefore, it becomes necessary to develop innovative production models which contribute with the improvement of reservoirs´ recovery factor and the lifetime thereof, while meeting the production requirements and daily consumption of demanding global markets. The aim of this research is to develop a model of quality management and its effect on organizational performance through the mediator effect of the constructs, internal customer satisfaction and knowledge management in oil production. This research of explanatory nature, not experimental, transactional and expos-facto was carried out in the oil-region of Maracaibo Lake located to the west of Venezuela, which has more than 70 years in continuous production and has mature reservoirs. The population under study was 369 oil workers who participated in the technical quality workshops, during the months of May and July of 2012, the majority of which were in the process of training as analysts, consultants and auditors of the QMS. The sampling technique applied was simple random type. To a sample of 252 individuals of the population it was applied an ad hoc designed questionnaire, which was validated by the techniques of expert judgment and pilot test. The research procedure was performed through a sequence, which included the elaboration of a theoretical model, based on the review of the state of the art; a factorial model with based on factorial analysis of the survey data; a linear regression model, developed through the method of simple and multiple linear regression; a structural equation model, made with software °Amos 20 SPSS° and finally, a computer model, performed with the simulator Vensim PLE v.6.2. The results indicate that the theoretical model was transformed into an empirical model, in which the independent variable was the QMS, the mediator variable was the integration of the dimensions: elimination of non-conformity, internal customer satisfaction and organizational learning (ENCSCIAO) and the response variable the integration of the dimensions, organizational performance and learning organizational (DOOA). ENSCIAO´s mediator effect on the relation QMS-DOOA was verified with a goodness of fit of 42,65%. In the multiple regression model was found to be the determining variables are elimination of nonconformity (ENC), knowledge acquired (CA) and spontaneous knowledge (EC), which was verified with the structural equation model. The computer model was developed based on approximate data of an oil production unit type, creating four (04) scenarios; being the most favorable, that one which it was applied the QMS and related variables, reducing the production deviation, increasing the recovery factor and extending the lifetime of the reservoir. It is concluded that QMS implementation powered with the related constructs, favors performance and production of mature oilfield of exploitation reservoirs units. The main contributions of this thesis are obtaining a management model for oil production in mature oilfields, based on QMS. In addition, development of a concept of quality associated to reduce the annual oil production deviation, increase the recovery factor and increase oilfield lifetime. Future lines of research are oriented to the implementation of this model in real and specific contexts to measure its impact and make the necessary adjustments that might take place.
Resumo:
Las cargas de origen térmico causadas por las acciones medioambientales generan esfuerzos apreciables en estructuras hiperestáticas masivas, como es el caso de las presas bóvedas. Ciertas investigaciones apuntan que la variación de la temperatura ambiental es la segunda causa de reparaciones en las presas del hormigón en servicio. Del mismo modo, es una causa de fisuración en un porcentaje apreciable de casos. Las presas son infraestructuras singulares por sus dimensiones, su vida útil, su impacto sobre el territorio y por el riesgo que implica su presencia. La evaluación de ese riesgo requiere, entre otras herramientas, de modelos matemáticos de predicción del comportamiento. Los modelos han de reproducir la realidad del modo más fidedigno posible. Además, en un escenario de posible cambio climático en el que se prevé un aumento de las temperaturas medias, la sociedad ha de conocer cuál será el comportamiento estructural de las infraestructuras sensibles en los futuros escenarios climáticos. No obstante, existen escasos estudios enfocados a determinar el campo de temperaturas de las presas de hormigón. Así, en esta investigación se han mejorado los modelos de cálculo térmico existentes con la incorporación de nuevos fenómenos físicos de transferencia de calor entre la estructura y el medio ambiente que la rodea. También se han propuesto nuevas metodologías más eficientes para cuantificar otros mecanismos de transferencia de calor. La nueva metodología se ha aplicado a un caso de estudio donde se disponía de un amplio registro de temperaturas de su hormigón. Se ha comprobado la calidad de las predicciones realizadas por los diversos modelos térmicos en el caso piloto. También se han comparado los resultados de los diversos modelos entre sí. Finalmente, se ha determinado las consecuencias de las predicciones de las temperaturas por algunos de los modelos térmicos sobre la respuesta estructural del caso de estudio. Los modelos térmicos se han empleado para caracterizar térmicamente las presas bóveda. Se ha estudiado el efecto de ciertas variables atmosféricas y determinados aspectos geométricos de las presas sobre su respuesta térmica. También se ha propuesto una metodología para evaluar la respuesta térmica y estructural de las infraestructuras frente a los posibles cambios meteorológicos inducidos por el cambio climático. La metodología se ha aplicado a un caso de estudio, una presa bóveda, y se ha obtenido su futura respuesta térmica y estructural frente a diversos escenarios climáticos. Frente a este posible cambio de las variables meteorológicas, se han detallado diversas medidas de adaptación y se ha propuesto una modificación de la normativa española de proyecto de presas en el punto acerca del cálculo de la distribución de temperaturas de diseño. Finalmente, se han extraído una serie de conclusiones y se han sugerido posibles futuras líneas de investigación para ampliar el conocimiento del fenómeno de la distribución de temperaturas en el interior de las presas y las consecuencias sobre su respuesta estructural. También se han propuesto futuras investigaciones para desarrollar nuevos procedimiento para definir las cargas térmicas de diseño, así como posibles medidas de adaptación frente al cambio climático. Thermal loads produced by external temperature variations may cause stresses in massive hyperstatic structures, such as arch dams. External temperature changes are pointed out as the second most major repairs in dams during operation. Moreover, cracking is caused by thermal loads in a quite number of cases. Dams are unique infrastructures given their dimensions, lifetime, spatial impacts and the risks involve by their presence. The risks are assessed by means of mathematical models which compute the behavior of the structure. The behavior has to be reproduced as reliable as possible. Moreover, since mean temperature on Earth is expected to increase, society has to know the structural behavior of sensitive structures to climate change. However, few studies have addressed the assessment of the thermal field in concrete dams. Thermal models are improved in this research. New heat transfer phenomena have been accounted for. Moreover, new and more efficient methodologies for computing other heat transfer phenomena have been proposed. The methodology has been applied to a case study where observations from thermometers embedded in the concrete were available. Recorded data were predicted by several thermal models and the quality of the predictions was assessed. Furthermore, predictions were compared between them. Finally, the consequences on the stress calculations were analyzed. Thermal models have been used to characterize arch dams from a thermal point of view. The effect of some meteorological and geometrical variables on the thermal response of the dam has been analyzed. Moreover, a methodology for assessing the impacts of global warming on the thermal and structural behavior of infrastructures has been proposed. The methodology was applied to a case study, an arch dam, and its thermal and structural response to several future climatic scenarios was computed. In addition, several adaptation strategies has been outlined and a new formulation for computing design thermal loads in concrete dams has been proposed. Finally, some conclusions have been reported and some future research works have been outlined. Future research works will increase the knowledge of the concrete thermal field and its consequences on the structural response of the infrastructures. Moreover, research works will develope a new procedure for computing the design thermal loads and will study some adaptation strategies against the climate change.
Resumo:
En este trabajo se estudia el comportamiento de elementos de hormigón estructural sometidos a deformaciones impuestas, en donde la fisuración se produce, general y fundamentalmente, en secciones en las que los esfuerzos, y por tanto las fisuras, debidos a las acciones exteriores son inexistentes o prácticamente inexistentes. Se estudia la fisuración producida, a edades tempranas, por las deformaciones debidas al calor de fraguado y la retracción autógena y a lo largo de la vida útil de la estructura, por los fenómenos reológicos del hormigón y la variación de temperatura. Se han estudiado los resultados experimentales disponibles. Se ha identificado un programa de elementos finitos, ATENA, que permite el estudio de fenómenos no lineales, especialmente la fisuración. Se ha contrastado este programa de forma detallada con los resultados experimentales disponibles. Se han estudiado las fuentes de deformaciones impuestas para su caracterización: calor de hidratación, fenómenos reológicos del hormigón y variaciones de temperaturas. Se han estudiado la evolución de las características mecánicas y de conductividad térmica del hormigón a lo largo del tiempo y especialmente a edades tempranas. Se han estudiado las evidencias experimentales disponibles y las estimaciones teóricas propuestas. Se han estudiado las recomendaciones de la CIRIA 660, que es el documento de referencia para tener en cuenta, desde el punto de vista del proyecto este tipo de fenómenos. Con el programa ATENA se han estudiado distintos ejemplos. El objetivo principal ha sido, por un lado, entender el fenómeno y, por otro, contrastar los criterios expuestos en la CIRA 660. This document studies the behavior of structural reinforced concrete structures subjected to imposed deformations, where the cracking occurs, mostly, in sections where the stresses, and thus cracks, due to the exterior actions are none-existent or practically zero. Early age cracking produced by the imposed deformations, due to heat of hydration and autogenous shrinkage, and long term effects, due to the drying shrinkage and the thermal variation, is studied. Available experimental results have been studied. A finite element program has been identified, ATENA, which allows the study of non-lineal phenomena, especially cracking. This software has been contrasted with the available experimental results. The imposed deformation sources have been studied for its characteristically sources: heat of hydration, concrete shrinkage and thermal variation. Also the evolution of the mechanical properties and the thermal conductivity of concrete in time and especially at early age have also been studied. The available experimental evidence and the proposal theoretical estimates have been studied. CIRIA 660 recommendations have been studied, which is the reference document to take into account, form the design point of view, this kind of phenomena. With the ATENA software different examples have been studied. On the one hand the main objective has been to understand the phenomena and, on the other, to contrast the CIRIA 660 proposal.
Resumo:
En ingeniería los materiales están sujetos a un proceso de degradación desde el mismo momento en el que concluye su proceso de fabricación. Cargas mecánicas, térmicas y agresiones químicas dañan las piezas a lo largo de su vida útil. El daño generado por procesos de fatiga, corrosión y desgaste son unos pocos ejemplos de posible deterioro. Este deterioro de las piezas se combate mediante la prevención en la etapa de diseño, a través de reparaciones periódicas y mediante la sustitución de piezas en servicio. La mayor parte de los tipos de daño que pueden sufrir los materiales durante su vida útil se originan en la superficie. Por esta razón, el objetivo de los tratamientos superficiales es inhibir el daño a través de la mejora de las propiedades superficiales del material, intentando no generar sobrecostes inasumibles en el proceso productivo ni efectos colaterales notablemente perjudiciales. En general, se ha de llegar a una solución óptima entre el coste del tratamiento superficial y el beneficio generado por el aumento de la vida útil del material. En esta tesis se estudian los efectos del tratamiento superficial de aleaciones metálicas mediante ondas de choque generadas por láser. Su denominación internacional más empleada "Láser Shock Processing" hace que se emplee la denominación de procesos de LSP para referirse a los mismos. También se emplea la denominación de "Láser Peening" por semejanza al tratamiento superficial conocido como "Shot Peening", aunque su uso sólo está generalizado en el ámbito industrial. El tratamiento LSP es una alternativa eficaz a los tratamientos tradicionales de mejora de propiedades superficiales, mejorando la resistencia a la fatiga, a la corrosión y al desgaste. El tratamiento LSP se basa en la aplicación de uno o varios pulsos láser de elevada intensidad (superior a 1 GW/cm2) y con duración en el dominio de los nanosegundos sobre la superficie de la pieza metálica a tratar. Esta, bien se recubre con una fina capa de medio confinante (generalmente una fina capa de agua) transparente a la radiación láser, bien se sumerge en el medio confinante (también se usa agua). El pulso láser atraviesa el medio confinante hasta llegar a la superficie de la pieza. Es entonces cuando la superficie inmediatamente se vaporiza y se ioniza, pasando a estado de plasma. Como el plasma generado es confinado por el medio confinante, su expansión se limita y su presión crece. De este modo, el plasma alcanza presiones de varios GPa y crea dos ondas de choque: una de las cuales se dirige hacia el medio confinante y la otra se dirige hacia la pieza. Esta última produce un cráter microscópico por aplastamiento mecánico, generándose deformación plástica y un campo de tensiones residuales de compresión que mejoran las propiedades superficiales del material. La capacidad de los procesos LSP para mejorar las propiedades de materiales metálicos es indiscutible. En la bibliografía está reflejado el trabajo experimental y de simulación que se ha llevado a cabo a lo largo de los años en orden a optimizar el proceso. Sin embargo, hay pocos estudios que hayan tratado exhaustivamente la física del proceso. Esto es debido a la gran complejidad de la fenomenología física involucrada en los procesos LSP, con comportamientos no lineales tanto en la generación y dinámica del plasma como en la propagación de las ondas de choque en el material. Además, el elevado coste de los experimentos y su duración, así como el gran coste computacional que debían asumir los antiguos modelos numéricos, dificultó el proceso de optimización. No obstante, los nuevos sistemas de cálculo son cada vez más rápidos y, además, los programas de análisis de problemas no lineales por elementos finitos son cada vez más sofisticados, por lo que a día de hoy es posible desarrollar un modelo exhaustivo que no solo permita simular el proceso en situaciones simplificadas, sino que pueda ser empleado para optimizar los parámetros del tratamiento en casos reales y sobre áreas extensas. Por esta razón, en esta tesis se desarrolla y se valida un modelo numérico capaz de simular de manera sistemática tratamientos LSP en piezas reales, teniendo en cuenta la física involucrada en los mismos. En este sentido, cabe destacar la problemática del tratamiento LSP en placas delgadas. La capacidad del LSP para inducir tensiones residuales de compresión bajo la superficie de materiales con un espesor relativamente grueso (> 6 mm) con objeto de mejorar la vida en fatiga ha sido ampliamente demostrada. Sin embargo, el tratamiento LSP en especímenes delgados (típicamente < 6 mm, pero también mayores si es muy alta la intensidad del tratamiento) conlleva el efecto adicional del doblado de la pieza tratada, un hecho que puede ser aprovechado para procesos de conformado láser. Este efecto de doblado trae consigo una nueva clase de problemas en lo referente a los perfiles específicos de tensiones residuales en las piezas tratadas, ya que al equilibrarse las tensiones tras la retirada de su sujeción puede afectar considerablemente el perfil de tensiones residuales obtenido, lo que posiblemente puede derivar en la obtención de un perfil de tensiones residuales no deseado y, lo que puede ser aún más crítico, una deformación indeseable de la pieza en cuestión. Haciendo uso del modelo numérico desarrollado en esta Tesis, el análisis del problema del tratamiento LSP para la inducción de campos de tensiones residuales y la consecuente mejora de la vida en fatiga en piezas de pequeño espesor en un modo compatible con una deformación asumible se aborda de forma específica. La tesis está estructurada del siguiente modo: i) El capítulo 1 contiene una introducción al LSP, en la que se definen los procesos de tratamiento de materiales mediante ondas de choque generadas por láser. A continuación se expone una visión panorámica de las aplicaciones industriales de la tecnología LSP y, por último, se realiza una comparativa entre la tecnología LSP y otras tecnologías en competencia en el ámbito industrial: Shot Peening, Low Plasticity Burnishing y Waterjet Peening. ii) El capítulo 2 se divide en dos partes: fundamentos físicos característicos del tratamiento LSP y estado del arte de la modelización de procesos LSP. En cuanto a la primera parte, fundamentos físicos característicos del tratamiento LSP, en primer lugar se describe la física del tratamiento y los principales fenómenos que tienen lugar. A continuación se detalla la física de la interacción confinada en agua y la generación del pulso de presión asociado a la onda de choque. También se describe el proceso de saturación de la presión máxima por ruptura dieléctrica del agua y, por último, se describe la propagación de las ondas de choque y sus efectos en el material. En cuanto a la segunda parte, el estado del arte de la modelización de procesos LSP, recoge el conocimiento preexistente al desarrollo de la propia Tesis en los siguientes campos: modelización de la generación del plasma y su expansión, modelización de la ruptura dieléctrica del medio confinante, modelización del pulso de presión aplicado al material y la respuesta del mismo: inducción de tensiones residuales y deformaciones. iii) El capítulo 3 describe el desarrollo de un modelo propio para la simulación de las tensiones residuales y las deformaciones generadas por procesos LSP. En él se detalla la simulación de la propagación del pulso de presión en el material, los pormenores de su puesta en práctica mediante el método de los elementos finitos, la determinación de parámetros realistas de aplicación y se establece un procedimiento de validación de los resultados. iv) El capítulo 4 contiene los resultados de la aplicación del modelo a distintas configuraciones de interés en tratamientos LSP. En él se recoge un estudio del tratamiento LSP sobre áreas extensas que incluye un análisis de las tensiones residuales inducidas y un análisis sobre la influencia de la secuencia de barrido de los pulsos en las tensiones residuales y en las deformaciones. También se presenta un estudio específico de la problemática del tratamiento LSP en piezas de pequeño espesor y se detallan dos casos prácticos abordados en el CLUPM de gran interés tecnológico en función de las aplicaciones reales en las que se ha venido trabajando en los últimos años. v) En el capítulo 5 se presentan las conclusiones derivadas de los resultados obtenidos en la tesis. Concretamente, se destaca que el modelo desarrollado permite reproducir las condiciones experimentales de los procesos de LSP reales y predecir los efectos mecánicos inducidos por los mismos. Los anexos incluidos como parte accesoria contienen información importante que se ha utilizado en el desarrollo de la Tesis y que se desea incluir para hacer el volumen autoconsistente: i) En el anexo A se presenta una revisión de conceptos básicos sobre el comportamiento de los sólidos sometidos a ondas de choque [Morales04]. ii) El anexo B contiene la resolución analítica de la ecuación de ritmo utilizada en el código DRUPT [Morales04]. iii) El anexo C contiene la descripción de los procedimientos de uso del modelo de simulación desarrollado en la Tesis y el código fuente de la subrutina OVERLAP desarrollada para programar el solapamiento de pulsos en tratamientos LSP sobre áreas extensas. iv) El anexo D contiene un resumen de las principales técnicas para la medición de las tensiones residuales en los materiales [PorrolO] y [Gill2]. v) El anexo E contiene una descripción de las instalaciones experimentales del CLUPM en el que se han desarrollado los procesos LSP utilizados en la validación del modelo desarrollado [PorrolO].
Resumo:
Este proyecto tiene por objeto definir las diferentes obras e instalaciones necesarias para poder realizar, de acuerdo con la normativa vigente, el tratamiento de la totalidad de las aguas residuales producidas en el casco urbano del municipio de Yepes (Toledo), con una previsión de vida útil de 25 años. En la actualidad, este municipio no dispone de la infraestructura necesaria para la depuración de las aguas residuales generadas por sus habitantes e industria, que además se prevé que aumenten ligeramente en los próximos años, debido al proyecto de construcción de un Polígono Industrial.
Resumo:
La mejora continua de los procesos de fabricación es fundamental para alcanzar niveles óptimos de productividad, calidad y coste en la producción de componentes y productos. Para ello es necesario disponer de modelos que relacionen de forma precisa las variables que intervienen en el proceso de corte. Esta investigación tiene como objetivo determinar la influencia de la velocidad de corte y el avance en el desgaste del flanco de los insertos de carburos recubiertos GC1115 y GC2015 y en la rugosidad superficial de la pieza mecanizada de la pieza en el torneado de alta velocidad en seco del acero AISI 316L. Se utilizaron entre otros los métodos de observación científica, experimental, medición, inteligencia artificial y estadísticos. El inserto GC1115 consigue el mejor resultado de acuerdo al gráfico de medias y de las ecuaciones de regresión múltiple de desgaste del flanco para v= 350 m/min, mientras que para las restantes velocidades el inserto GC2015 consigue el mejor desempeño. El mejor comportamiento en cuanto a la rugosidad superficial de la pieza mecanizada se obtuvo con el inserto GC1115 en las velocidades de 350 m/min y 400 m/min, en la velocidad de 450 m/min el mejor resultado correspondió al inserto GC2015. Se analizaron dos criterios nuevos, el coeficiente de vida útil de la herramienta de corte en relación al volumen de metal cortado y el coeficiente de rugosidad superficial de la pieza mecanizada en relación al volumen de metal cortado. Fueron determinados los modelos de regresión múltiple que permitieron calcular el tiempo de mecanizado de los insertos sin que alcanzaran el límite del criterio de desgaste del flanco. Los modelos desarrollados fueron evaluados por sus capacidades de predicción con los valores medidos experimentalmente. ABSTRACT The continuous improvement of manufacturing processes is critical to achieving optimal levels of productivity, quality and cost in the production of components and products. This is necessary to have models that accurately relate the variables involved in the cutting process. This research aims to determine the influence of the cutting speed and feed on the flank wear of carbide inserts coated by GC1115 and GC2015 and the surface roughness of the workpiece for turning dry high speed steel AISI 316L. Among various scientific methods this study were used of observation, experiment, measurement, statistical and artificial intelligence. The GC1115 insert gets the best result according to the graph of means and multiple regression equations of flank wear for v = 350 m / min, while for the other speeds the GC2015 insert gets the best performance. Two approaches are discussed, the life ratio of the cutting tool relative to the cut volume and surface roughness coefficient in relation to the cut volume. Multiple regression models were determined to calculate the machining time of the inserts without reaching the limit of the criterion flank wear. The developed models were evaluated for their predictive capabilities with the experimentally measured values.
Resumo:
El entorno espacial actual hay un gran numero de micro-meteoritos y basura espacial generada por el hombre, lo cual plantea un riesgo para la seguridad de las operaciones en el espacio. La situación se agrava continuamente a causa de las colisiones de basura espacial en órbita, y los nuevos lanzamientos de satélites. Una parte significativa de esta basura son satélites muertos, y fragmentos de satélites resultantes de explosiones y colisiones de objetos en órbita. La mitigación de este problema se ha convertido en un tema de preocupación prioritario para todas las instituciones que participan en operaciones espaciales. Entre las soluciones existentes, las amarras electrodinámicas (EDT) proporcionan un eficiente dispositivo para el rápido de-orbitado de los satélites en órbita terrestre baja (LEO), al final de su vida útil. El campo de investigación de las amarras electrodinámicas (EDT) ha sido muy fructífero desde los años 70. Gracias a estudios teóricos, y a misiones para la demostración del funcionamiento de las amarras en órbita, esta tecnología se ha desarrollado muy rápidamente en las últimas décadas. Durante este período de investigación, se han identificado y superado múltiples problemas técnicos de diversa índole. Gran parte del funcionamiento básico del sistema EDT depende de su capacidad de supervivencia ante los micro-meteoritos y la basura espacial. Una amarra puede ser cortada completamente por una partícula cuando ésta tiene un diámetro mínimo. En caso de corte debido al impacto de partículas, una amarra en sí misma, podría ser un riesgo para otros satélites en funcionamiento. Por desgracia, tras varias demostraciones en órbita, no se ha podido concluir que este problema sea importante para el funcionamiento del sistema. En esta tesis, se presenta un análisis teórico de la capacidad de supervivencia de las amarras en el espacio. Este estudio demuestra las ventajas de las amarras de sección rectangular (cinta), en cuanto a la probabilidad de supervivencia durante la misión, frente a las amarras convencionales (cables de sección circular). Debido a su particular geometría (longitud mucho mayor que la sección transversal), una amarra puede tener un riesgo relativamente alto de ser cortado por un único impacto con una partícula de pequeñas dimensiones. Un cálculo analítico de la tasa de impactos fatales para una amarra cilindrica y de tipo cinta de igual longitud y masa, considerando el flujo de partículas de basura espacial del modelo ORDEM2000 de la NASA, muestra mayor probabilidad de supervivencia para las cintas. Dicho análisis ha sido comparado con un cálculo numérico empleando los modelos de flujo el ORDEM2000 y el MASTER2005 de ESA. Además se muestra que, para igual tiempo en órbita, una cinta tiene una probabilidad de supervivencia un orden y medio de magnitud mayor que una amarra cilindrica con igual masa y longitud. Por otra parte, de-orbitar una cinta desde una cierta altitud, es mucho más rápido, debido a su mayor perímetro que le permite capturar más corriente. Este es un factor adicional que incrementa la probabilidad de supervivencia de la cinta, al estar menos tiempo expuesta a los posibles impactos de basura espacial. Por este motivo, se puede afirmar finalmente y en sentido práctico, que la capacidad de supervivencia de la cinta es bastante alta, en comparación con la de la amarra cilindrica. El segundo objetivo de este trabajo, consiste en la elaboración de un modelo analítico, mejorando la aproximación del flujo de ORDEM2000 y MASTER2009, que permite calcular con precisión, la tasa de impacto fatal al año para una cinta en un rango de altitudes e inclinaciones, en lugar de unas condiciones particulares. Se obtiene el numero de corte por un cierto tiempo en función de la geometría de la cinta y propiedades de la órbita. Para las mismas condiciones, el modelo analítico, se compara con los resultados obtenidos del análisis numérico. Este modelo escalable ha sido esencial para la optimización del diseño de la amarra para las misiones de de-orbitado de los satélites, variando la masa del satélite y la altitud inicial de la órbita. El modelo de supervivencia se ha utilizado para construir una función objetivo con el fin de optimizar el diseño de amarras. La función objectivo es el producto del cociente entre la masa de la amarra y la del satélite y el numero de corte por un cierto tiempo. Combinando el modelo de supervivencia con una ecuación dinámica de la amarra donde aparece la fuerza de Lorentz, se elimina el tiempo y se escribe la función objetivo como función de la geometría de la cinta y las propietades de la órbita. Este modelo de optimización, condujo al desarrollo de un software, que esta en proceso de registro por parte de la UPM. La etapa final de este estudio, consiste en la estimación del número de impactos fatales, en una cinta, utilizando por primera vez una ecuación de límite balístico experimental. Esta ecuación ha sido desarollada para cintas, y permite representar los efectos tanto de la velocidad de impacto como el ángulo de impacto. Los resultados obtenidos demuestran que la cinta es altamente resistente a los impactos de basura espacial, y para una cinta con una sección transversal definida, el número de impactos críticos debidos a partículas no rastreables es significativamente menor. ABSTRACT The current space environment, consisting of man-made debris and tiny meteoroids, poses a risk to safe operations in space, and the situation is continuously deteriorating due to in-orbit debris collisions and to new satellite launches. Among these debris a significant portion is due to dead satellites and fragments of satellites resulted from explosions and in-orbit collisions. Mitigation of space debris has become an issue of first concern for all the institutions involved in space operations. Bare electrodynamic tethers (EDT) can provide an efficient mechanism for rapid de-orbiting of defunct satellites from low Earth orbit (LEO) at end of life. The research on EDT has been a fruitful field since the 70’s. Thanks to both theoretical studies and in orbit demonstration missions, this technology has been developed very fast in the following decades. During this period, several technical issues were identified and overcome. The core functionality of EDT system greatly depends on their survivability to the micrometeoroids and orbital debris, and a tether can become itself a kind of debris for other operating satellites in case of cutoff due to particle impact; however, this very issue is still inconclusive and conflicting after having a number of space demonstrations. A tether can be completely cut by debris having some minimal diameter. This thesis presents a theoretical analysis of the survivability of tethers in space. The study demonstrates the advantages of tape tethers over conventional round wires particularly on the survivability during the mission. Because of its particular geometry (length very much larger than cross-sectional dimensions), a tether may have a relatively high risk of being severed by the single impact of small debris. As a first approach to the problem, survival probability has been compared for a round and a tape tether of equal mass and length. The rates of fatal impact of orbital debris on round and tape tether, evaluated with an analytical approximation to debris flux modeled by NASA’s ORDEM2000, shows much higher survival probability for tapes. A comparative numerical analysis using debris flux model ORDEM2000 and ESA’s MASTER2005 shows good agreement with the analytical result. It also shows that, for a given time in orbit, a tape has a probability of survival of about one and a half orders of magnitude higher than a round tether of equal mass and length. Because de-orbiting from a given altitude is much faster for the tape due to its larger perimeter, its probability of survival in a practical sense is quite high. As the next step, an analytical model derived in this work allows to calculate accurately the fatal impact rate per year for a tape tether. The model uses power laws for debris-size ranges, in both ORDEM2000 and MASTER2009 debris flux models, to calculate tape tether survivability at different LEO altitudes. The analytical model, which depends on tape dimensions (width, thickness) and orbital parameters (inclinations, altitudes) is then compared with fully numerical results for different orbit inclinations, altitudes and tape width for both ORDEM2000 and MASTER2009 flux data. This scalable model not only estimates the fatal impact count but has proved essential in optimizing tether design for satellite de-orbit missions varying satellite mass and initial orbital altitude and inclination. Within the frame of this dissertation, a simple analysis has been finally presented, showing the scalable property of tape tether, thanks to the survivability model developed, that allows analyze and compare de-orbit performance for a large range of satellite mass and orbit properties. The work explicitly shows the product of tether-to-satellite mass-ratio and fatal impact count as a function of tether geometry and orbital parameters. Combining the tether dynamic equation involving Lorentz drag with space debris impact survivability model, eliminates time from the expression. Hence the product, is independent of tether de-orbit history and just depends on mission constraints and tether length, width and thickness. This optimization model finally led to the development of a friendly software tool named BETsMA, currently in process of registration by UPM. For the final step, an estimation of fatal impact rate on a tape tether has been done, using for the first time an experimental ballistic limit equation that was derived for tapes and accounts for the effects of both the impact velocity and impact angle. It is shown that tape tethers are highly resistant to space debris impacts and considering a tape tether with a defined cross section, the number of critical events due to impact with non-trackable debris is always significantly low.