44 resultados para Q04 Composición de los alimentos
Resumo:
El presento proyecto tiene como objetivo el diseño de una cisterna de transporte de GLP y establecer todos los elementos que han de componer una cisterna así como una explicación de cada uno de ellos. Todos los cálculos del diseño están referidos a la normativa actual “UNE-EN 12493:2009+A1:2012 Equipos y accesorios para GLP. Tanques de acero soldados para gases licuados del petróleo (GLP). Diseño y fabricación de camiones cisterna”. Además se realiza una breve introducción sobre el GLP explicando el origen, la composición y los diferentes usos que tiene. Se exponen las medidas de prevención que son necesarias y se detallan todos los procedimientos así como todas las operaciones que se han de realizar para la carga y descarga del camión cisterna.
Resumo:
Este Proyecto Fin de Carrera está destinado a la ilustración y aprendizaje del uso de varios dispositivos de los laboratorios del Departamento de Ingeniería Audiovisual y Comunicaciones, de la Escuela Universitaria de Ingeniería Técnica de Telecomunicación, de la Universidad Politécnica de Madrid, en forma de vídeos tutoriales basados en mediciones y prácticas habituales de las asignaturas del departamento para que puedan ser utilizados por los alumnos de la escuela como apoyo a las explicaciones del profesor en ocasiones puntuales. En concreto se han realizado hasta seis vídeos tutoriales en los que se explica: el diseño de un circuito impreso y la creación y fabricación de éste. Por otro lado, también se ha explicado el fenómeno del ruido de fase y cómo es el proceso de su medida, como una de las muchas características de un analizador de espectros. A modo de análisis, se ha realizado otro tutorial acerca de la modulación en FM, sus características y sus aplicaciones. Por último se ha hecho un estudio del comportamiento de un analizador de redes, exponiendo su funcionamiento y explicando su proceso de calibración. Para la realización de estos tutoriales se han utilizado diferentes aplicaciones sobre creación de vídeos multimedia, animación, producción de audio y narración. En especial se han usado: Sprint-Layout 5.0, Adobe Flash Professional CS5.5, Camtasia studio 7, Corel VideoStudio Pro X4, Loquendo TTS7 y WinPlot. Para el apartado de las grabaciones de las diferentes escenas se ha necesitado el uso de distintos instrumentos de medida del laboratorio tales como: analizador de espectros, analizador de redes, generador de señal, generador de funciones, osciloscopio y otros equipos adicionales como: cámara de vídeo y trípode del departamento. Para la composición de los diferentes tutoriales se ha comenzado creando un guion, para cada uno de ellos, estableciendo la aparición de las imágenes, vídeos, y locución. A continuación se exponen los diferentes temas en los que se han basado estos tutoriales de laboratorio, uno a uno. ABSTRACT. This Project is destined to learn the use of several devices at the laboratory of “Ingeniería Audiovisual y Comunicaciones” Department at “Escuela Universitaria de Ingeniería técnica de Telecomunicaciones” of “Universidad Politécnica de Madrid”, on the way as tutorial videos base on the subjects from this department to be used by the college students as help of the teacher’s explanations. In this project you will find up to six tutorial videos, showing: printed circuit design, printed circuit board manufacture. You can also find an explanation about the phenomenon of phase noise and how it’s its measurement process, as one of the many features of a spectrum analyzer. Another tutorial video is based on FM modulation, its features and applications. The last tutorial explains the networks analyzer functionalities and its calibration process. To carry out these tutorials different applications have been used to create multimedia videos, animation, audio production and storytelling. Such as Sprint Layout 5.0, Camtasia 7.0, Corel VideoStudio Pro X4, Adobe Flash Professional CS5.5, Loquendo TTS7 y WinPlot. About the recording side of the different scenes, several equipment have been required at the laboratory, such as spectrums analyzer, signal generator, oscilloscope, function generator, network analyzer and other additional devices, such as: a video camera with its tripod. The composition of the different tutorials has begun creating a script, for each of them, setting the times of appearance of images, video, speech and music. After this abstract, the different topics of the tutorials are showed, one by one.
Resumo:
La optimización de parámetros tales como el consumo de potencia, la cantidad de recursos lógicos empleados o la ocupación de memoria ha sido siempre una de las preocupaciones principales a la hora de diseñar sistemas embebidos. Esto es debido a que se trata de sistemas dotados de una cantidad de recursos limitados, y que han sido tradicionalmente empleados para un propósito específico, que permanece invariable a lo largo de toda la vida útil del sistema. Sin embargo, el uso de sistemas embebidos se ha extendido a áreas de aplicación fuera de su ámbito tradicional, caracterizadas por una mayor demanda computacional. Así, por ejemplo, algunos de estos sistemas deben llevar a cabo un intenso procesado de señales multimedia o la transmisión de datos mediante sistemas de comunicaciones de alta capacidad. Por otra parte, las condiciones de operación del sistema pueden variar en tiempo real. Esto sucede, por ejemplo, si su funcionamiento depende de datos medidos por el propio sistema o recibidos a través de la red, de las demandas del usuario en cada momento, o de condiciones internas del propio dispositivo, tales como la duración de la batería. Como consecuencia de la existencia de requisitos de operación dinámicos es necesario ir hacia una gestión dinámica de los recursos del sistema. Si bien el software es inherentemente flexible, no ofrece una potencia computacional tan alta como el hardware. Por lo tanto, el hardware reconfigurable aparece como una solución adecuada para tratar con mayor flexibilidad los requisitos variables dinámicamente en sistemas con alta demanda computacional. La flexibilidad y adaptabilidad del hardware requieren de dispositivos reconfigurables que permitan la modificación de su funcionalidad bajo demanda. En esta tesis se han seleccionado las FPGAs (Field Programmable Gate Arrays) como los dispositivos más apropiados, hoy en día, para implementar sistemas basados en hardware reconfigurable De entre todas las posibilidades existentes para explotar la capacidad de reconfiguración de las FPGAs comerciales, se ha seleccionado la reconfiguración dinámica y parcial. Esta técnica consiste en substituir una parte de la lógica del dispositivo, mientras el resto continúa en funcionamiento. La capacidad de reconfiguración dinámica y parcial de las FPGAs es empleada en esta tesis para tratar con los requisitos de flexibilidad y de capacidad computacional que demandan los dispositivos embebidos. La propuesta principal de esta tesis doctoral es el uso de arquitecturas de procesamiento escalables espacialmente, que son capaces de adaptar su funcionalidad y rendimiento en tiempo real, estableciendo un compromiso entre dichos parámetros y la cantidad de lógica que ocupan en el dispositivo. A esto nos referimos con arquitecturas con huellas escalables. En particular, se propone el uso de arquitecturas altamente paralelas, modulares, regulares y con una alta localidad en sus comunicaciones, para este propósito. El tamaño de dichas arquitecturas puede ser modificado mediante la adición o eliminación de algunos de los módulos que las componen, tanto en una dimensión como en dos. Esta estrategia permite implementar soluciones escalables, sin tener que contar con una versión de las mismas para cada uno de los tamaños posibles de la arquitectura. De esta manera se reduce significativamente el tiempo necesario para modificar su tamaño, así como la cantidad de memoria necesaria para almacenar todos los archivos de configuración. En lugar de proponer arquitecturas para aplicaciones específicas, se ha optado por patrones de procesamiento genéricos, que pueden ser ajustados para solucionar distintos problemas en el estado del arte. A este respecto, se proponen patrones basados en esquemas sistólicos, así como de tipo wavefront. Con el objeto de poder ofrecer una solución integral, se han tratado otros aspectos relacionados con el diseño y el funcionamiento de las arquitecturas, tales como el control del proceso de reconfiguración de la FPGA, la integración de las arquitecturas en el resto del sistema, así como las técnicas necesarias para su implementación. Por lo que respecta a la implementación, se han tratado distintos aspectos de bajo nivel dependientes del dispositivo. Algunas de las propuestas realizadas a este respecto en la presente tesis doctoral son un router que es capaz de garantizar el correcto rutado de los módulos reconfigurables dentro del área destinada para ellos, así como una estrategia para la comunicación entre módulos que no introduce ningún retardo ni necesita emplear recursos configurables del dispositivo. El flujo de diseño propuesto se ha automatizado mediante una herramienta denominada DREAMS. La herramienta se encarga de la modificación de las netlists correspondientes a cada uno de los módulos reconfigurables del sistema, y que han sido generadas previamente mediante herramientas comerciales. Por lo tanto, el flujo propuesto se entiende como una etapa de post-procesamiento, que adapta esas netlists a los requisitos de la reconfiguración dinámica y parcial. Dicha modificación la lleva a cabo la herramienta de una forma completamente automática, por lo que la productividad del proceso de diseño aumenta de forma evidente. Para facilitar dicho proceso, se ha dotado a la herramienta de una interfaz gráfica. El flujo de diseño propuesto, y la herramienta que lo soporta, tienen características específicas para abordar el diseño de las arquitecturas dinámicamente escalables propuestas en esta tesis. Entre ellas está el soporte para el realojamiento de módulos reconfigurables en posiciones del dispositivo distintas a donde el módulo es originalmente implementado, así como la generación de estructuras de comunicación compatibles con la simetría de la arquitectura. El router has sido empleado también en esta tesis para obtener un rutado simétrico entre nets equivalentes. Dicha posibilidad ha sido explotada para aumentar la protección de circuitos con altos requisitos de seguridad, frente a ataques de canal lateral, mediante la implantación de lógica complementaria con rutado idéntico. Para controlar el proceso de reconfiguración de la FPGA, se propone en esta tesis un motor de reconfiguración especialmente adaptado a los requisitos de las arquitecturas dinámicamente escalables. Además de controlar el puerto de reconfiguración, el motor de reconfiguración ha sido dotado de la capacidad de realojar módulos reconfigurables en posiciones arbitrarias del dispositivo, en tiempo real. De esta forma, basta con generar un único bitstream por cada módulo reconfigurable del sistema, independientemente de la posición donde va a ser finalmente reconfigurado. La estrategia seguida para implementar el proceso de realojamiento de módulos es diferente de las propuestas existentes en el estado del arte, pues consiste en la composición de los archivos de configuración en tiempo real. De esta forma se consigue aumentar la velocidad del proceso, mientras que se reduce la longitud de los archivos de configuración parciales a almacenar en el sistema. El motor de reconfiguración soporta módulos reconfigurables con una altura menor que la altura de una región de reloj del dispositivo. Internamente, el motor se encarga de la combinación de los frames que describen el nuevo módulo, con la configuración existente en el dispositivo previamente. El escalado de las arquitecturas de procesamiento propuestas en esta tesis también se puede beneficiar de este mecanismo. Se ha incorporado también un acceso directo a una memoria externa donde se pueden almacenar bitstreams parciales. Para acelerar el proceso de reconfiguración se ha hecho funcionar el ICAP por encima de la máxima frecuencia de reloj aconsejada por el fabricante. Así, en el caso de Virtex-5, aunque la máxima frecuencia del reloj deberían ser 100 MHz, se ha conseguido hacer funcionar el puerto de reconfiguración a frecuencias de operación de hasta 250 MHz, incluyendo el proceso de realojamiento en tiempo real. Se ha previsto la posibilidad de portar el motor de reconfiguración a futuras familias de FPGAs. Por otro lado, el motor de reconfiguración se puede emplear para inyectar fallos en el propio dispositivo hardware, y así ser capaces de evaluar la tolerancia ante los mismos que ofrecen las arquitecturas reconfigurables. Los fallos son emulados mediante la generación de archivos de configuración a los que intencionadamente se les ha introducido un error, de forma que se modifica su funcionalidad. Con el objetivo de comprobar la validez y los beneficios de las arquitecturas propuestas en esta tesis, se han seguido dos líneas principales de aplicación. En primer lugar, se propone su uso como parte de una plataforma adaptativa basada en hardware evolutivo, con capacidad de escalabilidad, adaptabilidad y recuperación ante fallos. En segundo lugar, se ha desarrollado un deblocking filter escalable, adaptado a la codificación de vídeo escalable, como ejemplo de aplicación de las arquitecturas de tipo wavefront propuestas. El hardware evolutivo consiste en el uso de algoritmos evolutivos para diseñar hardware de forma autónoma, explotando la flexibilidad que ofrecen los dispositivos reconfigurables. En este caso, los elementos de procesamiento que componen la arquitectura son seleccionados de una biblioteca de elementos presintetizados, de acuerdo con las decisiones tomadas por el algoritmo evolutivo, en lugar de definir la configuración de las mismas en tiempo de diseño. De esta manera, la configuración del core puede cambiar cuando lo hacen las condiciones del entorno, en tiempo real, por lo que se consigue un control autónomo del proceso de reconfiguración dinámico. Así, el sistema es capaz de optimizar, de forma autónoma, su propia configuración. El hardware evolutivo tiene una capacidad inherente de auto-reparación. Se ha probado que las arquitecturas evolutivas propuestas en esta tesis son tolerantes ante fallos, tanto transitorios, como permanentes y acumulativos. La plataforma evolutiva se ha empleado para implementar filtros de eliminación de ruido. La escalabilidad también ha sido aprovechada en esta aplicación. Las arquitecturas evolutivas escalables permiten la adaptación autónoma de los cores de procesamiento ante fluctuaciones en la cantidad de recursos disponibles en el sistema. Por lo tanto, constituyen un ejemplo de escalabilidad dinámica para conseguir un determinado nivel de calidad, que puede variar en tiempo real. Se han propuesto dos variantes de sistemas escalables evolutivos. El primero consiste en un único core de procesamiento evolutivo, mientras que el segundo está formado por un número variable de arrays de procesamiento. La codificación de vídeo escalable, a diferencia de los codecs no escalables, permite la decodificación de secuencias de vídeo con diferentes niveles de calidad, de resolución temporal o de resolución espacial, descartando la información no deseada. Existen distintos algoritmos que soportan esta característica. En particular, se va a emplear el estándar Scalable Video Coding (SVC), que ha sido propuesto como una extensión de H.264/AVC, ya que este último es ampliamente utilizado tanto en la industria, como a nivel de investigación. Para poder explotar toda la flexibilidad que ofrece el estándar, hay que permitir la adaptación de las características del decodificador en tiempo real. El uso de las arquitecturas dinámicamente escalables es propuesto en esta tesis con este objetivo. El deblocking filter es un algoritmo que tiene como objetivo la mejora de la percepción visual de la imagen reconstruida, mediante el suavizado de los "artefactos" de bloque generados en el lazo del codificador. Se trata de una de las tareas más intensivas en procesamiento de datos de H.264/AVC y de SVC, y además, su carga computacional es altamente dependiente del nivel de escalabilidad seleccionado en el decodificador. Por lo tanto, el deblocking filter ha sido seleccionado como prueba de concepto de la aplicación de las arquitecturas dinámicamente escalables para la compresión de video. La arquitectura propuesta permite añadir o eliminar unidades de computación, siguiendo un esquema de tipo wavefront. La arquitectura ha sido propuesta conjuntamente con un esquema de procesamiento en paralelo del deblocking filter a nivel de macrobloque, de tal forma que cuando se varía del tamaño de la arquitectura, el orden de filtrado de los macrobloques varia de la misma manera. El patrón propuesto se basa en la división del procesamiento de cada macrobloque en dos etapas independientes, que se corresponden con el filtrado horizontal y vertical de los bloques dentro del macrobloque. Las principales contribuciones originales de esta tesis son las siguientes: - El uso de arquitecturas altamente regulares, modulares, paralelas y con una intensa localidad en sus comunicaciones, para implementar cores de procesamiento dinámicamente reconfigurables. - El uso de arquitecturas bidimensionales, en forma de malla, para construir arquitecturas dinámicamente escalables, con una huella escalable. De esta forma, las arquitecturas permiten establecer un compromiso entre el área que ocupan en el dispositivo, y las prestaciones que ofrecen en cada momento. Se proponen plantillas de procesamiento genéricas, de tipo sistólico o wavefront, que pueden ser adaptadas a distintos problemas de procesamiento. - Un flujo de diseño y una herramienta que lo soporta, para el diseño de sistemas reconfigurables dinámicamente, centradas en el diseño de las arquitecturas altamente paralelas, modulares y regulares propuestas en esta tesis. - Un esquema de comunicaciones entre módulos reconfigurables que no introduce ningún retardo ni requiere el uso de recursos lógicos propios. - Un router flexible, capaz de resolver los conflictos de rutado asociados con el diseño de sistemas reconfigurables dinámicamente. - Un algoritmo de optimización para sistemas formados por múltiples cores escalables que optimice, mediante un algoritmo genético, los parámetros de dicho sistema. Se basa en un modelo conocido como el problema de la mochila. - Un motor de reconfiguración adaptado a los requisitos de las arquitecturas altamente regulares y modulares. Combina una alta velocidad de reconfiguración, con la capacidad de realojar módulos en tiempo real, incluyendo el soporte para la reconfiguración de regiones que ocupan menos que una región de reloj, así como la réplica de un módulo reconfigurable en múltiples posiciones del dispositivo. - Un mecanismo de inyección de fallos que, empleando el motor de reconfiguración del sistema, permite evaluar los efectos de fallos permanentes y transitorios en arquitecturas reconfigurables. - La demostración de las posibilidades de las arquitecturas propuestas en esta tesis para la implementación de sistemas de hardware evolutivos, con una alta capacidad de procesamiento de datos. - La implementación de sistemas de hardware evolutivo escalables, que son capaces de tratar con la fluctuación de la cantidad de recursos disponibles en el sistema, de una forma autónoma. - Una estrategia de procesamiento en paralelo para el deblocking filter compatible con los estándares H.264/AVC y SVC que reduce el número de ciclos de macrobloque necesarios para procesar un frame de video. - Una arquitectura dinámicamente escalable que permite la implementación de un nuevo deblocking filter, totalmente compatible con los estándares H.264/AVC y SVC, que explota el paralelismo a nivel de macrobloque. El presente documento se organiza en siete capítulos. En el primero se ofrece una introducción al marco tecnológico de esta tesis, especialmente centrado en la reconfiguración dinámica y parcial de FPGAs. También se motiva la necesidad de las arquitecturas dinámicamente escalables propuestas en esta tesis. En el capítulo 2 se describen las arquitecturas dinámicamente escalables. Dicha descripción incluye la mayor parte de las aportaciones a nivel arquitectural realizadas en esta tesis. Por su parte, el flujo de diseño adaptado a dichas arquitecturas se propone en el capítulo 3. El motor de reconfiguración se propone en el 4, mientras que el uso de dichas arquitecturas para implementar sistemas de hardware evolutivo se aborda en el 5. El deblocking filter escalable se describe en el 6, mientras que las conclusiones finales de esta tesis, así como la descripción del trabajo futuro, son abordadas en el capítulo 7. ABSTRACT The optimization of system parameters, such as power dissipation, the amount of hardware resources and the memory footprint, has been always a main concern when dealing with the design of resource-constrained embedded systems. This situation is even more demanding nowadays. Embedded systems cannot anymore be considered only as specific-purpose computers, designed for a particular functionality that remains unchanged during their lifetime. Differently, embedded systems are now required to deal with more demanding and complex functions, such as multimedia data processing and high-throughput connectivity. In addition, system operation may depend on external data, the user requirements or internal variables of the system, such as the battery life-time. All these conditions may vary at run-time, leading to adaptive scenarios. As a consequence of both the growing computational complexity and the existence of dynamic requirements, dynamic resource management techniques for embedded systems are needed. Software is inherently flexible, but it cannot meet the computing power offered by hardware solutions. Therefore, reconfigurable hardware emerges as a suitable technology to deal with the run-time variable requirements of complex embedded systems. Adaptive hardware requires the use of reconfigurable devices, where its functionality can be modified on demand. In this thesis, Field Programmable Gate Arrays (FPGAs) have been selected as the most appropriate commercial technology existing nowadays to implement adaptive hardware systems. There are different ways of exploiting reconfigurability in reconfigurable devices. Among them is dynamic and partial reconfiguration. This is a technique which consists in substituting part of the FPGA logic on demand, while the rest of the device continues working. The strategy followed in this thesis is to exploit the dynamic and partial reconfiguration of commercial FPGAs to deal with the flexibility and complexity demands of state-of-the-art embedded systems. The proposal of this thesis to deal with run-time variable system conditions is the use of spatially scalable processing hardware IP cores, which are able to adapt their functionality or performance at run-time, trading them off with the amount of logic resources they occupy in the device. This is referred to as a scalable footprint in the context of this thesis. The distinguishing characteristic of the proposed cores is that they rely on highly parallel, modular and regular architectures, arranged in one or two dimensions. These architectures can be scaled by means of the addition or removal of the composing blocks. This strategy avoids implementing a full version of the core for each possible size, with the corresponding benefits in terms of scaling and adaptation time, as well as bitstream storage memory requirements. Instead of providing specific-purpose architectures, generic architectural templates, which can be tuned to solve different problems, are proposed in this thesis. Architectures following both systolic and wavefront templates have been selected. Together with the proposed scalable architectural templates, other issues needed to ensure the proper design and operation of the scalable cores, such as the device reconfiguration control, the run-time management of the architecture and the implementation techniques have been also addressed in this thesis. With regard to the implementation of dynamically reconfigurable architectures, device dependent low-level details are addressed. Some of the aspects covered in this thesis are the area constrained routing for reconfigurable modules, or an inter-module communication strategy which does not introduce either extra delay or logic overhead. The system implementation, from the hardware description to the device configuration bitstream, has been fully automated by modifying the netlists corresponding to each of the system modules, which are previously generated using the vendor tools. This modification is therefore envisaged as a post-processing step. Based on these implementation proposals, a design tool called DREAMS (Dynamically Reconfigurable Embedded and Modular Systems) has been created, including a graphic user interface. The tool has specific features to cope with modular and regular architectures, including the support for module relocation and the inter-module communications scheme based on the symmetry of the architecture. The core of the tool is a custom router, which has been also exploited in this thesis to obtain symmetric routed nets, with the aim of enhancing the protection of critical reconfigurable circuits against side channel attacks. This is achieved by duplicating the logic with an exactly equal routing. In order to control the reconfiguration process of the FPGA, a Reconfiguration Engine suited to the specific requirements set by the proposed architectures was also proposed. Therefore, in addition to controlling the reconfiguration port, the Reconfiguration Engine has been enhanced with the online relocation ability, which allows employing a unique configuration bitstream for all the positions where the module may be placed in the device. Differently to the existing relocating solutions, which are based on bitstream parsers, the proposed approach is based on the online composition of bitstreams. This strategy allows increasing the speed of the process, while the length of partial bitstreams is also reduced. The height of the reconfigurable modules can be lower than the height of a clock region. The Reconfiguration Engine manages the merging process of the new and the existing configuration frames within each clock region. The process of scaling up and down the hardware cores also benefits from this technique. A direct link to an external memory where partial bitstreams can be stored has been also implemented. In order to accelerate the reconfiguration process, the ICAP has been overclocked over the speed reported by the manufacturer. In the case of Virtex-5, even though the maximum frequency of the ICAP is reported to be 100 MHz, valid operations at 250 MHz have been achieved, including the online relocation process. Portability of the reconfiguration solution to today's and probably, future FPGAs, has been also considered. The reconfiguration engine can be also used to inject faults in real hardware devices, and this way being able to evaluate the fault tolerance offered by the reconfigurable architectures. Faults are emulated by introducing partial bitstreams intentionally modified to provide erroneous functionality. To prove the validity and the benefits offered by the proposed architectures, two demonstration application lines have been envisaged. First, scalable architectures have been employed to develop an evolvable hardware platform with adaptability, fault tolerance and scalability properties. Second, they have been used to implement a scalable deblocking filter suited to scalable video coding. Evolvable Hardware is the use of evolutionary algorithms to design hardware in an autonomous way, exploiting the flexibility offered by reconfigurable devices. In this case, processing elements composing the architecture are selected from a presynthesized library of processing elements, according to the decisions taken by the algorithm, instead of being decided at design time. This way, the configuration of the array may change as run-time environmental conditions do, achieving autonomous control of the dynamic reconfiguration process. Thus, the self-optimization property is added to the native self-configurability of the dynamically scalable architectures. In addition, evolvable hardware adaptability inherently offers self-healing features. The proposal has proved to be self-tolerant, since it is able to self-recover from both transient and cumulative permanent faults. The proposed evolvable architecture has been used to implement noise removal image filters. Scalability has been also exploited in this application. Scalable evolvable hardware architectures allow the autonomous adaptation of the processing cores to a fluctuating amount of resources available in the system. Thus, it constitutes an example of the dynamic quality scalability tackled in this thesis. Two variants have been proposed. The first one consists in a single dynamically scalable evolvable core, and the second one contains a variable number of processing cores. Scalable video is a flexible approach for video compression, which offers scalability at different levels. Differently to non-scalable codecs, a scalable video bitstream can be decoded with different levels of quality, spatial or temporal resolutions, by discarding the undesired information. The interest in this technology has been fostered by the development of the Scalable Video Coding (SVC) standard, as an extension of H.264/AVC. In order to exploit all the flexibility offered by the standard, it is necessary to adapt the characteristics of the decoder to the requirements of each client during run-time. The use of dynamically scalable architectures is proposed in this thesis with this aim. The deblocking filter algorithm is the responsible of improving the visual perception of a reconstructed image, by smoothing blocking artifacts generated in the encoding loop. This is one of the most computationally intensive tasks of the standard, and furthermore, it is highly dependent on the selected scalability level in the decoder. Therefore, the deblocking filter has been selected as a proof of concept of the implementation of dynamically scalable architectures for video compression. The proposed architecture allows the run-time addition or removal of computational units working in parallel to change its level of parallelism, following a wavefront computational pattern. Scalable architecture is offered together with a scalable parallelization strategy at the macroblock level, such that when the size of the architecture changes, the macroblock filtering order is modified accordingly. The proposed pattern is based on the division of the macroblock processing into two independent stages, corresponding to the horizontal and vertical filtering of the blocks within the macroblock. The main contributions of this thesis are: - The use of highly parallel, modular, regular and local architectures to implement dynamically reconfigurable processing IP cores, for data intensive applications with flexibility requirements. - The use of two-dimensional mesh-type arrays as architectural templates to build dynamically reconfigurable IP cores, with a scalable footprint. The proposal consists in generic architectural templates, which can be tuned to solve different computational problems. •A design flow and a tool targeting the design of DPR systems, focused on highly parallel, modular and local architectures. - An inter-module communication strategy, which does not introduce delay or area overhead, named Virtual Borders. - A custom and flexible router to solve the routing conflicts as well as the inter-module communication problems, appearing during the design of DPR systems. - An algorithm addressing the optimization of systems composed of multiple scalable cores, which size can be decided individually, to optimize the system parameters. It is based on a model known as the multi-dimensional multi-choice Knapsack problem. - A reconfiguration engine tailored to the requirements of highly regular and modular architectures. It combines a high reconfiguration throughput with run-time module relocation capabilities, including the support for sub-clock reconfigurable regions and the replication in multiple positions. - A fault injection mechanism which takes advantage of the system reconfiguration engine, as well as the modularity of the proposed reconfigurable architectures, to evaluate the effects of transient and permanent faults in these architectures. - The demonstration of the possibilities of the architectures proposed in this thesis to implement evolvable hardware systems, while keeping a high processing throughput. - The implementation of scalable evolvable hardware systems, which are able to adapt to the fluctuation of the amount of resources available in the system, in an autonomous way. - A parallelization strategy for the H.264/AVC and SVC deblocking filter, which reduces the number of macroblock cycles needed to process the whole frame. - A dynamically scalable architecture that permits the implementation of a novel deblocking filter module, fully compliant with the H.264/AVC and SVC standards, which exploits the macroblock level parallelism of the algorithm. This document is organized in seven chapters. In the first one, an introduction to the technology framework of this thesis, specially focused on dynamic and partial reconfiguration, is provided. The need for the dynamically scalable processing architectures proposed in this work is also motivated in this chapter. In chapter 2, dynamically scalable architectures are described. Description includes most of the architectural contributions of this work. The design flow tailored to the scalable architectures, together with the DREAMs tool provided to implement them, are described in chapter 3. The reconfiguration engine is described in chapter 4. The use of the proposed scalable archtieectures to implement evolvable hardware systems is described in chapter 5, while the scalable deblocking filter is described in chapter 6. Final conclusions of this thesis, and the description of future work, are addressed in chapter 7.
Resumo:
La agricultura familiar está representada por 2,5 mil millones de personas(Sumpsi, 2011) y produce más del 70% de los alimentos del planeta(Banco Mundial, 2008; Trueba y MacMillan, 2011). En Nicaragua el 44,1% de la población vive en áreas rurales (1) (INIDE, 2006), la economía campesina y familiar representa cerca del 50% del valor bruto de la producción agropecuaria (García Ruiz, 2011). La agricultura familiar, tiene una gran incidencia sobre la conservación de los recursos naturales y las tradiciones socioculturales (Clapp, 1998; Altieri y Nicholls, 2000).
Resumo:
Mealiness is a negative attribute of sensory texture that combines the sensation of a disaggregated tissue with the sensation of lack of juiciness. Since January 1996, a wide EC Project entitled : "Mealiness in fruits. Consumers perception and means for detection'" is being carried out. Within it, three sensory panels have been trained at : the Institute of Food Research (IFR, United Kingdom), the Instituto de Agroquímica y Tecnología de los Alimentos (IATA, Spain) and the Institut voor Agrotechnologisch Onderzoek (ATO-DLO, Netherlands) to assess mealiness in apples. In all three cases, mealiness has been described as a multidimensional sensory descriptor capable of gathering the loss of consistency (of crispness and of hardness) and of juiciness. Also within the EC Project several instrumental procedures have been tested for mealiness assessment. In this sense the Physical Properties Laboratory (ETS1A-UPM) has focused its aims in a first stage on performing instrumental tests for assessing some textural descriptors as crispiness, hardness and juiciness. The results obtained within these tests have shown to correlate well with the sensory measurements (Barreiro et Ruiz-Altisent, 1997) in apples, but also have succeed when trying to generate several texture degradation levels on peaches from which mealiness appears to be the last stage (Ortiz et al. 1997).
Resumo:
Los betunes modificados con polímeros (BMP) son ampliamente utilizados en la pavimentación de carreteras sometidas a gran afluencia de vehículos y a condiciones extremas de temperatura. La presencia de polímero en contacto con el betún amplía notablemente el intervalo de temperaturas en las que el betún mantiene sus prestaciones. En general los betunes modificados con polímero presentan un aumento significativo de la resistencia a la deformación permanente en el intervalo de elevadas temperaturas, sin que su compo rtamiento sufra deterioro a bajas temperaturas. Cuando un polímero se añade al betún tiene lugar su hinchamiento a partir de las moléculas de aromáticos ligeros presentes en el betún. A bajas concentraciones de polímero, aparece una morfología bifásica en la que una fase rica en polímero se dispersa en una matriz malténica enriquecida en asfaltenos. La existencia de esta estructura bifásica es la llave que controla la mejora en las propiedades de los BMP en relación al betún puro. En la literatura existen muchos trabajos dedicados a investigar las propiedades y morfología de los BMP, sin embargo en pocos se hace referencia a la influencia de la estructura del betún. Este trabajo está enfocado a relacionar la estructura/composición del betún con la compatibilidad del sistema SBS/betún/azufre. Para ello se han elegido cuatro betunes de distinta procedencia denominados, A17, A500, M18, M170, que mezclados convenientemente han sido utilizados en la preparación de betún modificado con SBS y vulcanizado con azufre. La fracción en peso de SBS, en relación al contenido de betún, ha sido del 3%. Se han determinado propiedades tales como viscosidad, penetración y temperatura anillo-bola, así como la estabilidad en almacenamiento a elevada temperatura. Finalmente la estabilidad de estos sistemas se ha analizado en función de la estructura y la composición de los betunes utilizados en su preparación
Resumo:
El presente trabajo se centra en el estudio de la influencia de la estructura/composición del betún sobre la compatibilidad del sistema betún/SBS. Cuatro betunes denominados A17, A570, M18 y M172, provenientes de dos crudos distintos han sido seleccionados, y sus mezclas han sido utilizadas para preparar betunes modificados con contenidos de SBS respecto al betún del 3% en peso. Con objeto de establecer las prestaciones de los betunes modificados se han realizado medidas de viscosidad, penetración y temperatura de reblandecimiento en función del tiempo de almacenamiento a temperaturas elevadas. Finalmente la estabilidad de los sistemas modificados se discute en términos de la estructura y composición de los betunes utilizados en su preparación.
Resumo:
Algunos importadores netos de alimentos buscan satisfacer su demanda de materias primas agrícolas vía la inversión en tierras en países en desarrollo. Ha surgido así el "land grab", una amenaza a la seguridad alimentaria y el medio ambiente de los países menos avanzados. En la Cumbre Mundial sobre la Alimentación, celebrada en 1996, se definió la seguridad alimentaria como un estado en el que "todas las personas tienen en todo momento acceso físico y económico a suficientes alimentos inocuos y nutritivos para satisfacer sus necesidades alimenticias y sus preferencias en cuanto a los alimentos a fin de llevar una vida activa y sana". En el contexto actual de crecimiento demográfico e incremento del número de personas con un tipo de dieta más rica en proteína animal, se presenta el doble reto de alimentar a la población de manera adecuada y ambientalmente sostenible.
Resumo:
Todos los alimentos obtenidos de origen vegetal llevan asociada una cierta cantidad de emisiones de Gases de Efecto Invernadero (GEI), que se cuantifican a través de su huella de carbono. De los GEI, la agricultura es principalmente responsable de la emisión de óxido nitroso (N2O), que es el que presenta mayor poder de calentamiento global. La metodología del IPCC, aparte de sobreestimar con su valor por defecto las emisiones de N2O de nuestros agrosistemas, no tiene en cuenta el fin último de la agricultura que es satisfacer la demanda mundial de alimentos, fibras y combustibles. Por ello, en este artículo se propone evaluar las emisiones de N2O en base al rendimiento del cultivo. Posteriormente, se enumeran una serie de buenas prácticas agrícolas cuyo fin es aumentar la eficiencia del uso del N por parte del cultivo así como reducir las emisiones de N2O.
Resumo:
En el primer capítulo se analizan las generalidades relativas al sismo. Tras algunas consideraciones sobre los fenómenos que aparecen durante un terremoto se describen algunos ejemplos históricos que han sido determinantes en el desarrollo del conocimiento y, finalmente, se plantean algunos problemas típicos de la ingeniería sísmica. En el siguiente capítulo se resumen algunos conceptos utilizados en la descripción física de la acción. Se trata de una presentación muy somera de temas en continua evolución. Se comienza con unas indicaciones sobre tectónica global que permiten hacerse una idea del origen de los terremotos en un marco general. A continuación se recuerdan algunos conceptos imprescindibles sobre propagación de ondas en medios elásticos, lo que permite comentar la composición de los acelerogramas, la estructura interna de la tierra y la localización de terremotos. Finalmente se incluyen las definiciones fenomenológicas e instrumentales utilizadas para describir el sismo, así como algunas correlaciones habituales entre ellas. En el capítulo posterior se desarrollan los criterios que permiten fijar la importancia de la acción sísmica en un emplazamiento determinado. Aunque aquéllos son semejantes para una cuantificación global y local se va a poner especial énfasis en la explicación de los métodos que han llevado al establecimiento del mapa sísmico español. En general cabe decir que el proyectista necesita evaluar los riesgos de diferentes niveles de daño con objeto de comparar soluciones alternativas. Para ello se precisa ser capaz de cuantificar y localizar la importancia de los sismos, el daño que producen en las estructuras así como cuantificar el coste generalizado (coste inicial+ beneficios+ coste de reparación) de la construcción. Tradicionalmente se ha empleado un enfoque determinista en que la solicitación sísmica se tomaba semejante a la máxima registrada históricamente. Tan solo en épocas recientes se ha impuesto una filosofía probabilista basada fundamentalmente en ideas expuestas por Cornell y Esteva en los años sesenta. En ambos casos se recurre a un estudio detallado de la estructura geotectónica de la región, en especial sus fallas activas, así como a la historia sísmica con localización de epicentros y asignación de intensidades que en nuestro país se puede basar en los catálogos existentes. En el caso determinista se postula que el máximo sismo histórico de cada falla se produce en la zona más próxima al emplazamiento, y utilizando fórmulas de atenuación se obtiene la característica de interés en aquel. En el último capítulo se van a describir métodos que, además de su aplicabilidad a sismos concretos han permitido la identificación de propiedades globales y, por tanto, la definición de la acción en función de un número limitado de parámetros. Aunque en un principio la descripción temporal fue la más usada, se ha observado que el contenido en frecuencias tiene una importancia capital y por ello se presentan sucesivamente ambos enfoques. Se dedica un apartado especial al concepto de espectro de respuesta elástica ya que está en la base de la mayoría de las recomendaciones de la normativa y recoge en forma muy sencilla una impresionante cantidad de información. Finalmente, se realizan breves indicaciones sobre los procedimientos utilizados para generar acelerogramas sintéticos que gocen de algunas de las propiedades globales puestas de manifiesto por las representaciones anteriores. Conviene remarcar que la importancia de los conceptos de densidad espectral o espectro de respuesta, radican no sólo en su capacidad para representar propiedades de un sismo dado sino, a través de su correspondiente normalización y promediación. En el último capítulo se incluyen algunas observaciones de interés sobre las modificaciones que las condiciones locales del suelo introducen en el movimiento sísmico.
Resumo:
El presente proyecto tiene como objetivo principal el análisis de la viabilidad de estacionamiento de vehículos propulsados por gas natural comprimido (GNC) desde el punto de vista de formación de atmosferas potencialmente explosivas en los garajes subterráneos. Además se ha realizado una breve introducción sobre el GNC explicando el origen, la composición y los diferentes usos que tiene. Se ha realizado la evaluación de riesgos asociados a la utilización de vehículos propulsados por gas natural y estimación de tasas de escape en el circuito de combustible de los vehículos propulsados por GNC. Para ello se ha aplicado la normativa UNE EN 60079-10 traspuesta en España mediante el Real Decreto del 681/2003 sobre la salud y la seguridad de los trabajadores y el Real Decreto 400/1996 sobre aparatos y sistemas de protección para su uso en atmósferas explosivas. Finalmente se han expuesto las medidas de prevención y protección necesarias para prevenir la generación de atmosferas potencialmente explosivas en los garajes subterráneos y se han detallado los procedimientos y las operaciones que han de realizarse. En las conclusiones se han explicado las acciones más importantes que deben emprenderse para mejorar la seguridad de personas e instalaciones en las áreas de riesgo por presencia de atmósferas potencialmente explosivas. ABSTRACT The main objective of this project is to analyze the viability of the parking of vehicles powered by compressed natural gas (CNG) in the underground garages from the point of view of generated of potentially explosive atmospheres in garages. A brief introduction about the CNG explaining the origin, composition and the different uses that it has is also included. An assessment of the risks associated with the use of vehicles powered by natural gas has been provided as well as an estimate of the exhaust rates on the gas circuit of CNG vehicles. In order to do that, the standard UNE EN 60079-10 transposed in Spain by the Royal Decree 681/2003 about the health and safety of workers and the Royal Decree 400/1996 about equipment and protection systems to be used in explosive atmospheres have been applied. Finally, the necessary preventive and protective measures to prevent the generation of potentially explosive atmospheres in underground garages have been presented and the procedures and operations to be performed have been detailed. In the conclusions, the most important actions to be taken in order to improve the safety of people and facilities in the areas at risk of having potentially explosive atmospheres have been described.
Resumo:
Los alimentos son sistemas complejos, formados por diversas estructuras a diferentes escalas: macroscópica y microscópica. Muchas propiedades de los alimentos, que son importantes para su procesamiento, calidad y tratamiento postcosecha, están relacionados con su microestructura. La presente tesis doctoral propone una metodología completa para la determinación de la estructura de alimentos desde un punto de vista multi-escala, basándose en métodos de Resonancia Magnética Nuclear (NMR). Las técnicas de NMR son no invasivas y no destructivas y permiten el estudio tanto de macro- como de microestructura. Se han utilizado distintos procedimientos de NMR dependiendo del nivel que se desea estudiar. Para el nivel macroestructural, la Imagen de Resonancia Magnética (MRI) ha resultado ser muy útil para la caracterización de alimentos. Para el estudio microestructural, la MRI requiere altos tiempos de adquisición, lo que hace muy difícil la transferencia de esta técnica a aplicaciones en industria. Por tanto, la optimización de procedimientos de NMR basados en secuencias relaxometría 2D T1/T2 ha resultado ser una estrategia primordial en esta tesis. Estos protocolos de NMR se han implementado satisfactoriamente por primera vez en alto campo magnético. Se ha caracterizado la microestructura de productos alimentarios enteros por primera vez utilizando este tipo de protocolos. Como muestras, se han utilizado dos tipos de productos: modelos de alimentos y alimentos reales (manzanas). Además, como primer paso para su posterior implementación en la industria agroalimentaria, se ha mejorado una línea transportadora, especialmente diseñada para trabajar bajo condiciones de NMR en trabajos anteriores del grupo LPF-TAGRALIA. Se han estudiado y seleccionado las secuencias más rápidas y óptimas para la detección de dos tipos de desórdenes internos en manzanas: vitrescencia y roturas internas. La corrección de las imágenes en movimiento se realiza en tiempo real. Asimismo, se han utilizado protocolos de visión artificial para la clasificación automática de manzanas potencialmente afectadas por vitrescencia. El presente documento está dividido en diferentes capítulos: el Capítulo 2 explica los antecedentes de la presente tesis y el marco del proyecto en el que se ha desarrollado. El Capítulo 3 recoge el estado del arte. El Capítulo 4 establece los objetivos de esta tesis doctoral. Los resultados se dividen en cinco sub-secciones (dentro del Capítulo 5) que corresponden con los trabajos publicados bien en revistas revisadas por pares, bien en congresos internacionales o bien como capítulos de libros revisados por pares. La Sección 5.1. es un estudio del desarrollo de la vitrescencia en manzanas mediante MRI y lo relaciona con la posición de la fruta dentro de la copa del árbol. La Sección 5.2 presenta un trabajo sobre macro- y microestructura en modelos de alimentos. La Sección 5.3 es un artículo en revisión en una revista revisada por pares, en el que se hace un estudio microestrcutural no destructivo mediante relaxometría 2D T1/T2. la Sección 5.4, hace una comparación entre manzanas afectadas por vitrescencia mediante dos técnicas: tomografía de rayos X e MRI, en manzana. Por último, en la Sección 5.5 se muestra un trabajo en el que se hace un estudio de secuencias de MRI en línea para la evaluación de calidad interna en manzanas. Los siguientes capítulos ofrecen una discusión y conclusiones (Capítulo 6 y 7 respectivamente) de todos los capítulos de esta tesis doctoral. Finalmente, se han añadido tres apéndices: el primero con una introducción de los principios básicos de resonancia magnética nuclear (NMR) y en los otros dos, se presentan sendos estudios sobre el efecto de las fibras en la rehidratación de cereales de desayuno extrusionados, mediante diversas técnicas. Ambos trabajos se presentaron en un congreso internacional. Los resultados más relevantes de la presente tesis doctoral, se pueden dividir en tres grandes bloques: resultados sobre macroestructura, resultados sobre microestructura y resultados sobre MRI en línea. Resultados sobre macroestructura: - La imagen de resonancia magnética (MRI) se aplicó satisfactoriamente para la caracterización de macroestructura. En particular, la reconstrucción 3D de imágenes de resonancia magnética permitió identificar y caracterizar dos tipos distintos de vitrescencia en manzanas: central y radial, que se caracterizan por el porcentaje de daño y la conectividad (número de Euler). - La MRI proveía un mejor contraste para manzanas afectadas por vitrescencia que las imágenes de tomografía de rayos X (X-Ray CT), como se pudo verificar en muestras idénticas de manzana. Además, el tiempo de adquisición de la tomografía de rayos X fue alrededor de 12 veces mayor (25 minutos) que la adquisición de las imágenes de resonancia magnética (2 minutos 2 segundos). Resultados sobre microestructura: - Para el estudio de microestructura (nivel subcelular) se utilizaron con éxito secuencias de relaxometría 2D T1/T2. Estas secuencias se usaron por primera vez en alto campo y sobre piezas de alimento completo, convirtiéndose en una forma no destructiva de llevar a cabo estudios de microestructura. - El uso de MRI junto con relaxometría 2D T1/T2 permite realizar estudios multiescala en alimentos de forma no destructiva. Resultados sobre MRI en línea: - El uso de imagen de resonancia magnética en línea fue factible para la identificación de dos tipos de desórdenes internos en manzanas: vitrescencia y podredumbre interna. Las secuencias de imagen tipo FLASH resultaron adecuadas para la identificación en línea de vitrescencia en manzanas. Se realizó sin selección de corte, debido a que la vitrescencia puede desarrollarse en cualquier punto del volumen de la manzana. Se consiguió reducir el tiempo de adquisición, de modo que se llegaron a adquirir 1.3 frutos por segundos (758 ms por fruto). Las secuencias de imagen tipo UFLARE fueron adecuadas para la detección en línea de la podredumbre interna en manzanas. En este caso, se utilizó selección de corte, ya que se trata de un desorden que se suele localizar en la parte central del volumen de la manzana. Se consiguió reducir el tiempo de adquisicón hasta 0.67 frutos por segundo (1475 ms por fruto). En ambos casos (FLASH y UFLARE) fueron necesarios algoritmos para la corrección del movimiento de las imágenes en tiempo real. ABSTRACT Food is a complex system formed by several structures at different scales: macroscopic and microscopic. Many properties of foods that are relevant to process engineering or quality and postharvest treatments are related to their microstructure. This Ph.D Thesis proposes a complete methodology for food structure determination, in a multiscale way, based on the Nuclear Magnetic Resonance (NMR) phenomenon since NMR techniques are non-invasive and non-destructive, and allow both, macro- and micro-structure study. Different NMR procedures are used depending on the structure level under study. For the macrostructure level, Magnetic Resonance Imaging (MRI) revealed its usefulness for food characterization. For microstructure insight, MRI required high acquisition times, which is a hindrance for transference to industry applications. Therefore, optimization of NMR procedures based on T1/T2 relaxometry sequences was a key strategy in this Thesis. These NMR relaxometry protocols, are successfully implemented in high magnetic field. Microstructure of entire food products have been characterized for the first time using these protocols. Two different types of food products have been studied: food models and actual food (apples). Furthermore, as a first step for the food industry implementation, a grading line system, specially designed for working under NMR conditions in previous works of the LPF-TAGRALIA group, is improved. The study and selection of the most suitable rapid sequence to detect two different types of disorders in apples (watercore and internal breakdown) is performed and the real time image motion correction is applied. In addition, artificial vision protocols for the automatic classification of apples potentially affected by watercore are applied. This document is divided into seven different chapters: Chapter 2 explains the thesis background and the framework of the project in which it has been worked. Chapter 3 comprises the state of the art. Chapter 4 establishes de objectives of this Ph.D thesis. The results are divided into five different sections (in Chapter 5) that correspond to published peered reviewed works. Section 5.1 assesses the watercore development in apples with MRI and studies the effect of fruit location in the canopy. Section 5.2 is an MRI and 2D relaxometry study for macro- and microstructure assessment in food models. Section 5.3 is a non-destructive microstructural study using 2D T1/T2 relaxometry on watercore affected apples. Section 5.4 makes a comparison of X-ray CT and MRI on watercore disorder of different apple cultivars. Section 5.5, that is a study of online MRI sequences for the evaluation of apple internal quality. The subsequent chapters offer a general discussion and conclusions (Chapter 6 and Chapter 7 respectively) of all the works performed in the frame of this Ph.D thesis (two peer reviewed journals, one book chapter and one international congress).Finally, three appendices are included in which an introduction to NMR principles is offered and two published proceedings regarding the effect of fiber on the rehydration of extruded breakfast cereal are displayed. The most relevant results can be summarized into three sections: results on macrostructure, results on microstructure and results on on-line MRI. Results on macrostructure: - MRI was successfully used for macrostructure characterization. Indeed, 3D reconstruction of MRI in apples allows to identify two different types of watercore (radial and block), which are characterized by the percentage of damage and the connectivity (Euler number). - MRI provides better contrast for watercore than X-Ray CT as verified on identical samples. Furthermore, X-Ray CT images acquisition time was around 12 times higher (25 minutes) than MRI acquisition time (2 minutes 2 seconds). Results on microstructure: - 2D T1/T2 relaxometry were successfully applied for microstructure (subcellular level) characterization. 2D T1/T2 relaxometry sequences have been applied for the first time on high field for entire food pieces, being a non-destructive way to achieve microstructure study. - The use of MRI together with 2D T1/T2 relaxometry sequences allows a non-destructive multiscale study of food. Results on on-line MRI: - The use of on-line MRI was successful for the identification of two different internal disorders in apples: watercore and internal breakdown. FLASH imaging was a suitable technique for the on-line detection of watercore disorder in apples, with no slice selection, since watercore is a physiological disorder that may be developed anywhere in the apple volume. 1.3 fruits were imaged per second (768 ms per fruit). UFLARE imaging is a suitable sequence for the on-line detection of internal breakdown disorder in apples. Slice selection was used, as internal breakdown is usually located in the central slice of the apple volume. 0.67 fruits were imaged per second (1475 ms per fruit). In both cases (FLASH and UFLARE) motion correction was performed in real time, during the acquisition of the images.
Resumo:
El auge que ha surgido en los últimos años por la reparación de edificios y estructuras construidas con hormigón ha llevado al desarrollo de morteros de reparación cada vez más tecnológicos. En el desarrollo de estos morteros por parte de los fabricantes, surge la disyuntiva en el uso de los polímeros en sus formulaciones, por no encontrarse justificado en ocasiones el trinomio prestaciones/precio/aplicación. En esta tesis se ha realizado un estudio exhaustivo para la justificación de la utilización de estos morteros como morteros de reparación estructural como respuesta a la demanda actual disponiéndolo en tres partes: En la primera parte se realizó un estudio del arte de los morteros y sus constituyentes. El uso de los morteros se remonta a la antigüedad, utilizándose como componentes yeso y cal fundamentalmente. Los griegos y romanos desarrollaron el concepto de morteros de cal, introduciendo componentes como las puzolanas, cales hidraúlicas y áridos de polvo de mármol dando origen a morteros muy parecidos a los hormigones actuales. En la edad media y renacimiento se perdió la tecnología desarrollada por los romanos debido al extenso uso de la piedra en las construcciones civiles, defensivas y religiosas. Hubo que esperar hasta el siglo XIX para que J. Aspdin descubriese el actual cemento como el principal compuesto hidraúlico. Por último y ya en el siglo XX con la aparición de moléculas tales como estireno, melanina, cloruro de vinilo y poliésteres se comenzó a desarrollar la industria de los polímeros que se añadieron a los morteros dando lugar a los “composites”. El uso de polímeros en matrices cementantes dotan al mortero de propiedades tales como: adherencia, flexibilidad y trabajabilidad, como ya se tiene constancia desde los años 30 con el uso de caucho naturales. En la actualidad el uso de polímeros de síntesis (polivinialacetato, estireno-butadieno, viniacrílico y resinas epoxi) hacen que principalmente el mortero tenga mayor resistencia al ataque del agua y por lo tanto aumente su durabilidad ya que se minimizan todas las reacciones de deterioro (hielo, humedad, ataque biológico,…). En el presente estudio el polímero que se utilizó fue en estado polvo: polímero redispersable. Estos polímeros están encapsulados y cuando se ponen en contacto con el agua se liberan de la cápsula formando de nuevo el gel. En los morteros de reparación el único compuesto hidraúlico que hay es el cemento y es el principal constituyente hoy en día de los materiales de construcción. El cemento se obtiene por molienda conjunta de Clínker y yeso. El Clínker se obtiene por cocción de una mezcla de arcillas y calizas hasta una temperatura de 1450-1500º C por reacción en estado fundente. Para esta reacción se deben premachacar y homogeneizar las materias primas extraídas de la cantera. Son dosificadas en el horno con unas proporciones tales que cumplan con unas relación de óxidos tales que permitan formar las fases anhidras del Clínker C3S, C2S, C3A y C4AF. De la hidratación de las fases se obtiene el gel CSH que es el que proporciona al cemento de sus propiedades. Existe una norma (UNE-EN 197-1) que establece la composición, especificaciones y tipos de cementos que se fabrican en España. La tendencia actual en la fabricación del cemento pasa por el uso de cementos con mayores contenidos de adiciones (cal, puzolana, cenizas volantes, humo de sílice,…) con el objeto de obtener cementos más sostenibles. Otros componentes que influyen en las características de los morteros son: - Áridos. En el desarrollo de los morteros se suelen usar naturales, bien calizos o silícicos. Hacen la función de relleno y de cohesionantes de la matriz cementante. Deben ser inertes - Aditivos. Son aquellos componentes del mortero que son dosificados en una proporción menor al 5%. Los más usados son los superplastificantes por su acción de reductores de agua que revierte en una mayor durabilidad del mortero. Una vez analizada la composición de los morteros, la mejora tecnológica de los mismos está orientada al aumento de la durabilidad de su vida en obra. La durabilidad se define como la capacidad que éste tiene de resistir a la acción del ambiente, ataques químicos, físicos, biológicos o cualquier proceso que tienda a su destrucción. Estos procesos dependen de factores tales como la porosidad del hormigón y de la exposición al ambiente. En cuanto a la porosidad hay que tener en cuenta la distribución de macroporos, mesoporos y microporos de la estructura del hormigón, ya que no todos son susceptibles de que se produzca el transporte de agentes deteriorantes, provocando tensiones internas en las paredes de los mismos y destruyendo la matriz cementante Por otro lado los procesos de deterioro están relacionados con la acción del agua bien como agente directo o como vehículo de transporte del agente deteriorante. Un ambiente que resulta muy agresivo para los hormigones es el marino. En este caso los procesos de deterioro están relacionados con la presencia de cloruros y de sulfatos tanto en el agua de mar como en la atmosfera que en combinación con el CO2 y O2 forman la sal de Friedel. El deterioro de las estructuras en ambientes marinos se produce por la debilitación de la matriz cementante y posterior corrosión de las armaduras que provocan un aumento de volumen en el interior y rotura de la matriz cementante por tensiones capilares. Otras reacciones que pueden producir estos efectos son árido-álcali y difusión de iones cloruro. La durabilidad de un hormigón también depende del tipo de cemento y su composición química (cementos con altos contenidos de adición son más resistentes), relación agua/cemento y contenido de cemento. La Norma UNE-EN 1504 que consta de 10 partes, define los productos para la protección y reparación de estructuras de hormigón, el control de calidad de los productos, propiedades físico-químicas y durables que deben cumplir. En esta Norma se referencian otras 65 normas que ofrecen los métodos de ensayo para la evaluación de los sistemas de reparación. En la segunda parte de esta Tesis se hizo un diseño de experimentos con diferentes morteros poliméricos (con concentraciones de polímero entre 0 y 25%), tomando como referencia un mortero control sin polímero, y se estudiaron sus propiedades físico-químicas, mecánicas y durables. Para mortero con baja proporción de polímero se recurre a sistemas monocomponentes y para concentraciones altas bicomponentes en la que el polímero está en dispersión acuosa. Las propiedades mecánicas medidas fueron: resistencia a compresión, resistencia a flexión, módulo de elasticidad, adherencia por tracción directa y expansión-retracción, todas ellas bajo normas UNE. Como ensayos de caracterización de la durabilidad: absorción capilar, resistencia a carbonatación y adherencia a tracción después de ciclos hielo-deshielo. El objeto de este estudio es seleccionar el mortero con mejor resultado general para posteriormente hacer una comparativa entre un mortero con polímero (cantidad optimizada) y un mortero sin polímero. Para seleccionar esa cantidad óptima de polímero a usar se han tenido en cuenta los siguientes criterios: el mortero debe tener una clasificación R4 en cuanto a prestaciones mecánicas al igual que para evaluar sus propiedades durables frente a los ciclos realizados, siempre teniendo en cuenta que la adición de polímero no puede ser elevada para hacer el mortero competitivo. De este estudio se obtuvieron las siguientes conclusiones generales: - Un mortero normalizado no cumple con propiedades para ser clasificado como R3 o R4. - Sin necesidad de polímero se puede obtener un mortero que cumpliría con R4 para gran parte de las características medidas - Es necesario usar relaciones a:c< 0.5 para conseguir morteros R4, - La adición de polímero mejora siempre la adherencia, abrasión, absorción capilar y resistencia a carbonatación - Las diferentes proporciones de polímero usadas siempre suponen una mejora tecnológica en propiedades mecánicas y de durabilidad. - El polímero no influye sobre la expansión y retracción del mortero. - La adherencia se mejora notablemente con el uso del polímero. - La presencia de polímero en los morteros mejoran las propiedades relacionadas con la acción del agua, por aumento del poder cementante y por lo tanto de la cohesión. El poder cementante disminuye la porosidad. Como consecuencia final de este estudio se determinó que la cantidad óptima de polímero para la segunda parte del estudio es 2.0-3.5%. La tercera parte consistió en el estudio comparativo de dos morteros: uno sin polímero (mortero A) y otro con la cantidad optimizada de polímero, concluida en la parte anterior (mortero B). Una vez definido el porcentaje de polímeros que mejor se adapta a los resultados, se plantea un nuevo esqueleto granular mejorado, tomando una nueva dosificación de tamaños de áridos, tanto para el mortero de referencia, como para el mortero con polímeros, y se procede a realizar los ensayos para su caracterización física, microestructural y de durabilidad, realizándose, además de los ensayos de la parte 1, mediciones de las propiedades microestructurales que se estudiaron a través de las técnicas de porosimetría de mercurio y microscopia electrónica de barrido (SEM); así como propiedades del mortero en estado fresco (consistencia, contenido de aire ocluido y tiempo final de fraguado). El uso del polímero frente a la no incorporación en la formulación del mortero, proporcionó al mismo de las siguientes ventajas: - Respecto a sus propiedades en estado fresco: El mortero B presentó mayor consistencia y menor cantidad de aire ocluido lo cual hace un mortero más trabajable y más dúctil al igual que más resistente porque al endurecer dejará menos huecos en su estructura interna y aumentará su durabilidad. Al tener también mayor tiempo de fraguado, pero no excesivo permite que la manejabilidad para puesta en obra sea mayor, - Respecto a sus propiedades mecánicas: Destacar la mejora en la adherencia. Es una de las principales propiedades que confiere el polímero a los morteros. Esta mayor adherencia revierte en una mejora de la adherencia al soporte, minimización de las posibles reacciones en la interfase hormigón-mortero y por lo tanto un aumento en la durabilidad de la reparación ejecutada con el mortero y por consecuencia del hormigón. - Respecto a propiedades microestructurales: la porosidad del mortero con polímero es menor y menor tamaño de poro critico susceptible de ser atacado por agentes externos causantes de deterioro. De los datos obtenidos por SEM no se observaron grandes diferencias - En cuanto a abrasión y absorción capilar el mortero B presentó mejor comportamiento como consecuencia de su menor porosidad y su estructura microscópica. - Por último el comportamiento frente al ataque de sulfatos y agua de mar, así como al frente de carbonatación, fue más resistente en el mortero con polímero por su menor permeabilidad y su menor porosidad. Para completar el estudio de esta tesis, y debido a la gran importancia que están tomando en la actualidad factores como la sostenibilidad se ha realizado un análisis de ciclo de vida de los dos morteros objeto de estudio de la segunda parte experimental.In recent years, the extended use of repair materials for buildings and structures made the development of repair mortars more and more technical. In the development of these mortars by producers, the use of polymers in the formulations is a key point, because sometimes this use is not justified when looking to the performance/price/application as a whole. This thesis is an exhaustive study to justify the use of these mortars as a response to the current growing demand for structural repair. The thesis is classified in three parts:The first part is the study of the state of the art of mortars and their constituents.In ancient times, widely used mortars were based on lime and gypsum. The Greeks and Romans developed the concept of lime mortars, introducing components such as pozzolans, hydraulic limes and marble dust as aggregates, giving very similar concrete mortars to the ones used currently. In the middle Age and Renaissance, the technology developed by the Romans was lost, due to the extensive use of stone in the civil, religious and defensive constructions. It was not until the 19th century, when J. Aspdin discovered the current cement as the main hydraulic compound. Finally in the 20th century, with the appearance of molecules such as styrene, melanin, vinyl chloride and polyester, the industry began to develop polymers which were added to the binder to form special "composites".The use of polymers in cementitious matrixes give properties to the mortar such as adhesion, Currently, the result of the polymer synthesis (polivynilacetate, styrene-butadiene, vynilacrylic and epoxy resins) is that mortars have increased resistance to water attack and therefore, they increase their durability since all reactions of deterioration are minimised (ice, humidity, biological attack,...). In the present study the polymer used was redispersible polymer powder. These polymers are encapsulated and when in contact with water, they are released from the capsule forming a gel.In the repair mortars, the only hydraulic compound is the cement and nowadays, this is the main constituent of building materials. The current trend is centered in the use of higher contents of additions (lime, pozzolana, fly ash, silica, silica fume...) in order to obtain more sustainable cements. Once the composition of mortars is analyzed, the technological improvement is centred in increasing the durability of the working life. Durability is defined as the ability to resist the action of the environment, chemical, physical, and biological attacks or any process that tends to its destruction. These processes depend on factors such as the concrete porosity and the environmental exposure. In terms of porosity, it be considered, the distribution of Macropores and mesopores and pores of the concrete structure, since not all of them are capable of causing the transportation of damaging agents, causing internal stresses on the same walls and destroying the cementing matrix.In general, deterioration processes are related to the action of water, either as direct agent or as a transport vehicle. Concrete durability also depends on the type of cement and its chemical composition (cement with high addition amounts are more resistant), water/cement ratio and cement content. The standard UNE-EN 1504 consists of 10 parts and defines the products for the protection and repair of concrete, the quality control of products, physical-chemical properties and durability. Other 65 standards that provide the test methods for the evaluation of repair systems are referenced in this standard. In the second part of this thesis there is a design of experiments with different polymer mortars (with concentrations of polymer between 0 and 25%), taking a control mortar without polymer as a reference and its physico-chemical, mechanical and durable properties were studied. For mortars with low proportion of polymer, 1 component systems are used (powder polymer) and for high polymer concentrations, water dispersion polymers are used. The mechanical properties measured were: compressive strength, flexural strength, modulus of elasticity, adhesion by direct traction and expansion-shrinkage, all of them under standards UNE. As a characterization of the durability, following tests are carried out: capillary absorption, resistance to carbonation and pull out adhesion after freeze-thaw cycles. The target of this study is to select the best mortar to make a comparison between mortars with polymer (optimized amount) and mortars without polymer. To select the optimum amount of polymer the following criteria have been considered: the mortar must have a classification R4 in terms of mechanical performance as well as in durability properties against the performed cycles, always bearing in mind that the addition of polymer cannot be too high to make the mortar competitive in price. The following general conclusions were obtained from this study: - A standard mortar does not fulfill the properties to be classified as R3 or R4 - Without polymer, a mortar may fulfill R4 for most of the measured characteristics. - It is necessary to use relations w/c ratio < 0.5 to get R4 mortars - The addition of polymer always improves adhesion, abrasion, capillary absorption and carbonation resistance - The different proportions of polymer used always improve the mechanical properties and durability. - The polymer has no influence on the expansion and shrinkage of the mortar - Adhesion is improved significantly with the use of polymer. - The presence of polymer in mortars improves the properties related to the action of the water, by the increase of the cement power and therefore the cohesion. The cementitious properties decrease the porosity. As final result of this study, it was determined that the optimum amount of polymer for the second part of the study is 2.0 - 3.5%. The third part is the comparative study between two mortars: one without polymer (A mortar) and another with the optimized amount of polymer, completed in the previous part (mortar B). Once the percentage of polymer is defined, a new granular skeleton is defined, with a new dosing of aggregate sizes, for both the reference mortar, the mortar with polymers, and the tests for physical, microstructural characterization and durability, are performed, as well as trials of part 1, measurements of the microstructural properties that were studied by scanning electron microscopy (SEM) and mercury porosimetry techniques; as well as properties of the mortar in fresh State (consistency, content of entrained air and final setting time). The use of polymer versus non polymer mortar, provided the following advantages: - In fresh state: mortar with polymer presented higher consistency and least amount of entrained air, which makes a mortar more workable and more ductile as well as more resistant because hardening will leave fewer gaps in its internal structure and increase its durability. Also allow it allows a better workability because of the longer (not excessive) setting time. - Regarding the mechanical properties: improvement in adhesion. It is one of the main properties which give the polymer to mortars. This higher adhesion results in an improvement of adhesion to the substrate, minimization of possible reactions at the concrete-mortar interface and therefore an increase in the durability of the repair carried out with mortar and concrete. - Respect to microstructural properties: the porosity of mortar with polymer is less and with smaller pore size, critical to be attacked by external agents causing deterioration. No major differences were observed from the data obtained by SEM - In terms of abrasion and capillary absorption, polymer mortar presented better performance as a result of its lower porosity and its microscopic structure. - Finally behavior against attack by sulfates and seawater, as well as to carbonation, was better in the mortar with polymer because of its lower permeability and its lower porosity. To complete the study, due to the great importance of sustainability for future market facts, the life cycle of the two mortars studied was analysed.
Resumo:
En la actualidad más del 80 % de la energía eléctrica empleada en el mundo se obtiene a partir de combustibles de origen fósil. Sin embargo, estas fuentes de energía (gas natural, el carbón o el petróleo) presentan problemas de emisión de cantidades importantes de contaminantes a la atmósfera como CO, NOx y SOx. Estas emisiones están llevando a intentar reducir las emisiones enfocando el consumo a la utilización de fuentes de energía renovable, menos dañinas para el ambiente como la energía solar, la eólica, la biomasa, etc. En los almacenamientos de biomasa, ésta es potencialmente capaz de absorber oxígeno produciendo reacciones exotérmicas de oxidación. Si el calor producido en estas reacciones no se disipa adecuadamente, provoca un auto-calentamiento de la materia orgánica que puede ser causa de descomposición e inflamación. En el ámbito de la posible auto-combustión en el almacenamiento y manipulación de las biomasas existen diversos factores que influyen en la susceptibilidad térmica de las biomasas, es decir, en su tendencia a la oxidación y posterior inflamación de la materia. Esta Tesis Doctoral pretende evaluar el riesgo de auto-combustión de las biomasas almacenadas, para su uso en procesos de gasificación. En este estudio se ha trabajado con biomasas de origen agrícola, forestal y residual empleadas en procesos industriales de gasificación con distinta composición química. Los métodos empleados se han basado en técnicas clásicas de termogravimetría, calorimetría diferencial de barrido, análisis de composición y morfología. Con estos ensayos se pretende definir un rango de temperaturas lo más estrecho posible donde las muestras presentan mayor susceptibilidad a un calentamiento espontáneo que puede derivar en auto-combustión, en función de las distintas propiedades estudiadas de las biomasas, para poder servir así de herramienta de evaluación y análisis del riesgo de autocombustión. Como conclusión se muestran umbrales y valores que relacionan las propiedades físicas y químicas de las biomasas estudiadas en su auto-combustión, analizando la influencia de los procesos de preparación de las biomasas sobre las variables que caracterizan su susceptibilidad térmica.
Resumo:
Impulse response measurements are carried out in laboratory facilities at Ecophon, Sweden, simulating a typical classroom with varying suspended ceilings and furniture arrangements. The aim of these measurements is to build a reliable database of acoustical parameters in order to have enough data to validate the new acoustical simulation tool which is under development at Danmarks Tekniske Universitet, Denmark. The different classroom configurations are also simulated using ODEON Room Acoustics software and are compared with the measurements. The resulting information is essential for the development of the acoustical simulation tool because it will enable the elimination of prediction errors, especially those below the Schroeder frequency. The surface impedance of the materials used during the experiments is measured in a Kundt’s tube at DTU, in order to characterize them as accurately as possible at the time of incorporation into the model. A brief study about porous materials frequently used in classrooms is presented. Wide diferences are found between methods of measuring absorption coefficients and local or extended assumptions. RESUMEN. Mediciones de Respuesta al Impulso son llevadas a cabo en las instalaciones con que cuenta la empresa Ecophon en su sede central de Hyllinge, Suecia. En una de sus salas, se recrean diferentes configuraciones típicas de aula, variando la altura y composición de los techos, colocando paneles absorbentes de pared e incluyendo diferentes elementos mobiliario como pupitres y sillas. Tres diferentes materiales absorbentes porosos de 15, 20 y 50 mm de espesor, son utilizados como techos suspendidos así como uno de 40 mm es utilizado en forma de paneles. Todas las medidas son realizadas de acuerdo al estándar ISO 3382, utilizando 12 combinaciones de fuente sonora y micrófono para cada configuración, así como respetando las distancias entre ellos establecidas en la norma. El objetivo de toda esta serie de medidas es crear una base de datos de parámetros acústicos tales como tiempo de reverberación, índice de claridad o índice de inteligibilidad medidos bajo diferentes configuraciones con el objeto de que éstos sirvan de referencia para la validación de una nueva herramienta de simulación acústica llamada PARISM que está siendo desarrollada en este momento en la Danmarks Tekniske Universitet de Copenhague. Esta herramienta tendrá en cuenta la fase, tanto en propagación como en reflexión, así como el comportamiento angulodependiente de los materiales y la difusión producida por las superficies. Las diferentes configuraciones de aula recreadas en Hyllinge, son simuladas también utilizando el software de simulación acústica ODEON con el fin de establecer comparaciones entre medidas y simulaciones para discutir la validez de estas ultimas. La información resultante es esencial para el desarrollo de la nueva herramienta de simulación, especialmente los resultados por debajo de la frecuencia de corte de Schroeder, donde ODEON no produce predicciones precisas debido a que no tiene en cuenta la fase ni en propagación ni en reflexión. La impedancia de superficie de los materiales utilizados en los experimentos, todos ellos fabricados por la propia empresa Ecophon, es medida utilizando un tubo de Kundt. De este modo, los coeficientes de absorción de incidencia aleatoria son calculados e incorporados a las simulaciones. Además, estos coeficientes también son estimados mediante el modelo empírico de Miki, con el fin de ser comparados con los obtenidos mediante otros métodos. Un breve estudio comparativo entre coeficientes de absorción obtenidos por diversos métodos y el efecto producido por los materiales absorbentes sobre los tiempos de reverberación es realizado. Grandes diferencias son encontradas, especialmente entre los métodos de tubo de impedancia y cámara reverberante. La elección de reacción local o extendida a la hora de estimar los coeficientes también produce grandes diferencias entre los resultados. Pese a que la opción de absorción angular es activada en todas las simulaciones realizadas con ODEON para todos los materiales, los resultados son mucho más imprecisos de lo esperado a la hora de compararlos con los valores extraidos de las medidas de Respuesta al Impulso. En salas como las recreadas, donde una superficie es mucho más absorbente que las demás, las ondas sonoras tienden a incidir en la superficie altamente absorbente desde ángulos de incidencia muy pequeños. En este rango de ángulos de incidencia, las absorciones que presentan los materiales absorbentes porosos estudiados son muy pequeñas, pese a que sus valores de coeficientes de absorción de incidencia aleatoria son altos. Dado que como descriptor de las superficies en ODEON se utiliza el coeficiente de absorción de incidencia aleatoria, los tiempos de reverberación son siempre subestimados en las simulaciones, incluso con la opción de absorción angular activada. Esto es debido a que el algoritmo que ejecuta esta opción, solo tiene en cuenta el tamaño y posición de las superficies, mientras que el comportamiento angulodependiente es diferente para cada material. Es importante destacar, que cuando la opción es activada, los tiempos simulados se asemejan más a los medidos, por lo tanto esta característica sí produce ciertas mejoras pese a no modelar la angulodependencia perfectamente. Por otra parte, ODEON tampoco tiene en cuenta el fenómeno de difracción, ni acepta longitudes de superficie menores de una longitud de onda a frecuencias medias (30 cm) por lo que en las configuraciones que incluyen absorbentes de pared, los cuales presentan un grosor de 4 cm que no puede ser modelado, los tiempos de reverberación son siempre sobreestimados. Para evitar esta sobreestimación, diferentes métodos de correción son analizados. Todas estas deficiencias encontradas en el software ODEON, resaltan la necesidad de desarrollar cuanto antes la herramienta de simulación acústica PARISM, la cual será capaz de predecir el comportamiento del campo sonoro de manera precisa en este tipo de salas, sin incrementar excesivamente el tiempo de cálculo. En cuanto a los parámetros extraidos de las mediciones de Respuesta al Impulso, bajo ninguna de las configuraciones recreadas los tiempos de reverberación cumplen con las condiciones establecidas por la regulación danesa en materia de edificación. Es importante destacar que los experimentos son llevados a cabo en un edificio construido para uso industrial, en el que, pese a contar con un buen aislamiento acústico, los niveles de ruido pueden ser superiores a los existentes dentro del edificio donde finalmente se ubique el aula. Además, aunque algunos elementos de mobiliario como pupitres y sillas son incluidos, en una configuración real de aula normalmente aparecerían algunos otros como taquillas, que no solo presentarían una mayor absorción, sino que también dispersarían las ondas incidentes produciendo un mejor funcionamiento del techo absorbente. Esto es debido a que las ondas incidirían en el techo desde una mayor variedad de ángulos, y no solo desde ángulos cercanos a la dirección paralela al techo, para los cuales los materiales presentan absorciones muy bajas o casi nulas. En relación a los otros parámetros como índice de claridad o índice de inteligibilidad extraidos de las medidas, no se han podido extraer conclusiones válidas dada la falta de regulación existente. Sin embargo, el efecto que produce sobre ellos la inclusión de techos, paneles de pared y mobiliario sí es analizada, concluyendo que, como era de esperar, los mejores resultados son obtenidos cuando todos los elementos están presentes en la sala en el mismo momento.