1000 resultados para COMPLEJIDAD COMPUTACIONAL
Resumo:
El objetivo de esta Tesis es presentar un método eficiente para la evaluación de sistemas multi-cuerpo con elementos flexibles con pequeñas deformaciones, basado en métodos topológicos para la simulación de sistemas tan complejos como los que se utilizan en la práctica y en tiempo real o próximo al real. Se ha puesto un especial énfasis en la resolución eficiente de aquellos aspectos que conllevan mayor coste computacional, tales como la evaluación de las ecuaciones dinámicas y el cálculo de los términos de inercia. Las ecuaciones dinámicas se establecen en función de las variables independientes del sistema, y la integración de las mismas se realiza mediante formulaciones implícitas de index-3. Esta Tesis se articula en seis Capítulos. En el Capítulo 1 se realiza una revisión bibliográfica de la simulación de sistemas flexibles y los métodos más relevantes de integración de las ecuaciones diferenciales del movimiento. Asimismo, se presentan los objetivos de esta Tesis. En el Capítulo 2 se presenta un método semi-recursivo para la evaluación de las ecuaciones de los sistemas multi-cuerpo con elementos flexibles basado en formulaciones topológicas y síntesis modal. Esta Tesis determina la posición de cada punto del cuerpo flexible en función de un sistema de referencia flotante que se mueve con dicho cuerpo y de las amplitudes de ciertos modos de deformación calculados a partir de un mallado obtenido mediante el Método de Elementos Finitos. Se presta especial atención en las condiciones de contorno que se han de tener en cuenta a la hora de establecer las variables que definen la deformación del cuerpo flexible. El Capítulo 3 se centra en la evaluación de los términos de inercia de los sistemas flexibles que generalmente conllevan un alto coste computacional. Se presenta un método que permite el cálculo de dichos términos basado en el uso de 24 matrices constantes que pueden ser calculadas previamente al proceso de integración. Estas matrices permiten evaluar la matriz de masas y el vector de fuerzas de inercia dependientes de la velocidad sin que sea necesario evaluar la posición deformada de todos los puntos del cuerpo flexible. Se realiza un análisis pormenorizado de dichas matrices con el objetivo de optimizar su cálculo estableciendo aproximaciones que permitan reducir el número de dichos términos y optimizar aún más su evaluación. Se analizan dos posibles simplificaciones: la primera utiliza una discretización no-consistente basada en elementos finitos en los que se definen únicamente los desplazamientos axiales de los nodos; en la segunda propuesta se hace uso de una matriz de masas concentradas (Lumped Mass). Basándose en la formulación presentada, el Capítulo 4 aborda la integración eficiente de las ecuaciones dinámicas. Se presenta un método iterativo para la integración con fórmulas de index-3 basado en la proyección de las ecuaciones dinámicas según las variables independientes del sistema multi-cuerpo. El cálculo del residuo del sistema de ecuaciones no lineales que se ha de resolver de modo iterativo se realiza mediante un proceso recursivo muy eficiente que aprovecha la estructura topológica del sistema. Se analizan tres formas de evaluar la matriz tangente del citado sistema no lineal: evaluación aproximada, numérica y recursiva. El método de integración presentado permite el uso de distintas fórmulas. En esta Tesis se analizan la Regla Trapezoidal, la fórmula BDF de segundo orden y un método híbrido TR-BDF2. Para este último caso se presenta un algoritmo de paso variable. En el Capítulo 5 plantea la implementación del método propuesto en un programa general de simulación de mecanismos que permita la resolución de cualquier sistema multi-cuerpo definiéndolo mediante un fichero de datos. La implementación de este programa se ha realizado tanto en C++ como en Java. Se muestran los resultados de las formulaciones presentadas en esta Tesis mediante la simulación de cuatro ejemplos de distinta complejidad. Mediante análisis concretos se comparan la formulación presentada con otras existentes. También se analiza el efecto del lenguaje de programación utilizado en la implementación y los efectos de las posibles simplificaciones planteadas. Por último, el Capítulo 6 resume las principales conclusiones alcanzadas en la Tesis y las futuras líneas de investigación que con ella se abren. ABSTRACT This Thesis presents an efficient method for solving the forward dynamics of a multi-body sys-tem formed by rigid and flexible bodies with small strains for real-time simulation of real-life models. It is based on topological formulations. The presented work focuses on the efficient solution of the most time-consuming tasks of the simulation process, such as the numerical integration of the motion differential equations and in particular the evaluation of the inertia terms corresponding to the flexible bodies. The dynamic equations are formulated in terms of independent variables of the muti-body system, and they are integrated by means of implicit index-3 formulae. The Thesis is arranged in six chapters. Chapter 1 presents a review of the most relevant and recent contributions related to the modelization of flexible multi-body systems and the integration of the corresponding dynamic equations. The main objectives of the Thesis are also presented in detail. Chapter 2 presents a semi-recursive method for solving the equations of a multi-body system with flexible bodies based on topological formulations and modal synthesis. This Thesis uses the floating frame approach and the modal amplitudes to define the position of any point at the flexible body. These modal deformed shapes are obtained by means of the Finite Element Method. Particular attention has been taken to the boundary conditions used to define the deformation of the flexible bodies. Chapter 3 focuses on the evaluation of the inertia terms, which is usually a very time-consuming task. A new method based on the use of 24 constant matrices is presented. These matrices are evaluated during the set-up step, before the integration process. They allow the calculation of the inertia terms in terms of the position and orientation of the local coordinate system and the deformation variables, and there is no need to evaluate the position and velocities of all the nodes of the FEM mesh. A deep analysis of the inertia terms is performed in order to optimize the evaluation process, reducing both the terms used and the number of arithmetic operations. Two possible simplifications are presented: the first one uses a non-consistent approach in order to define the inertia terms respect to the Cartesian coordinates of the FEM mesh, rejecting those corresponding to the angular rotations; the second approach makes use of lumped mass matrices. Based on the previously presented formulation, Chapter 4 is focused on the numerical integration of the motion differential equations. A new predictor-corrector method based on index-3 formulae and on the use of multi-body independent variables is presented. The evaluation of the dynamic equations in a new time step needs the solution of a set on nonlinear equations by a Newton-Raphson iterative process. The computation of the corresponding residual vector is performed efficiently by taking advantage of the system’s topological structure. Three methods to compute the tangent matrix are presented: an approximated evaluation that considers only the most relevant terms, a numerical approach based on finite differences and a recursive method that uses the topological structure. The method presented for integrating the dynamic equations can use a variety of integration formulae. This Thesis analyses the use of the trapezoidal rule, the 2nd order BDF formula and the hybrid TR-BDF2 method. A variable-time step strategy is presented for the last one. Chapter 5 describes the implementation of the proposed method in a general purpose pro-gram for solving any multibody defined by a data file. This program is implemented both in C++ and Java. Four examples are used to check the validity of the formulation and to compare this method with other methods commonly used to solve the dynamic equations of multi-body systems containing flexible bodies. The efficiency of the programming methodology used and the effect of the possible simplifications proposed are also analyzed. Chapter 6 summarizes the main Conclusions obtained in this Thesis and the new lines of research that have been opened.
Resumo:
Los sistemas empotrados han sido concebidos tradicionalmente como sistemas de procesamiento específicos que realizan una tarea fija durante toda su vida útil. Para cumplir con requisitos estrictos de coste, tamaño y peso, el equipo de diseño debe optimizar su funcionamiento para condiciones muy específicas. Sin embargo, la demanda de mayor versatilidad, un funcionamiento más inteligente y, en definitiva, una mayor capacidad de procesamiento comenzaron a chocar con estas limitaciones, agravado por la incertidumbre asociada a entornos de operación cada vez más dinámicos donde comenzaban a ser desplegados progresivamente. Esto trajo como resultado una necesidad creciente de que los sistemas pudieran responder por si solos a eventos inesperados en tiempo diseño tales como: cambios en las características de los datos de entrada y el entorno del sistema en general; cambios en la propia plataforma de cómputo, por ejemplo debido a fallos o defectos de fabricación; y cambios en las propias especificaciones funcionales causados por unos objetivos del sistema dinámicos y cambiantes. Como consecuencia, la complejidad del sistema aumenta, pero a cambio se habilita progresivamente una capacidad de adaptación autónoma sin intervención humana a lo largo de la vida útil, permitiendo que tomen sus propias decisiones en tiempo de ejecución. Éstos sistemas se conocen, en general, como sistemas auto-adaptativos y tienen, entre otras características, las de auto-configuración, auto-optimización y auto-reparación. Típicamente, la parte soft de un sistema es mayoritariamente la única utilizada para proporcionar algunas capacidades de adaptación a un sistema. Sin embargo, la proporción rendimiento/potencia en dispositivos software como microprocesadores en muchas ocasiones no es adecuada para sistemas empotrados. En este escenario, el aumento resultante en la complejidad de las aplicaciones está siendo abordado parcialmente mediante un aumento en la complejidad de los dispositivos en forma de multi/many-cores; pero desafortunadamente, esto hace que el consumo de potencia también aumente. Además, la mejora en metodologías de diseño no ha sido acorde como para poder utilizar toda la capacidad de cómputo disponible proporcionada por los núcleos. Por todo ello, no se están satisfaciendo adecuadamente las demandas de cómputo que imponen las nuevas aplicaciones. La solución tradicional para mejorar la proporción rendimiento/potencia ha sido el cambio a unas especificaciones hardware, principalmente usando ASICs. Sin embargo, los costes de un ASIC son altamente prohibitivos excepto en algunos casos de producción en masa y además la naturaleza estática de su estructura complica la solución a las necesidades de adaptación. Los avances en tecnologías de fabricación han hecho que la FPGA, una vez lenta y pequeña, usada como glue logic en sistemas mayores, haya crecido hasta convertirse en un dispositivo de cómputo reconfigurable de gran potencia, con una cantidad enorme de recursos lógicos computacionales y cores hardware empotrados de procesamiento de señal y de propósito general. Sus capacidades de reconfiguración han permitido combinar la flexibilidad propia del software con el rendimiento del procesamiento en hardware, lo que tiene la potencialidad de provocar un cambio de paradigma en arquitectura de computadores, pues el hardware no puede ya ser considerado más como estático. El motivo es que como en el caso de las FPGAs basadas en tecnología SRAM, la reconfiguración parcial dinámica (DPR, Dynamic Partial Reconfiguration) es posible. Esto significa que se puede modificar (reconfigurar) un subconjunto de los recursos computacionales en tiempo de ejecución mientras el resto permanecen activos. Además, este proceso de reconfiguración puede ser ejecutado internamente por el propio dispositivo. El avance tecnológico en dispositivos hardware reconfigurables se encuentra recogido bajo el campo conocido como Computación Reconfigurable (RC, Reconfigurable Computing). Uno de los campos de aplicación más exóticos y menos convencionales que ha posibilitado la computación reconfigurable es el conocido como Hardware Evolutivo (EHW, Evolvable Hardware), en el cual se encuentra enmarcada esta tesis. La idea principal del concepto consiste en convertir hardware que es adaptable a través de reconfiguración en una entidad evolutiva sujeta a las fuerzas de un proceso evolutivo inspirado en el de las especies biológicas naturales, que guía la dirección del cambio. Es una aplicación más del campo de la Computación Evolutiva (EC, Evolutionary Computation), que comprende una serie de algoritmos de optimización global conocidos como Algoritmos Evolutivos (EA, Evolutionary Algorithms), y que son considerados como algoritmos universales de resolución de problemas. En analogía al proceso biológico de la evolución, en el hardware evolutivo el sujeto de la evolución es una población de circuitos que intenta adaptarse a su entorno mediante una adecuación progresiva generación tras generación. Los individuos pasan a ser configuraciones de circuitos en forma de bitstreams caracterizados por descripciones de circuitos reconfigurables. Seleccionando aquellos que se comportan mejor, es decir, que tienen una mejor adecuación (o fitness) después de ser evaluados, y usándolos como padres de la siguiente generación, el algoritmo evolutivo crea una nueva población hija usando operadores genéticos como la mutación y la recombinación. Según se van sucediendo generaciones, se espera que la población en conjunto se aproxime a la solución óptima al problema de encontrar una configuración del circuito adecuada que satisfaga las especificaciones. El estado de la tecnología de reconfiguración después de que la familia de FPGAs XC6200 de Xilinx fuera retirada y reemplazada por las familias Virtex a finales de los 90, supuso un gran obstáculo para el avance en hardware evolutivo; formatos de bitstream cerrados (no conocidos públicamente); dependencia de herramientas del fabricante con soporte limitado de DPR; una velocidad de reconfiguración lenta; y el hecho de que modificaciones aleatorias del bitstream pudieran resultar peligrosas para la integridad del dispositivo, son algunas de estas razones. Sin embargo, una propuesta a principios de los años 2000 permitió mantener la investigación en el campo mientras la tecnología de DPR continuaba madurando, el Circuito Virtual Reconfigurable (VRC, Virtual Reconfigurable Circuit). En esencia, un VRC en una FPGA es una capa virtual que actúa como un circuito reconfigurable de aplicación específica sobre la estructura nativa de la FPGA que reduce la complejidad del proceso reconfiguración y aumenta su velocidad (comparada con la reconfiguración nativa). Es un array de nodos computacionales especificados usando descripciones HDL estándar que define recursos reconfigurables ad-hoc: multiplexores de rutado y un conjunto de elementos de procesamiento configurables, cada uno de los cuales tiene implementadas todas las funciones requeridas, que pueden seleccionarse a través de multiplexores tal y como ocurre en una ALU de un microprocesador. Un registro grande actúa como memoria de configuración, por lo que la reconfiguración del VRC es muy rápida ya que tan sólo implica la escritura de este registro, el cual controla las señales de selección del conjunto de multiplexores. Sin embargo, esta capa virtual provoca: un incremento de área debido a la implementación simultánea de cada función en cada nodo del array más los multiplexores y un aumento del retardo debido a los multiplexores, reduciendo la frecuencia de funcionamiento máxima. La naturaleza del hardware evolutivo, capaz de optimizar su propio comportamiento computacional, le convierten en un buen candidato para avanzar en la investigación sobre sistemas auto-adaptativos. Combinar un sustrato de cómputo auto-reconfigurable capaz de ser modificado dinámicamente en tiempo de ejecución con un algoritmo empotrado que proporcione una dirección de cambio, puede ayudar a satisfacer los requisitos de adaptación autónoma de sistemas empotrados basados en FPGA. La propuesta principal de esta tesis está por tanto dirigida a contribuir a la auto-adaptación del hardware de procesamiento de sistemas empotrados basados en FPGA mediante hardware evolutivo. Esto se ha abordado considerando que el comportamiento computacional de un sistema puede ser modificado cambiando cualquiera de sus dos partes constitutivas: una estructura hard subyacente y un conjunto de parámetros soft. De esta distinción, se derivan dos lineas de trabajo. Por un lado, auto-adaptación paramétrica, y por otro auto-adaptación estructural. El objetivo perseguido en el caso de la auto-adaptación paramétrica es la implementación de técnicas de optimización evolutiva complejas en sistemas empotrados con recursos limitados para la adaptación paramétrica online de circuitos de procesamiento de señal. La aplicación seleccionada como prueba de concepto es la optimización para tipos muy específicos de imágenes de los coeficientes de los filtros de transformadas wavelet discretas (DWT, DiscreteWavelet Transform), orientada a la compresión de imágenes. Por tanto, el objetivo requerido de la evolución es una compresión adaptativa y más eficiente comparada con los procedimientos estándar. El principal reto radica en reducir la necesidad de recursos de supercomputación para el proceso de optimización propuesto en trabajos previos, de modo que se adecúe para la ejecución en sistemas empotrados. En cuanto a la auto-adaptación estructural, el objetivo de la tesis es la implementación de circuitos auto-adaptativos en sistemas evolutivos basados en FPGA mediante un uso eficiente de sus capacidades de reconfiguración nativas. En este caso, la prueba de concepto es la evolución de tareas de procesamiento de imagen tales como el filtrado de tipos desconocidos y cambiantes de ruido y la detección de bordes en la imagen. En general, el objetivo es la evolución en tiempo de ejecución de tareas de procesamiento de imagen desconocidas en tiempo de diseño (dentro de un cierto grado de complejidad). En este caso, el objetivo de la propuesta es la incorporación de DPR en EHW para evolucionar la arquitectura de un array sistólico adaptable mediante reconfiguración cuya capacidad de evolución no había sido estudiada previamente. Para conseguir los dos objetivos mencionados, esta tesis propone originalmente una plataforma evolutiva que integra un motor de adaptación (AE, Adaptation Engine), un motor de reconfiguración (RE, Reconfiguration Engine) y un motor computacional (CE, Computing Engine) adaptable. El el caso de adaptación paramétrica, la plataforma propuesta está caracterizada por: • un CE caracterizado por un núcleo de procesamiento hardware de DWT adaptable mediante registros reconfigurables que contienen los coeficientes de los filtros wavelet • un algoritmo evolutivo como AE que busca filtros wavelet candidatos a través de un proceso de optimización paramétrica desarrollado específicamente para sistemas caracterizados por recursos de procesamiento limitados • un nuevo operador de mutación simplificado para el algoritmo evolutivo utilizado, que junto con un mecanismo de evaluación rápida de filtros wavelet candidatos derivado de la literatura actual, asegura la viabilidad de la búsqueda evolutiva asociada a la adaptación de wavelets. En el caso de adaptación estructural, la plataforma propuesta toma la forma de: • un CE basado en una plantilla de array sistólico reconfigurable de 2 dimensiones compuesto de nodos de procesamiento reconfigurables • un algoritmo evolutivo como AE que busca configuraciones candidatas del array usando un conjunto de funcionalidades de procesamiento para los nodos disponible en una biblioteca accesible en tiempo de ejecución • un RE hardware que explota la capacidad de reconfiguración nativa de las FPGAs haciendo un uso eficiente de los recursos reconfigurables del dispositivo para cambiar el comportamiento del CE en tiempo de ejecución • una biblioteca de elementos de procesamiento reconfigurables caracterizada por bitstreams parciales independientes de la posición, usados como el conjunto de configuraciones disponibles para los nodos de procesamiento del array Las contribuciones principales de esta tesis se pueden resumir en la siguiente lista: • Una plataforma evolutiva basada en FPGA para la auto-adaptación paramétrica y estructural de sistemas empotrados compuesta por un motor computacional (CE), un motor de adaptación (AE) evolutivo y un motor de reconfiguración (RE). Esta plataforma se ha desarrollado y particularizado para los casos de auto-adaptación paramétrica y estructural. • En cuanto a la auto-adaptación paramétrica, las contribuciones principales son: – Un motor computacional adaptable mediante registros que permite la adaptación paramétrica de los coeficientes de una implementación hardware adaptativa de un núcleo de DWT. – Un motor de adaptación basado en un algoritmo evolutivo desarrollado específicamente para optimización numérica, aplicada a los coeficientes de filtros wavelet en sistemas empotrados con recursos limitados. – Un núcleo IP de DWT auto-adaptativo en tiempo de ejecución para sistemas empotrados que permite la optimización online del rendimiento de la transformada para compresión de imágenes en entornos específicos de despliegue, caracterizados por tipos diferentes de señal de entrada. – Un modelo software y una implementación hardware de una herramienta para la construcción evolutiva automática de transformadas wavelet específicas. • Por último, en cuanto a la auto-adaptación estructural, las contribuciones principales son: – Un motor computacional adaptable mediante reconfiguración nativa de FPGAs caracterizado por una plantilla de array sistólico en dos dimensiones de nodos de procesamiento reconfigurables. Es posible mapear diferentes tareas de cómputo en el array usando una biblioteca de elementos sencillos de procesamiento reconfigurables. – Definición de una biblioteca de elementos de procesamiento apropiada para la síntesis autónoma en tiempo de ejecución de diferentes tareas de procesamiento de imagen. – Incorporación eficiente de la reconfiguración parcial dinámica (DPR) en sistemas de hardware evolutivo, superando los principales inconvenientes de propuestas previas como los circuitos reconfigurables virtuales (VRCs). En este trabajo también se comparan originalmente los detalles de implementación de ambas propuestas. – Una plataforma tolerante a fallos, auto-curativa, que permite la recuperación funcional online en entornos peligrosos. La plataforma ha sido caracterizada desde una perspectiva de tolerancia a fallos: se proponen modelos de fallo a nivel de CLB y de elemento de procesamiento, y usando el motor de reconfiguración, se hace un análisis sistemático de fallos para un fallo en cada elemento de procesamiento y para dos fallos acumulados. – Una plataforma con calidad de filtrado dinámica que permite la adaptación online a tipos de ruido diferentes y diferentes comportamientos computacionales teniendo en cuenta los recursos de procesamiento disponibles. Por un lado, se evolucionan filtros con comportamientos no destructivos, que permiten esquemas de filtrado en cascada escalables; y por otro, también se evolucionan filtros escalables teniendo en cuenta requisitos computacionales de filtrado cambiantes dinámicamente. Este documento está organizado en cuatro partes y nueve capítulos. La primera parte contiene el capítulo 1, una introducción y motivación sobre este trabajo de tesis. A continuación, el marco de referencia en el que se enmarca esta tesis se analiza en la segunda parte: el capítulo 2 contiene una introducción a los conceptos de auto-adaptación y computación autonómica (autonomic computing) como un campo de investigación más general que el muy específico de este trabajo; el capítulo 3 introduce la computación evolutiva como la técnica para dirigir la adaptación; el capítulo 4 analiza las plataformas de computación reconfigurables como la tecnología para albergar hardware auto-adaptativo; y finalmente, el capítulo 5 define, clasifica y hace un sondeo del campo del hardware evolutivo. Seguidamente, la tercera parte de este trabajo contiene la propuesta, desarrollo y resultados obtenidos: mientras que el capítulo 6 contiene una declaración de los objetivos de la tesis y la descripción de la propuesta en su conjunto, los capítulos 7 y 8 abordan la auto-adaptación paramétrica y estructural, respectivamente. Finalmente, el capítulo 9 de la parte 4 concluye el trabajo y describe caminos de investigación futuros. ABSTRACT Embedded systems have traditionally been conceived to be specific-purpose computers with one, fixed computational task for their whole lifetime. Stringent requirements in terms of cost, size and weight forced designers to highly optimise their operation for very specific conditions. However, demands for versatility, more intelligent behaviour and, in summary, an increased computing capability began to clash with these limitations, intensified by the uncertainty associated to the more dynamic operating environments where they were progressively being deployed. This brought as a result an increasing need for systems to respond by themselves to unexpected events at design time, such as: changes in input data characteristics and system environment in general; changes in the computing platform itself, e.g., due to faults and fabrication defects; and changes in functional specifications caused by dynamically changing system objectives. As a consequence, systems complexity is increasing, but in turn, autonomous lifetime adaptation without human intervention is being progressively enabled, allowing them to take their own decisions at run-time. This type of systems is known, in general, as selfadaptive, and are able, among others, of self-configuration, self-optimisation and self-repair. Traditionally, the soft part of a system has mostly been so far the only place to provide systems with some degree of adaptation capabilities. However, the performance to power ratios of software driven devices like microprocessors are not adequate for embedded systems in many situations. In this scenario, the resulting rise in applications complexity is being partly addressed by rising devices complexity in the form of multi and many core devices; but sadly, this keeps on increasing power consumption. Besides, design methodologies have not been improved accordingly to completely leverage the available computational power from all these cores. Altogether, these factors make that the computing demands new applications pose are not being wholly satisfied. The traditional solution to improve performance to power ratios has been the switch to hardware driven specifications, mainly using ASICs. However, their costs are highly prohibitive except for some mass production cases and besidesthe static nature of its structure complicates the solution to the adaptation needs. The advancements in fabrication technologies have made that the once slow, small FPGA used as glue logic in bigger systems, had grown to be a very powerful, reconfigurable computing device with a vast amount of computational logic resources and embedded, hardened signal and general purpose processing cores. Its reconfiguration capabilities have enabled software-like flexibility to be combined with hardware-like computing performance, which has the potential to cause a paradigm shift in computer architecture since hardware cannot be considered as static anymore. This is so, since, as is the case with SRAMbased FPGAs, Dynamic Partial Reconfiguration (DPR) is possible. This means that subsets of the FPGA computational resources can now be changed (reconfigured) at run-time while the rest remains active. Besides, this reconfiguration process can be triggered internally by the device itself. This technological boost in reconfigurable hardware devices is actually covered under the field known as Reconfigurable Computing. One of the most exotic fields of application that Reconfigurable Computing has enabled is the known as Evolvable Hardware (EHW), in which this dissertation is framed. The main idea behind the concept is turning hardware that is adaptable through reconfiguration into an evolvable entity subject to the forces of an evolutionary process, inspired by that of natural, biological species, that guides the direction of change. It is yet another application of the field of Evolutionary Computation (EC), which comprises a set of global optimisation algorithms known as Evolutionary Algorithms (EAs), considered as universal problem solvers. In analogy to the biological process of evolution, in EHW the subject of evolution is a population of circuits that tries to get adapted to its surrounding environment by progressively getting better fitted to it generation after generation. Individuals become circuit configurations representing bitstreams that feature reconfigurable circuit descriptions. By selecting those that behave better, i.e., with a higher fitness value after being evaluated, and using them as parents of the following generation, the EA creates a new offspring population by using so called genetic operators like mutation and recombination. As generations succeed one another, the whole population is expected to approach to the optimum solution to the problem of finding an adequate circuit configuration that fulfils system objectives. The state of reconfiguration technology after Xilinx XC6200 FPGA family was discontinued and replaced by Virtex families in the late 90s, was a major obstacle for advancements in EHW; closed (non publicly known) bitstream formats; dependence on manufacturer tools with highly limiting support of DPR; slow speed of reconfiguration; and random bitstream modifications being potentially hazardous for device integrity, are some of these reasons. However, a proposal in the first 2000s allowed to keep investigating in this field while DPR technology kept maturing, the Virtual Reconfigurable Circuit (VRC). In essence, a VRC in an FPGA is a virtual layer acting as an application specific reconfigurable circuit on top of an FPGA fabric that reduces the complexity of the reconfiguration process and increases its speed (compared to native reconfiguration). It is an array of computational nodes specified using standard HDL descriptions that define ad-hoc reconfigurable resources; routing multiplexers and a set of configurable processing elements, each one containing all the required functions, which are selectable through functionality multiplexers as in microprocessor ALUs. A large register acts as configuration memory, so VRC reconfiguration is very fast given it only involves writing this register, which drives the selection signals of the set of multiplexers. However, large overheads are introduced by this virtual layer; an area overhead due to the simultaneous implementation of every function in every node of the array plus the multiplexers, and a delay overhead due to the multiplexers, which also reduces maximum frequency of operation. The very nature of Evolvable Hardware, able to optimise its own computational behaviour, makes it a good candidate to advance research in self-adaptive systems. Combining a selfreconfigurable computing substrate able to be dynamically changed at run-time with an embedded algorithm that provides a direction for change, can help fulfilling requirements for autonomous lifetime adaptation of FPGA-based embedded systems. The main proposal of this thesis is hence directed to contribute to autonomous self-adaptation of the underlying computational hardware of FPGA-based embedded systems by means of Evolvable Hardware. This is tackled by considering that the computational behaviour of a system can be modified by changing any of its two constituent parts: an underlying hard structure and a set of soft parameters. Two main lines of work derive from this distinction. On one side, parametric self-adaptation and, on the other side, structural self-adaptation. The goal pursued in the case of parametric self-adaptation is the implementation of complex evolutionary optimisation techniques in resource constrained embedded systems for online parameter adaptation of signal processing circuits. The application selected as proof of concept is the optimisation of Discrete Wavelet Transforms (DWT) filters coefficients for very specific types of images, oriented to image compression. Hence, adaptive and improved compression efficiency, as compared to standard techniques, is the required goal of evolution. The main quest lies in reducing the supercomputing resources reported in previous works for the optimisation process in order to make it suitable for embedded systems. Regarding structural self-adaptation, the thesis goal is the implementation of self-adaptive circuits in FPGA-based evolvable systems through an efficient use of native reconfiguration capabilities. In this case, evolution of image processing tasks such as filtering of unknown and changing types of noise and edge detection are the selected proofs of concept. In general, evolving unknown image processing behaviours (within a certain complexity range) at design time is the required goal. In this case, the mission of the proposal is the incorporation of DPR in EHW to evolve a systolic array architecture adaptable through reconfiguration whose evolvability had not been previously checked. In order to achieve the two stated goals, this thesis originally proposes an evolvable platform that integrates an Adaptation Engine (AE), a Reconfiguration Engine (RE) and an adaptable Computing Engine (CE). In the case of parametric adaptation, the proposed platform is characterised by: • a CE featuring a DWT hardware processing core adaptable through reconfigurable registers that holds wavelet filters coefficients • an evolutionary algorithm as AE that searches for candidate wavelet filters through a parametric optimisation process specifically developed for systems featured by scarce computing resources • a new, simplified mutation operator for the selected EA, that together with a fast evaluation mechanism of candidate wavelet filters derived from existing literature, assures the feasibility of the evolutionary search involved in wavelets adaptation In the case of structural adaptation, the platform proposal takes the form of: • a CE based on a reconfigurable 2D systolic array template composed of reconfigurable processing nodes • an evolutionary algorithm as AE that searches for candidate configurations of the array using a set of computational functionalities for the nodes available in a run time accessible library • a hardware RE that exploits native DPR capabilities of FPGAs and makes an efficient use of the available reconfigurable resources of the device to change the behaviour of the CE at run time • a library of reconfigurable processing elements featured by position-independent partial bitstreams used as the set of available configurations for the processing nodes of the array Main contributions of this thesis can be summarised in the following list. • An FPGA-based evolvable platform for parametric and structural self-adaptation of embedded systems composed of a Computing Engine, an evolutionary Adaptation Engine and a Reconfiguration Engine. This platform is further developed and tailored for both parametric and structural self-adaptation. • Regarding parametric self-adaptation, main contributions are: – A CE adaptable through reconfigurable registers that enables parametric adaptation of the coefficients of an adaptive hardware implementation of a DWT core. – An AE based on an Evolutionary Algorithm specifically developed for numerical optimisation applied to wavelet filter coefficients in resource constrained embedded systems. – A run-time self-adaptive DWT IP core for embedded systems that allows for online optimisation of transform performance for image compression for specific deployment environments characterised by different types of input signals. – A software model and hardware implementation of a tool for the automatic, evolutionary construction of custom wavelet transforms. • Lastly, regarding structural self-adaptation, main contributions are: – A CE adaptable through native FPGA fabric reconfiguration featured by a two dimensional systolic array template of reconfigurable processing nodes. Different processing behaviours can be automatically mapped in the array by using a library of simple reconfigurable processing elements. – Definition of a library of such processing elements suited for autonomous runtime synthesis of different image processing tasks. – Efficient incorporation of DPR in EHW systems, overcoming main drawbacks from the previous approach of virtual reconfigurable circuits. Implementation details for both approaches are also originally compared in this work. – A fault tolerant, self-healing platform that enables online functional recovery in hazardous environments. The platform has been characterised from a fault tolerance perspective: fault models at FPGA CLB level and processing elements level are proposed, and using the RE, a systematic fault analysis for one fault in every processing element and for two accumulated faults is done. – A dynamic filtering quality platform that permits on-line adaptation to different types of noise and different computing behaviours considering the available computing resources. On one side, non-destructive filters are evolved, enabling scalable cascaded filtering schemes; and on the other, size-scalable filters are also evolved considering dynamically changing computational filtering requirements. This dissertation is organized in four parts and nine chapters. First part contains chapter 1, the introduction to and motivation of this PhD work. Following, the reference framework in which this dissertation is framed is analysed in the second part: chapter 2 features an introduction to the notions of self-adaptation and autonomic computing as a more general research field to the very specific one of this work; chapter 3 introduces evolutionary computation as the technique to drive adaptation; chapter 4 analyses platforms for reconfigurable computing as the technology to hold self-adaptive hardware; and finally chapter 5 defines, classifies and surveys the field of Evolvable Hardware. Third part of the work follows, which contains the proposal, development and results obtained: while chapter 6 contains an statement of the thesis goals and the description of the proposal as a whole, chapters 7 and 8 address parametric and structural self-adaptation, respectively. Finally, chapter 9 in part 4 concludes the work and describes future research paths.
Resumo:
Los resultados presentados en la memoria de esta tesis doctoral se enmarcan en la denominada computación celular con membranas una nueva rama de investigación dentro de la computación natural creada por Gh. Paun en 1998, de ahí que habitualmente reciba el nombre de sistemas P. Este nuevo modelo de cómputo distribuido está inspirado en la estructura y funcionamiento de la célula. El objetivo de esta tesis ha sido analizar el poder y la eficiencia computacional de estos sistemas de computación celular. En concreto, se han analizado dos tipos de sistemas P: por un lado los sistemas P de neuronas de impulsos, y por otro los sistemas P con proteínas en las membranas. Para el primer tipo, los resultados obtenidos demuestran que es posible que estos sistemas mantengan su universalidad aunque muchas de sus características se limiten o incluso se eliminen. Para el segundo tipo, se analiza la eficiencia computacional y se demuestra que son capaces de resolver problemas de la clase de complejidad ESPACIO-P (PSPACE) en tiempo polinómico. Análisis del poder computacional: Los sistemas P de neuronas de impulsos (en adelante SN P, acrónimo procedente del inglés «Spiking Neural P Systems») son sistemas inspirados en el funcionamiento neuronal y en la forma en la que los impulsos se propagan por las redes sinápticas. Los SN P bio-inpirados poseen un numeroso abanico de características que ha cen que dichos sistemas sean universales y por tanto equivalentes, en poder computacional, a una máquina de Turing. Estos sistemas son potentes a nivel computacional, pero tal y como se definen incorporan numerosas características, quizás demasiadas. En (Ibarra et al. 2007) se demostró que en estos sistemas sus funcionalidades podrían ser limitadas sin comprometer su universalidad. Los resultados presentados en esta memoria son continuistas con la línea de trabajo de (Ibarra et al. 2007) y aportan nuevas formas normales. Esto es, nuevas variantes simplificadas de los sistemas SN P con un conjunto mínimo de funcionalidades pero que mantienen su poder computacional universal. Análisis de la eficiencia computacional: En esta tesis se ha estudiado la eficiencia computacional de los denominados sistemas P con proteínas en las membranas. Se muestra que este modelo de cómputo es equivalente a las máquinas de acceso aleatorio paralelas (PRAM) o a las máquinas de Turing alterantes ya que se demuestra que un sistema P con proteínas, es capaz de resolver un problema ESPACIOP-Completo como el QSAT(problema de satisfacibilidad de fórmulas lógicas cuantificado) en tiempo polinómico. Esta variante de sistemas P con proteínas es muy eficiente gracias al poder de las proteínas a la hora de catalizar los procesos de comunicación intercelulares. ABSTRACT The results presented at this thesis belong to membrane computing a new research branch inside of Natural computing. This new branch was created by Gh. Paun on 1998, hence usually receives the name of P Systems. This new distributed computing model is inspired on structure and functioning of cell. The aim of this thesis is to analyze the efficiency and computational power of these computational cellular systems. Specifically there have been analyzed two different classes of P systems. On the one hand it has been analyzed the Neural Spiking P Systems, and on the other hand it has been analyzed the P systems with proteins on membranes. For the first class it is shown that it is possible to reduce or restrict the characteristics of these kind of systems without loss of computational power. For the second class it is analyzed the computational efficiency solving on polynomial time PSACE problems. Computational Power Analysis: The spiking neural P systems (SN P in short) are systems inspired by the way of neural cells operate sending spikes through the synaptic networks. The bio-inspired SN Ps possess a large range of features that make these systems to be universal and therefore equivalent in computational power to a Turing machine. Such systems are computationally powerful, but by definition they incorporate a lot of features, perhaps too much. In (Ibarra et al. in 2007) it was shown that their functionality may be limited without compromising its universality. The results presented herein continue the (Ibarra et al. 2007) line of work providing new formal forms. That is, new SN P simplified variants with a minimum set of functionalities but keeping the universal computational power. Computational Efficiency Analisys: In this thesis we study the computational efficiency of P systems with proteins on membranes. We show that this computational model is equivalent to parallel random access machine (PRAM) or alternating Turing machine because, we show P Systems with proteins can solve a PSPACE-Complete problem as QSAT (Quantified Propositional Satisfiability Problem) on polynomial time. This variant of P Systems with proteins is very efficient thanks to computational power of proteins to catalyze inter-cellular communication processes.
Resumo:
Debido al gran interés existente en el ahorro y recuperación de energía, y en el deseo de obtener productos que permitan usos beneficiosos del fango procedente de la depuración del agua residual, la digestión anaerobia es el proceso de estabilización de uso más extendido. El tiempo de retención de sólidos es un factor clave en el proceso de digestión anaerobia. En base al tiempo de retención de sólidos, se dimensiona el volumen de los digestores anaerobios para así obtener la reducción de materia orgánica deseada, con la correspondiente producción de biogás. La geometría del digestor y su sistema de agitación deben ser adecuados para alcanzar el tiempo de retención de sólidos de diseño. Los primeros trabajos sobre la agitación de los digestores realizaban únicamente experimentos con trazadores y otros métodos de medición. En otros casos, la mezcla era evaluada mediante la producción de biogás. Estas técnicas tenían el gran hándicap de no conocer lo que sucedía realmente dentro del digestor y sólo daban una idea aproximada de su funcionamiento. Mediante aplicación de la mecánica de fluidos computacional (CFD) es posible conocer con detalle las características del fluido objeto de estudio y, por lo tanto, simular perfectamente el movimiento del fango de un digestor anaerobio. En esta tesis se han simulado mediante CFD diferentes digestores a escala real (unos 2000 m3 de volumen) agitados con bomba/s de recirculación para alcanzar los siguientes objetivos: establecer la influencia de la relación entre el diámetro y la altura, de la pendiente de la solera, del número de bombas y del caudal de recirculación en dichos digestores, definir el campo de velocidades en la masa de fango y realizar un análisis energético y económico. Así, es posible conocer mejor cómo funciona el sistema de agitación de un digestor anaerobio a escala real equipado con bomba/s de recirculación. Los resultados obtenidos muestran que una relación diámetro/altura del digestor por encima de 1 empeora la agitación del mismo y que la pendiente en la solera del digestor favorece que la masa de fango esté mejor mezclada, siendo más determinante la esbeltez del tanque que la pendiente de su solera. No obstante, también es necesario elegir adecuadamente los parámetros de diseño del sistema de agitación, en este caso el caudal de recirculación de fango, para obtener una agitación completa sin apenas zonas muertas. En el caso de un digestor con una geometría inadecuada es posible mejorar su agitación aumentando el número de bombas de recirculación y el caudal de las mismas, pero no se llegará a alcanzar una agitación total de la masa de fango debido a su mal diseño original. Anaerobic digestion is the process for waste water treatment sludge stabilization of more widespread use due to the huge interest in saving and recovering energy and the wish to obtain products that allow beneficial uses for the sludge. The solids retention time is a key factor in the anaerobic digestion. Based on the solids retention time, volume anaerobic digester is sized to obtain the desired reduction in organic matter, with the corresponding production of biogas. The geometry of the digester and the stirring system should be adequate to achieve the design solid retention time. Early works on digesters stirring just performed tracer experiments and other measurement methods. In other cases, mixing was evaluated by biogas production. These techniques had the great handicap of not knowing what really happened inside the digester and they only gave a rough idea of its operation. By application of computational fluid dynamics (CFD), it is possible to know in detail the characteristics of the fluid under study and, therefore, simulate perfectly the sludge movement of an anaerobic digester. Different full-scale digesters (about 2000 m3 of volume) agitated with pump/s recirculation have been simulated by CFD in this thesis to achieve the following objectives: to establish the influence of the relationship between the diameter and height, the slope of the bottom, the number of pumps and the recirculation flow in such digesters, to define the velocity field in the mass of sludge and carry out an energy and economic analysis. Thus, it is possible to understand better how the agitation system of a full-scale anaerobic digester equipped with pump/s recirculation works. The results achieved show that a diameter/height ratio of the digester above 1 worsens its stirring and that the slope of the digester bottom favors that the mass of sludge is better mixed, being more decisive the tank slenderness than the slope of its bottom. However, it is also necessary to select properly the design parameters of the agitation system, in this case the sludge recirculation flow rate, for a complete agitation with little dead zones. In the case of a digester with inadequate geometry, its agitation can be improved by increasing the number of recirculation pumps and flow of them, but it will not reach a full agitation of the mass of sludge because of the poor original design.
Resumo:
Una Red de Procesadores Evolutivos o NEP (por sus siglas en ingles), es un modelo computacional inspirado por el modelo evolutivo de las celulas, específicamente por las reglas de multiplicación de las mismas. Esta inspiración hace que el modelo sea una abstracción sintactica de la manipulation de information de las celulas. En particu¬lar, una NEP define una maquina de cómputo teorica capaz de resolver problemas NP completos de manera eficiente en tóerminos de tiempo. En la praóctica, se espera que las NEP simuladas en móaquinas computacionales convencionales puedan resolver prob¬lemas reales complejos (que requieran ser altamente escalables) a cambio de una alta complejidad espacial. En el modelo NEP, las cóelulas estóan representadas por palabras que codifican sus secuencias de ADN. Informalmente, en cualquier momento de cómputo del sistema, su estado evolutivo se describe como un coleccion de palabras, donde cada una de ellas representa una celula. Estos momentos fijos de evolucion se denominan configuraciones. De manera similar al modelo biologico, las palabras (celulas) mutan y se dividen en base a bio-operaciones sencillas, pero solo aquellas palabras aptas (como ocurre de forma parecida en proceso de selection natural) seran conservadas para la siguiente configuracióon. Una NEP como herramienta de computation, define una arquitectura paralela y distribuida de procesamiento simbolico, en otras palabras, una red de procesadores de lenguajes. Desde el momento en que el modelo fue propuesto a la comunidad científica en el año 2001, múltiples variantes se han desarrollado y sus propiedades respecto a la completitud computacional, eficiencia y universalidad han sido ampliamente estudiadas y demostradas. En la actualidad, por tanto, podemos considerar que el modelo teórico NEP se encuentra en el estadio de la madurez. La motivación principal de este Proyecto de Fin de Grado, es proponer una aproxi-mación práctica que permita dar un salto del modelo teórico NEP a una implantación real que permita su ejecucion en plataformas computacionales de alto rendimiento, con el fin de solucionar problemas complejos que demanda la sociedad actual. Hasta el momento, las herramientas desarrolladas para la simulation del modelo NEP, si bien correctas y con resultados satisfactorios, normalmente estón atadas a su entorno de ejecucion, ya sea el uso de hardware específico o implementaciones particulares de un problema. En este contexto, el propósito fundamental de este trabajo es el desarrollo de Nepfix, una herramienta generica y extensible para la ejecucion de cualquier algo¬ritmo de un modelo NEP (o alguna de sus variantes), ya sea de forma local, como una aplicación tradicional, o distribuida utilizando los servicios de la nube. Nepfix es una aplicacion software desarrollada durante 7 meses y que actualmente se encuentra en su segunda iteration, una vez abandonada la fase de prototipo. Nepfix ha sido disenada como una aplicacion modular escrita en Java 8 y autocontenida, es decir, no requiere de un entorno de ejecucion específico (cualquier maquina virtual de Java es un contenedor vólido). Nepfix contiene dos componentes o móodulos. El primer móodulo corresponde a la ejecución de una NEP y es por lo tanto, el simulador. Para su desarrollo, se ha tenido en cuenta el estado actual del modelo, es decir, las definiciones de los procesadores y filtros mas comunes que conforman la familia del modelo NEP. Adicionalmente, este componente ofrece flexibilidad en la ejecucion, pudiendo ampliar las capacidades del simulador sin modificar Nepfix, usando para ello un lenguaje de scripting. Dentro del desarrollo de este componente, tambióen se ha definido un estóandar de representacióon del modelo NEP basado en el formato JSON y se propone una forma de representation y codificación de las palabras, necesaria para la comunicación entre servidores. Adicional-mente, una característica importante de este componente, es que se puede considerar una aplicacion aislada y por tanto, la estrategia de distribution y ejecución son total-mente independientes. El segundo moódulo, corresponde a la distribucióon de Nepfix en la nube. Este de-sarrollo es el resultado de un proceso de i+D, que tiene una componente científica considerable. Vale la pena resaltar el desarrollo de este modulo no solo por los resul-tados prócticos esperados, sino por el proceso de investigation que se se debe abordar con esta nueva perspectiva para la ejecución de sistemas de computación natural. La principal característica de las aplicaciones que se ejecutan en la nube es que son gestionadas por la plataforma y normalmente se encapsulan en un contenedor. En el caso de Nepfix, este contenedor es una aplicacion Spring que utiliza el protocolo HTTP o AMQP para comunicarse con el resto de instancias. Como valor añadido, Nepfix aborda dos perspectivas de implementation distintas (que han sido desarrolladas en dos iteraciones diferentes) del modelo de distribution y ejecucion, que tienen un impacto muy significativo en las capacidades y restricciones del simulador. En concreto, la primera iteration utiliza un modelo de ejecucion asincrono. En esta perspectiva asincrona, los componentes de la red NEP (procesadores y filtros) son considerados como elementos reactivos a la necesidad de procesar una palabra. Esta implementation es una optimization de una topologia comun en el modelo NEP que permite utilizar herramientas de la nube para lograr un escalado transparente (en lo ref¬erente al balance de carga entre procesadores) pero produce efectos no deseados como indeterminacion en el orden de los resultados o imposibilidad de distribuir eficiente-mente redes fuertemente interconectadas. Por otro lado, la segunda iteration corresponde al modelo de ejecucion sincrono. Los elementos de una red NEP siguen un ciclo inicio-computo-sincronizacion hasta que el problema se ha resuelto. Esta perspectiva sincrona representa fielmente al modelo teórico NEP pero el proceso de sincronizacion es costoso y requiere de infraestructura adicional. En concreto, se requiere un servidor de colas de mensajes RabbitMQ. Sin embargo, en esta perspectiva los beneficios para problemas suficientemente grandes superan a los inconvenientes, ya que la distribuciín es inmediata (no hay restricciones), aunque el proceso de escalado no es trivial. En definitiva, el concepto de Nepfix como marco computacional se puede considerar satisfactorio: la tecnología es viable y los primeros resultados confirman que las carac-terísticas que se buscaban originalmente se han conseguido. Muchos frentes quedan abiertos para futuras investigaciones. En este documento se proponen algunas aproxi-maciones a la solucion de los problemas identificados como la recuperacion de errores y la division dinamica de una NEP en diferentes subdominios. Por otra parte, otros prob-lemas, lejos del alcance de este proyecto, quedan abiertos a un futuro desarrollo como por ejemplo, la estandarización de la representación de las palabras y optimizaciones en la ejecucion del modelo síncrono. Finalmente, algunos resultados preliminares de este Proyecto de Fin de Grado han sido presentados recientemente en formato de artículo científico en la "International Work-Conference on Artificial Neural Networks (IWANN)-2015" y publicados en "Ad-vances in Computational Intelligence" volumen 9094 de "Lecture Notes in Computer Science" de Springer International Publishing. Lo anterior, es una confirmation de que este trabajo mas que un Proyecto de Fin de Grado, es solo el inicio de un trabajo que puede tener mayor repercusion en la comunidad científica. Abstract Network of Evolutionary Processors -NEP is a computational model inspired by the evolution of cell populations, which might model some properties of evolving cell communities at the syntactical level. NEP defines theoretical computing devices able to solve NP complete problems in an efficient manner. In this model, cells are represented by words which encode their DNA sequences. Informally, at any moment of time, the evolutionary system is described by a collection of words, where each word represents one cell. Cells belong to species and their community evolves according to mutations and division which are defined by operations on words. Only those cells are accepted as surviving (correct) ones which are represented by a word in a given set of words, called the genotype space of the species. This feature is analogous with the natural process of evolution. Formally, NEP is based on an architecture for parallel and distributed processing, in other words, a network of language processors. Since the date when NEP was pro¬posed, several extensions and variants have appeared engendering a new set of models named Networks of Bio-inspired Processors (NBP). During this time, several works have proved the computational power of NBP. Specifically, their efficiency, universality, and computational completeness have been thoroughly investigated. Therefore, we can say that the NEP model has reached its maturity. The main motivation for this End of Grade project (EOG project in short) is to propose a practical approximation that allows to close the gap between theoretical NEP model and a practical implementation in high performing computational platforms in order to solve some of high the high complexity problems society requires today. Up until now tools developed to simulate NEPs, while correct and successful, are usu¬ally tightly coupled to the execution environment, using specific software frameworks (Hadoop) or direct hardware usage (GPUs). Within this context the main purpose of this work is the development of Nepfix, a generic and extensible tool that aims to execute algorithms based on NEP model and compatible variants in a local way, similar to a traditional application or in a distributed cloud environment. Nepfix as an application was developed during a 7 month cycle and is undergoing its second iteration once the prototype period was abandoned. Nepfix is designed as a modular self-contained application written in Java 8, that is, no additional external dependencies are required and it does not rely on an specific execution environment, any JVM is a valid container. Nepfix is made of two components or modules. The first module corresponds to the NEP execution and therefore simulation. During the development the current state of the theoretical model was used as a reference including most common filters and processors. Additionally extensibility is provided by the use of Python as a scripting language to run custom logic. Along with the simulation a definition language for NEP has been defined based on JSON as well as a mechanisms to represent words and their possible manipulations. NEP simulator is isolated from distribution and as mentioned before different applications that include it as a dependency are possible, the distribution of NEPs is an example of this. The second module corresponds to executing Nepfix in the cloud. The development carried a heavy R&D process since this front was not explored by other research groups until now. It's important to point out that the development of this module is not focused on results at this point in time, instead we focus on feasibility and discovery of this new perspective to execute natural computing systems and NEPs specifically. The main properties of cloud applications is that they are managed by the platform and are encapsulated in a container. For Nepfix a Spring application becomes the container and the HTTP or AMQP protocols are used for communication with the rest of the instances. Different execution perspectives were studied, namely asynchronous and synchronous models were developed for solving different kind of problems using NEPs. Different limitations and restrictions manifest in both models and are explored in detail in the respective chapters. In conclusion we can consider that Nepfix as a computational framework is suc-cessful: Cloud technology is ready for the challenge and the first results reassure that the properties Nepfix project pursued were met. Many investigation branches are left open for future investigations. In this EOG implementation guidelines are proposed for some of them like error recovery or dynamic NEP splitting. On the other hand other interesting problems that were not in the scope of this project were identified during development like word representation standardization or NEP model optimizations. As a confirmation that the results of this work can be useful to the scientific com-munity a preliminary version of this project was published in The International Work- Conference on Artificial Neural Networks (IWANN) in May 2015. Development has not stopped since that point and while Nepfix in it's current state can not be consid¬ered a final product the most relevant ideas, possible problems and solutions that were produced during the seven months development cycle are worthy to be gathered and presented giving a meaning to this EOG work.
Resumo:
El cambio climático y sus efectos requieren con urgencia el desarrollo de estrategias capaces no solo de mitigar pero también permitir la adaptación de los sistemas afectados por este fenómeno a los cambios que están provocando a nivel mundial. Olas de calor más largas y frecuentes, inundaciones, y graves sequías aumentan la vulnerabilidad de la población, especialmente en asentamientos urbanos. Este fenómeno y sus soluciones potenciales han sido ampliamente estudiados en las últimas décadas desde diferentes perspectivas y escalas que analizan desde el fenómeno regional de isla de calor al aumento de la intensidad energética necesaria en los edificios para mantener las condiciones de confort en los escenarios de calentamiento que se predicen. Su comprensión requiere el entendimiento de este fenómeno y un profundo análisis de las estrategias que pueden corregirlo y adaptarse a él. En la búsqueda de soluciones a este problema, las estrategias que incorporan sistemas naturales tales como las cubiertas ajardinadas, las fachadas vegetadas y bosques urbanos, se presentan como opciones de diseño capaces de proporcionan múltiples servicios al ecosistema urbano y de regular y hacer frente a los efectos del cambio climático. Entre los servicios que aportan estos sistemas naturales se incluyen la gestión de agua de tormentas, el control del efecto isla de calor, la mejora de la calidad del aire y del agua, el aumento de la diversidad, y como consecuencia de todo lo anterior, la reducción de la huella ecológica de las ciudades. En la última década, se han desarrollado múltiples estudios para evaluar y cuantificar los servicios al ecosistema proporcionados por las infraestructuras verdes, y específicamente las cubiertas ajardinadas, sin embargo, determinados servicios como la capacidad de la regulación del microclima urbano no ha sido apenas estudiados. La mayor parte de la literatura en este campo la componen estudios relacionados con la capacidad de las cubiertas ajardinadas de reducir el efecto de la isla de calor, en una escala local, o acerca de la reducción de la demanda energética de refrigeración debida a la instalación de cubiertas ajardinadas en la escala de edificio. La escala intermedia entre estos dos ámbitos, la calle, desde su ámbito habitable cercano al suelo hasta el límite superior del cañón urbano que configura, no han sido objeto detallado de estudio por lo que es esta escala el objeto de esta tesis doctoral. Esta investigación tiene como objeto contribuir en este campo y aportar un mayor entendimiento a través de la cuantificación del impacto de las cubiertas ajardinadas sobre la temperatura y humedad en el cañón urbano en la escala de calle y con un especial foco en el nivel peatonal. El primer paso de esta investigación ha sido la definición del objeto de estudio a través del análisis y revisión de trabajos tanto teóricos como empíricos que investigan los efectos de cubiertas ajardinadas en el entorno construido, entendidas como una herramienta para la adaptación y mitigación del impacto del cambio climático en las ciudades. La literatura analizada, revela el gran potencial de los sistemas vegetales como herramientas para el diseño pasivo puesto que no solo son capaces de mejorar las condiciones climáticas y microclimaticas en las ciudades reduciendo su demanda energética, sino también la necesidad de mayor análisis en la escala de calle donde confluyen el clima, las superficies urbanas y materiales y vegetación. Este análisis requiere una metodología donde se integren la respuesta térmica de edificios, las variaciones en los patrones de viento y radiación, y la interacción con la vegetación, por lo que un análisis cuantitativo puede ayudar a definir las estrategias más efectivas para lograr espacios urbanos más habitables. En este contexto, el objetivo principal de esta investigación ha sido la evaluación cuantitativa del impacto de la cubierta ajardinada en el microclima urbano a escala de barrio en condiciones de verano en los climas mediterráneos continentales. Para el logro de este objetivo, se ha seguido un proceso que persigue identificar los modelos y herramientas de cálculo capaces de capturar el efecto de la cubierta ajardinada sobre el microclima, identificar los parámetros que potencian o limitan este efecto, y cuantificar las variaciones que microclima creado en el cañón urbano produce en el consumo de energía de los edificios que rodean éste espacio. La hipótesis principal detrás de esta investigación y donde los objetivos anteriores se basan es el siguiente: "una cubierta ajardinada instalada en edificios de mediana altura favorece el establecimiento de microclimas a nivel peatonal y reduce las temperaturas en el entorno urbano donde se encuentra”. Con el fin de verificar la hipótesis anterior y alcanzar los objetivos propuestos se ha seguido la siguiente metodología: • definición del alcance y limitaciones del análisis • Selección de las herramientas y modelos de análisis • análisis teórico de los parámetros que afectan el efecto de las cubiertas ajardinadas • análisis experimental; • modelización energética • conclusiones y futuras líneas de trabajo Dada la complejidad de los fenómenos que intervienen en la generación de unas determinadas condiciones microclimáticas, se ha limitado el objeto de este estudio a las variables de temperatura y humedad, y sólo se han tenido en cuenta los componentes bióticos y abióticos del sistema, que incluyen la morfología, características superficiales del entorno estudiado, así como los elementos vegetales. Los componentes antrópicos no se han incluido en este análisis. La búsqueda de herramientas adecuadas para cumplir con los objetivos de este análisis ha concluido en la selección de ENVI-met v4 como el software más adecuado para esta investigación por su capacidad para representar los complejos fenómenos que caracterizan el microclima en cañones urbanos, en una escala temporal diaria y con unas escala local de vecindario. Esta herramienta supera el desafío que plantean los requisitos informáticos de un cálculo completo basado en elementos finitos realizados a través de herramientas de dinámica de fluidos computacional (CFD) que requieren una capacidad de cálculo computacional y tiempo privativos y en una escala dimensional y temporal limitada a esta capacidad computacional lo que no responde a los objetivos de esta investigación. ENVI-met 4 se basa es un modelo tridimensional del micro clima diseñado para simular las interacciones superficie-planta-aire en entornos urbanos. Basado en las ecuaciones fundamentales del equilibrio que representan, la conservación de masa, energía y momento. ENVI-met es un software predictivo, y como primer paso ha requerido la definición de las condiciones iniciales de contorno que se utilizan como punto de partida por el software para generar su propio perfil de temperatura y humedad diaria basada en la localización de la construcción, geometría, vegetación y las superficies de características físicas del entorno. La geometría de base utilizada para este primer análisis se ha basado en una estructura típica en cuanto al trazado urbano situada en Madrid que se ha simulado con una cubierta tradicional y una cubierta ajardinada en sus edificios. La estructura urbana seleccionada para este análisis comparativo es una red ortogonal con las calles principales orientadas este-oeste. El edificio típico que compone el vecindario se ha definido como “business as usual” (BAU) y se ha definido con una cubierta de baldosa de hormigón estándar, con un albedo 0.3, paredes con albedo 0.2 (construcción de muro de ladrillo típico) y cerramientos adiabáticos para evitar las posibles interferencias causadas por el intercambio térmico con el ambiente interior del edificio en los resultados del análisis. Para el caso de la cubierta ajardinada, se mantiene la misma geometría y características del edificio con excepción de la cobertura superficial de la azotea. Las baldosas de hormigón se han modificado con una cubierta ajardinada extensiva cubierta con plantas xerófilas, típicas en el clima de Madrid y caracterizado por su índice de densidad foliar, el “leaf area density” (LAD), que es la superficie total de superficie de hojas por unidad de volumen (m2/m3). El análisis se centra en los cañones urbanos entendidos como el espacio de calle comprendido entre los límites geométricos de la calle, verticales y horizontales, y el nivel superior de la cota urbana nivel de cubiertas. Los escenarios analizados se basan en la variación de la los principales parámetros que según la literatura analizada condicionan las variaciones microclimáticas en el ámbito urbano afectado por la vegetación, la velocidad del viento y el LAD de la azotea. Los resultados han sido registrados bajo condiciones de exposición solar diferentes. Las simulaciones fueron realizadas por los patrones de viento típico de verano, que para Madrid se caracterizan por vientos de componente suroeste que van desde 3 a 0 m/s. las simulaciones fueron realizadas para unas condiciones climáticas de referencia de 3, 2, 1 y 0 m/s a nivel superior del cañón urbano, como condición de contorno para el análisis. Los resultados calculados a 1,4 metros por encima del nivel del suelo, en el espacio habitado, mostraron que el efecto de la cubierta ajardinada era menor en condiciones de contorno con velocidades de viento más altas aunque en ningún caso el efecto de la cubierta verde sobre la temperatura del aire superó reducciones de temperatura de aire superiores a 1 º C. La humedad relativa no presentó variaciones significativas al comparar los diferentes escenarios. Las simulaciones realizadas para vientos con velocidad baja, entre 0 y 1 m/s mostraron que por debajo de 0.5 m/s la turbulencia del modelo aumentó drásticamente y se convirtió en el modelo inestable e incapaz de producir resultados fiables. Esto es debido al modelo de turbulencia en el software que no es válido para velocidades de viento bajas, lo que limita la capacidad de ENVI-met 4 para realizar simulaciones en estas condiciones de viento y es una de las principales conclusiones de este análisis en cuanto a la herramienta de simulación. También se comprobó el efecto de las densidades de la densidad de hoja (LAD) de los componentes vegetales en el modelo en la capa de aire inmediatamente superior a la cubierta, a 0,5 m sobre este nivel. Se compararon tres alternativas de densidad de hoja con la cubierta de baldosa de hormigón: el techo verde con LAD 0.3 (hierba típica o sedum), LAD 1.5 (plantas mixtas típicas) y LAD 2.5 (masa del árbol). Los resultados mostraron diferencias de temperatura muy relevante entre las diferentes alternativas de LAD analizadas. Los resultados muestran variaciones de temperatura que oscilan entre 3 y 5 º C al comparar el estándar de la azotea concreta con albedo 0, 3 con el techo con vegetación y vegetación densa, mostrando la importancia del LAD en la cuantificación de los efectos de las cubiertas vegetales en microclima circundante, lo que coincide con los datos reportados en la literatura existente y con los estudios empíricos analizados. Los resultados de los análisis teóricos han llegado a las siguientes conclusiones iniciales relacionadas con la herramienta de simulación y los resultados del modelo: En relación con la herramienta ENVI-met, se han observado limitaciones para el análisis. En primer lugar, la estructura rígida de la geometría, las bases de datos y el tamaño de la cuadrícula, limitan la escala y resolución de los análisis no permitiendo el desarrollo de grandes zonas urbanas. Por otro lado la estructura de ENVI-met permite el desarrollo de este tipo de simulación tan complejo dentro de tiempos razonables de cálculo y requerimientos computacionales convencionales. Otra limitación es el modelo de turbulencia del software, que no modela correctamente velocidades de viento bajas (entre 0 y 1 m/s), por debajo de 0,5 m/s el modelo da errores y no es estable, los resultados a estas velocidades no son fiables porque las turbulencias generadas por el modelo hacen imposible la extracción de patrones claros de viento y temperatura que permitan la comparación entre los escenarios de cubierta de hormigón y ajardinada. Además de las limitaciones anteriores, las bases de datos y parámetros de entrada en la versión pública del software están limitados y la complejidad de generar nuevos sistemas adaptándolos al edificio o modelo urbano que se quiera reproducir no es factible salvo en la versión profesional del software. Aparte de las limitaciones anteriores, los patrones de viento y perfiles de temperatura generados por ENVI-met concuerdan con análisis previos en los que se identificaban patrones de variación de viento y temperaturas en cañones urbanos con patrones de viento, relación de aspecto y dimensiones similares a los analizados en esta investigación. Por lo tanto, el software ha demostrado una buena capacidad para reproducir los patrones de viento en los cañones de la calle y capturar el efecto de enfriamiento producido por la cubierta verde en el cañón. En relación con el modelo, el resultado revela la influencia del viento, la radiación y el LAD en la temperatura del aire en cañones urbanos con relación de aspecto comprendida entre 0,5 y 1. Siendo el efecto de la cubierta verde más notable en cañones urbanos sombreados con relación de aspecto 1 y velocidades de viento en el nivel de “canopy” (por encima de la cubierta) de 1 m/s. En ningún caso las reducciones en la temperatura del aire excedieron 1 º C, y las variaciones en la humedad relativa no excedieron 1% entre los escenarios estudiados. Una vez que se han identificado los parámetros relevantes, que fueron principalmente la velocidad del viento y el LAD, se realizó un análisis experimental para comprobar los resultados obtenidos por el modelo. Para éste propósito se identificó una cubierta ajardinada de grandes dimensiones capaz de representar la escala urbana que es el objeto del estudio. El edificio usado para este fin fue el parking de la terminal 4 del aeropuerto internacional de Madrid. Aunque esto no es un área urbana estándar, la escala y la configuración del espacio alrededor del edificio fueron considerados aceptables para el análisis por su similitud con el contexto urbano objeto de estudio. El edificio tiene 800 x 200 m, y una altura 15 m. Está rodeado de vías de acceso pavimentadas con aceras conformando un cañón urbano limitado por el edificio del parking, la calle y el edificio de la terminal T4. El aparcamiento está cerrado con fachadas que configuran un espacio urbano de tipo cañón, con una relación de aspecto menor que 0,5. Esta geometría presenta patrones de viento y velocidad dentro del cañón que difieren ligeramente de los generados en el estudio teórico y se acercan más a los valores a nivel de canopo sobre la cubierta del edificio, pero que no han afectado a la tendencia general de los resultados obtenidos. El edificio cuenta con la cubierta ajardinada más grande en Europa, 12 Ha cubiertas por con una mezcla de hierbas y sedum y con un valor estimado de LAD de 1,5. Los edificios están rodeados por áreas plantadas en las aceras y árboles de sombra en las fachadas del edificio principal. El efecto de la cubierta ajardinada se evaluó mediante el control de temperaturas y humedad relativa en el cañón en un día típico de verano. La selección del día se hizo teniendo en cuenta las predicciones meteorológicas para que fuesen lo más semejantes a las condiciones óptimas para capturar el efecto de la cubierta vegetal sobre el microclima urbano identificadas en el modelo teórico. El 09 de julio de 2014 fue seleccionado para la campaña de medición porque las predicciones mostraban 1 m/s velocidad del viento y cielos despejados, condiciones muy similares a las condiciones climáticas bajo las que el efecto de la cubierta ajardinada era más notorio en el modelo teórico. Las mediciones se registraron cada hora entre las 9:00 y las 19:00 en 09 de julio de 2014. Temperatura, humedad relativa y velocidad del viento se registraron en 5 niveles diferentes, a 1.5, 4.5, 7.5, 11.5 y 16 m por encima del suelo y a 0,5 m de distancia de la fachada del edificio. Las mediciones fueron tomadas en tres escenarios diferentes, con exposición soleada, exposición la sombra y exposición influenciada por los árboles cercanos y suelo húmedo. Temperatura, humedad relativa y velocidad del viento se registraron con un equipo TESTO 410-2 con una resolución de 0,1 ºC para temperatura, 0,1 m/s en la velocidad del viento y el 0,1% de humedad relativa. Se registraron las temperaturas de la superficie de los edificios circundantes para evaluar su efecto sobre los registros usando una cámara infrarroja FLIR E4, con resolución de temperatura 0,15ºC. Distancia mínima a la superficie de 0,5 m y rango de las mediciones de Tª de - 20 º C y 250 º C. Los perfiles de temperatura extraídos de la medición in situ mostraron la influencia de la exposición solar en las variaciones de temperatura a lo largo del día, así como la influencia del calor irradiado por las superficies que habían sido expuestas a la radiación solar así como la influencia de las áreas de jardín alrededor del edificio. Después de que las medidas fueran tomadas, se llevaron a cabo las siguientes simulaciones para evaluar el impacto de la cubierta ajardinada en el microclima: a. estándar de la azotea: edificio T4 asumiendo un techo de tejas de hormigón con albedo 0.3. b. b. cubierta vegetal : T4 edificio asumiendo una extensa cubierta verde con valor bajo del LAD (0.5)-techo de sedum simple. c. c. cubierta vegetal: T4 edificio asumiendo una extensa cubierta verde con alta joven valor 1.5-mezcla de plantas d. d. cubierta ajardinada más vegetación nivel calle: el edificio T4 con LAD 1.5, incluyendo los árboles existentes a nivel de calle. Este escenario representa las condiciones actuales del edificio medido. El viento de referencia a nivel de cubierta se fijó en 1 m/s, coincidente con el registro de velocidad de viento en ese nivel durante la campaña de medición. Esta velocidad del viento se mantuvo constante durante toda la campaña. Bajo las condiciones anteriores, los resultados de los modelos muestran un efecto moderado de azoteas verdes en el microclima circundante que van desde 1 º a 2 º C, pero una contribución mayor cuando se combina con vegetación a nivel peatonal. En este caso las reducciones de temperatura alcanzan hasta 4 ºC. La humedad relativa sin embargo, no presenta apenas variación entre los escenarios con y sin cubierta ajardinada. Las temperaturas medidas in situ se compararon con resultados del modelo, mostrando una gran similitud en los perfiles definidos en ambos casos. Esto demuestra la buena capacidad de ENVI-met para reproducir el efecto de la cubierta ajardinada sobre el microclima y por tanto para el fin de esta investigación. Las diferencias más grandes se registraron en las áreas cercanas a las zonas superiores de las fachadas que estaban más expuestas a la radiación del sol y también el nivel del suelo, por la influencia de los pavimentos. Estas diferencias se pudieron causar por las características de los cerramientos en el modelo que estaban limitados por los datos disponibles en la base de datos de software, y que se diferencian con los del edificio real. Una observación importante derivada de este estudio es la contribución del suelo húmedo en el efecto de la cubierta ajardinada en la temperatura del aire. En el escenario de la cubierta ajardinada con los arboles existentes a pie de calle, el efecto del suelo húmedo contribuye a aumentar las reducciones de temperatura hasta 4.5ºC, potenciando el efecto combinado de la cubierta ajardinada y la vegetación a pie de calle. Se realizó un análisis final después de extraer el perfil horario de temperaturas en el cañón urbano influenciado por el efecto de las cubiertas ajardinadas y los árboles. Con esos perfiles modificados de temperatura y humedad se desarrolló un modelo energético en el edificio asumiendo un edificio cerrado y climatizado, con uso de oficinas, una temperatura de consigna de acuerdo al RITE de 26 ºC, y con los sistemas por defecto que establece el software para el cálculo de la demanda energética y que responden a ASHRAE 90.1. El software seleccionado para la simulación fue Design Builder, por su capacidad para generar simulaciones horarias y por ser una de las herramientas de simulación energética más reconocidas en el mercado. Los perfiles modificados de temperatura y humedad se insertaron en el año climático tipo y se condujo la simulación horaria para el día definido, el 9 de Julio. Para la simulación se dejaron por defecto los valores de conductancia térmica de los cerramientos y la eficiencia de los equipos de acuerdo a los valores que fija el estándar ASHRAE para la zona climática de Madrid, que es la 4. El resultado mostraba reducciones en el consumo de un día pico de hasta un 14% de reducción en las horas punta. La principal conclusión de éste estudio es la confirmación del potencial de las cubiertas ajardinadas como una estrategia para reducir la temperatura del aire y consumo de energía en los edificios, aunque este efecto puede ser limitado por la influencia de los vientos, la radiación y la especie seleccionada para el ajardinamiento, en especial de su LAD. Así mismo, en combinación con los bosques urbanos su efecto se potencia e incluso más si hay pavimentos húmedos o suelos porosos incluidos en la morfología del cañón urbano, convirtiéndose en una estrategia potencial para adaptar los ecosistemas urbanos el efecto aumento de temperatura derivado del cambio climático. En cuanto a la herramienta, ENVI-met se considera una buena opción para éste tipo de análisis dada su capacidad para reproducir de un modo muy cercano a la realidad el efecto de las cubiertas. Aparte de ser una herramienta validada en estudios anteriores, en el caso experimental se ha comprobado por medio de la comparación de las mediciones con los resultados del modelo. A su vez, los resultados y patrones de vientos generados en los cañones urbanos coinciden con otros estudios similares, concluyendo por tanto que es un software adecuado para el objeto de esta tesis doctoral. Como líneas de investigación futura, sería necesario entender el efecto de la cubierta ajardinada en el microclima urbano en diferentes zonas climáticas, así como un mayor estudio de otras variables que no se han observado en este análisis, como la temperatura media radiante y los indicadores de confort. Así mismo, la evaluación de otros parámetros que afectan el microclima urbano tales como variables geométricas y propiedades superficiales debería ser analizada en profundidad para tener un resultado que cubra todas las variables que afectan el microclima en el cañón urbano. ABSTRACT Climate Change is posing an urgency in the development of strategies able not only to mitigate but also adapt to the effects that this global problem is evidencing around the world. Heat waves, flooding and severe draughts increase the vulnerability of population, and this is especially critical in urban settlements. This has been extensively studied over the past decades, addressed from different perspectives and ranging from the regional heat island analysis to the building scale. Its understanding requires physical and dimensional analysis of this broad phenomenon and a deep analysis of the factors and the strategies which can offset it. In the search of solutions to this problem, green infrastructure elements such as green roofs, walls and urban forests arise as strategies able provide multiple regulating ecosystem services to the urban environment able to cope with climate change effects. This includes storm water management, heat island effect control, and improvement of air and water quality. Over the last decade, multiple studies have been developed to evaluate and quantify the ecosystem services provided by green roofs, however, specific regulating services addressing urban microclimate and their impact on the urban dwellers have not been widely quantified. This research tries to contribute to fill this gap and analyzes the effects of green roofs and urban forests on urban microclimate at pedestrian level, quantifying its potential for regulating ambient temperature in hot season in Mediterranean –continental climates. The study is divided into a sequence of analysis where the critical factors affecting the performance of the green roof system on the microclimate are identified and the effects of the green roof is tested in a real case study. The first step has been the definition of the object of study, through the analysis and review of theoretical and empirical papers that investigate the effects of covers landscaped in the built environment, in the context of its use as a tool for adaptation and mitigation of the impact of climate change on cities and urban development. This literature review, reveals the great potential of the plant systems as a tool for passive design capable of improving the climatic and microclimatic conditions in the cities, as well as its positive impact on the energy performance of buildings, but also the need for further analysis at the street scale where climate, urban surfaces and materials, and vegetation converge. This analysis requires a methodology where the thermal buildings response, the variations in the patterns of wind and the interaction of the vegetation are integrated, so a quantitative analysis can help to define the most effective strategies to achieve liveable urban spaces and collaterally, , the improvement of the surrounding buildings energy performance. In this specific scale research is needed and should be customized to every climate, urban condition and nature based strategy. In this context, the main objective for this research was the quantitative assessment of the Green roof impact on the urban microclimate at a neighbourhood scale in summer conditions in Mediterranean- continental climates. For the achievement of this main objective, the following secondary objectives have been set: • Identify the numerical models and calculation tools able to capture the effect of the roof garden on the microclimate. • Identify the enhancing or limiting parameter affecting this effect. • Quantification of the impact of the microclimate created on the energy consumption of buildings surrounding the street canyon analysed. The main hypothesis behind this research and where the above objectives are funded on is as follows: "An extensive roof installed in medium height buildings favours the establishment of microclimates at the pedestrian level and reduces the temperatures in the urban environment where they are located." For the purpose of verifying the above hypothesis and achieving the proposed objectives the following methodology has been followed: - Definition of hypothesis and objectives - Definition of the scope and limitations - Theoretical analysis of parameters affecting gren roof performance - Experimental analysis; - Energy modelling analyisis - Conclusions and future lines of work The search for suitable tools and models for meeting the objectives of this analysis has led to ENVI-met v4 as the most suitable software for this research. ENVI met is a three-dimensional micro-climate model designed to simulate the surface-plant-air interactions in urban environments. Based in the fundamental equations representing, mass, energy and momentum conservation, the software has the capacity of representing the complex phenomena characterizing the microclimate in urban canyons, overcoming the challenge posed by the computing requirements of a full calculus based on finite elements done via traditional computational fluid dynamics tools. Once the analysis tool has been defined, a first set of analysis has been developed to identify the main parameters affecting the green roof influence on the microclimate. In this analysis, two different scenarios are compared. A neighborhood with standard concrete tile roof and the same configuration substituting the concrete tile by an extensive green roof. Once the scenarios have been modeled, different iterations have been run to identify the influence of different wind patterns, solar exposure and roof vegetation type on the microclimate, since those are the most relevant variables affecting urban microclimates. These analysis have been run to check the conditions under which the effects of green roofs get significance. Since ENVI-met V4 is a predictive software, the first step has been the definition of the initial weather conditions which are then used as starting point by the software, which generates its own daily temperature and humidity profile based on the location of the building, geometry, vegetation and the surfaces physical characteristics. The base geometry used for this first analysis has been based on a typical urban layout structure located in Madrid, an orthogonal net with the main streets oriented East-West to ease the analysis of solar radiation in the different points of the model. This layout represents a typical urban neighborhood, with street canyons keeping an aspect ratio between 0.5 and 1 and high sky view factor to ensure correct sun access to the streets and buildings and work with typical wind flow patterns. Finally, the roof vegetation has been defined in terms of foliage density known as Leaf Area Density (LAD) and defined as the total one-sided leaf area per unit of layer volume. This index is the most relevant vegetation characteristic for the purpose of calculating the effect of vegetation on wind and solar radiation as well as the energy consumed during its metabolic processes. The building as usual (BAU) configuring the urban layout has been defined with standard concrete tile roofs, considering 0.3 albedo. Walls have been set with albedo 0.2 (typical brick wall construction) and adiabatic to avoid interference caused by thermal interchanges with the building indoor environment. For the proposed case, the same geometry and building characteristics have been kept. The only change is the roof surface coverage. The gravel on the roof has been changed with an extensive green roof covered with drought tolerant plants, typical in Madrid climate, and characterized by their LAD. The different scenarios analysed are based in the variation of the wind speed and the LAD of the roof. The results have been recorded under different sun exposure conditions. Simulations were run for the typical summer wind patterns, that for Madrid are characterized by South-west winds ranging from 3 to 0 m/s. Simulations were run for 3, 2, 1 and 0 m/s at urban canopy level. Results taken at 1.4 m above the ground showed that the green roof effect was lower with higher wind speeds and in any case the effect of the green roof on the air temperatures exceeded air temperature reductions higher than 1ºC. Relative humidity presented no variations when comparing the different scenarios. For the analysis at 0m/s, ENVI-met generated error and no results were obtained. Different simulations showed that under 0.5 m/s turbulence increased dramatically and the model became unstable and unable to produce reliable results. This is due to the turbulence model embedded in the software which is not valid for low wind speeds (below 1 m/s). The effect of the different foliage densities was also tested in the model. Three different alternatives were compared against the concrete roof: green roof with LAD 0.3 ( typical grass or sedum), 1.5 (typical mixed plants) and 2.5 (tree mass). The results showed very relevant temperature differences between the different LAD alternatives analyzed. Results show temperature variations ranging between 3 and 5 ºC when comparing the standard concrete roof with albedo 0, 3 with the vegetated roof and vegetated mass, showing the relevance of the LAD on the effects of green roofs on microclimate. This matches the data reported in existing literature and empirical studies and confirms the relevance of the LAD in the roof effect on the surrounding microclimate. The results of the theoretical analysis have reached the following initial conclusions related to both, the simulation tool and the model results: • In relation to the tool ENVI-met, some limitations for the analysis have been observed. In first place, the rigid structure of the geometry, the data bases and the grid size, limit the scale and resolution of the analysis not allowing the development of large urban areas. On the other hand the ENVI-met structure enables the development of this type of complex simulation within reasonable times and computational requirements for the purpose of this analysis. Additionally, the model is unable to run simulations at wind speeds lower than 0.5 m/s, and even at this speed, the results are not reliable because the turbulences generated by the model that made impossible to extract clear temperature differences between the concrete and green roof scenarios. Besides the above limitations, the wind patterns and temperature profiles generated by ENVImet are in agreement with previous analysis identifying wind patterns in urban canyons with similar characteristics and aspect ratio. Therefore the software has shown a good capacity for reproducing the wind effects in the street canyons and seems to capture the cooling effect produced by the green roof. • In relation to the model, the results reveals the influence of wind, radiation and LAD on air temperature in urban canyons with aspect ratio comprised between 0.5 and 1. Being the effect of the green roof more noticeable in shaded urban canyons with aspect ratio 1 and wind speeds of 1 m/s. In no case the reductions in air temperature exceeded 1ºC. Once the relevant parameters have been identified, mainly wind speed and LAD, an experimental analysis was conducted to test the results obtained by the model. For this purpose a large green roof was identified, able to represent the urban scale which is the object of the studio. The building identified for this purpose was the terminal 4, parking building of the international Madrid Airport. Even though this is not a standard urban area, the scale and configuration of the space around the building were deemed as acceptable for the analysis. The building is an 800x200 m, 15 m height parking building, surrounded by access paved paths and the terminal building. The parking is enclosed with facades that configure an urban canyon-like space, although the aspect ratio is lower than 0.5 and the wind patterns might differ from the theoretical model run. The building features the largest green roof in Europe, a 12 Ha extensive green roof populated with a mix of herbs and sedum with a LAD of 1.5. The buildings are surrounded by planted areas at the sidewalk and trees shading the main building facades. Green roof performance was evaluated by monitoring temperatures and relative humidity in the canyon in a typical summer day. The day selection was done taking into account meteorological predictions so the weather conditions on the measurement day were as close as possible as the optimal conditions identified in terms of green roof effects on the urban canyon. July 9th 2014 was selected for the measurement campaign because the predictions showed 1 m/s wind speed and sunny sky, which were very similar to the weather conditions where the effect of the green roof was most noticeable in the theory model. Measurements were registered hourly from 9:00am to 19:00 on July 9th 2014. Temperature, relative humidity and wind speed were recorded at 5 different levels, at 1.5, 4.5, 7.5, 11.5 and 16 m above ground and at 0.5 m distance from the building façade. Measurements were taken in three different scenarios, sunny exposure, shaded exposure, and shaded exposure influenced by nearby trees and moist soil. Temperature, relative humidity and wind speed were registered using a TESTO 410-2 anemometer, with 0.1ºC resolution for temperature, 0.1 m/s resolution for wind speed and 0.1 % for relative humidity. Surface temperatures were registered using an infrared camera FLIR E4, with temperature resolution 0.15ºC. Minimal distance to surface of 0.5 m and Tª measurements range from -20ºC and 250ºC. The temperature profiles measured on the site showed the influence of solar exposure on the temperature variations along the day, as well as the influence of the heat irradiated by the building surfaces which had been exposed to the sun radiation and those influenced by the moist soft areas around the building. After the measurements were taken, the following simulations were conducted to evaluate the impact of the green roof on the microclimate: a. Standard roof: T4 building assuming a concrete tile roof with albedo 0.3. b. Green roof: T4 building assuming an extensive green roof with low LAD value (0.5)-Simple Sedum roof. c. Green roof: T4 building assuming an extensive green roof with high LAD value 1.5- Lucerne and grasses d. Green roof plus street level vegetation: T4 Building, LAD 1.5 (Lucerne), including the existing trees at street level. This scenario represents the current conditions of the building. The urban canopy wind was set as 1 m/s, the wind speed register at that level during the measurement campaign. This wind speed remained constant over the whole campaign. Under the above conditions, the results of the models show a moderate effect of green roofs on the surrounding microclimate ranging from 1ºC to 2ºC, but a larger contribution when combining it with vegetation at pedestrian level, where 4ºC temperature reductions are reached. Relative humidity remained constant. Measured temperatures and relative humidity were compared to model results, showing a close match in the profiles defined in both cases and the good capacity of ENVI met to capture the impact of the green roof in this analysis. The largest differences were registered in the areas close to the top areas of the facades which were more exposed to sun radiation and also near to the soil level. These differences might be caused by differences between the materials properties included in the model (which were limited by the data available in the software database) and those in the real building. An important observation derived from this study is the contribution of moist soil to the green roof effect on air temperatures. In the green roof scenario with surrounding trees, the effect of the moist soil contributes to raise the temperature reductions at 4.5ºC. A final analysis was conducted after extracting the hourly temperature profile in the street canyon influenced by the effect of green roofs and trees. An energy model was run on the building assuming it was a conventional enclosed building. Energy demand reductions were registered in the building reaching up to 14% reductions at the peak hour. The main conclusion of this study is the potential of the green roofs as a strategy for reducing air temperatures and energy consumption in the buildings, although this effect can be limited by the influence of high speed winds. This effect can be enhanced its combination with urban forests and even more if soft moist pavements are included in the urban canyon morphology, becoming a potential strategy for adapting urban ecosystems to the increasing temperature effect derived from climate change.
Resumo:
Complejidad y contradicción en la arquitectura ha resultado ser una de las referencias capitales más aludidas, citadas y reproducidas de la literatura arquitectónica de los tiempos recientes. No en vano, en la introducción de la propia obra, Vincent Scully afirmó que «probablemente es el texto más importante sobre arquitectura desde ‘Vers une Architecture’, escrito por Le Corbusier en 1923». Sin embargo, sus fuentes parece que están inexploradas o, al menos, no examinadas. Por ello, Road to 1966 se plantea como un trabajo de investigación con tres objetivos de partida fundamentales: (1) el interés en estudiar el debate arquitectónico candente, creado con las fricciones surgidas entre los protagonistas de unos años que cambiaron el estado de lo que se consideraba una obra legítima en arquitectura; (2) se pretende ampliar la cronología del desarrollo intelectual de un texto, el de Venturi, que marcó la segunda mitad del siglo xx, de manera retroactiva hasta los años de la II Guerra Mundial, cuando parece que empezaban a ser coherentes y reconocibles unas nuevas posiciones desde las que aproximarse a las cuestiones de la práctica, la teoría y la historia de la arquitectura; (3) poder ofrecer una nueva interpretación de dicho texto de Venturi, entendido no como el origen primigenio de parte de las grandes transformaciones de la arquitectura reciente (de los últimos cincuenta años), sino como el resultado necesario de esa cronología intelectual previa. La arquitectura norteamericana de estos años de posguerra ha resultado ser crucial en su posterior desarrollo, y, especialmente, en relación al libro de Venturi. De hecho, Scully en la introducción de la edición original de Complejidad y contradicción, señalaba que «el principal argumento del libro está expuesto a finales de los cincuenta». Que la arquitectura del siglo xx tiene en la Norteamérica de los años sesenta -cuando se consolida la figura de Venturi- uno de sus capítulos más decisivos, frecuentemente asumido como el paso siguiente a la importada modernidad heroica europea, hoy parece no ser discutido por casi nadie. Ahora bien: ¿qué ocurre con los años intermedios? ¿Qué acontece entre el final de la II Guerra Mundial y esos años sesenta? La posible carencia de una postura dominante y clara quizás haya sumido esta etapa en un cierto olvido o descuido por parte de historiadores y críticos. Así, este trabajo se estructura alrededor del papel que ocupa el texto venturiano, sin ser éste su único protagonista. Tomado más bien como excusa, la tesis va profundizando de manera deductiva en el conjunto de circunstancias que pudieron llevar a su autor hacia las conclusiones que desarrolló, detectando los ambientes biográficos y formativos, pensamientos compartidos e influencias epistemológicas y profesionales mutuas, que justificarían una novedosa interpretación de dicho texto como el corolario necesario de un panorama de crisis y cambios - éste sí protagonista en este trabajo-, al contrario de cómo habitualmente se ha venido entendiendo dicha obra. La investigación se centra predominantemente en el rastreo de las fuentes citadas por el propio Venturi en su libro, así como de los textos de mayor difusión (generalmente revistas profesionales no exclusivamente académicas, además de libros, catálogos de exposiciones, actas de simposios…), y no tanto en las obras construidas o proyectadas; sí, quizás, en los términos en los que dichas obras fueron publicadas, comentadas o reseñadas. Así, se ha adoptado una aproximación concebida sub specie bibliotecae, donde se han aplicado unos métodos de trabajo caracterizados por su componente cronológica, y, después, analítico-comparativa: dicho de otro modo, un método historiográfico-periodístico capaz de relacionar las historias o cursos de ciertas ideas o nociones, dentro de un contexto general más amplio en sus derivadas arquitectónicas, estéticas, socio-generacionales, culturales, filosóficas, científicas, políticas, literarias… Con ello, se pretende establecer una relectura del primer libro de Venturi y sus años de gestación desde unas nuevas concepciones, más modernas que postmodern(ist)as, proponiendo una posible evolución en la arquitectura más reciente cuyas raíces, a fin de cuentas, tendrían su origen en la Norteamérica de 1946 a 1966. ABSTRACT Complexity and Contradiction in Architecture has proved to be one of the capital, alluded references cited and reproduced in the architectural literature of the recent times. Not surprisingly, in the Introduction to the book, Vincent Scully wrote that "yet it is probably the most important writing on the making of architecture since Le Corbusier´s ‘Vers une Architecture’, of 1923". However, its sources seem to be unexplored or at least not examined. Therefore, Road to 1966 is presented as a research with three fundamental starting objectives: (1) first, the interest in studying the burning architectural debate, created within the arising frictions among the protagonists of the years that changed the status of what was considered a legitimate work in architecture; (2) second, it seeks to extend the chronology of the intellectual background of the book written by Venturi, which marked the second half of the twentieth century, in a retroactive manner to the years of the World War II, when it seems that some new positions from which to approach the issues of practice, theory and history of architecture began to be consistent and recognizable; (3) lastly, to offer a new interpretation of Venturi’s text, now understood not as the primal source of the great transformations of the recent architecture (of the last fifty years), but as the necessary result of that background intellectual chronology. The American architecture of these post-war years has proved to be crucial in its later stages, and especially in relation to the book of Robert Venturi. In fact, Scully in the Introduction to the first edition of Complexity and Contradiction, noted that "the major argument of this book was laid out in the late fifties". The fact that the architecture of the twentieth century –when the leading figure of Venturi was consolidated- has in the North America of the sixties one of its most decisive chapters, (often assumed as the next step to the imported European heroic modernism) today seems to be discussed by almost anyone. Now, what about the intervening years? What happens between the end of the World War II and the sixties? The potential lack of a clear dominant position of this stage may have plunged it into oblivion or oversight by historians and critics. Thus, this research is structured around the role that occupies Venturi’s work, whereas this is not its only subject. Rather taken as an excuse, the thesis deepens deductively in the set of circumstances that could lead its author to the conclusions he developed in 1966, detecting biographical and academic environments, shared thoughts and epistemological and mutual professional influences, that would justify a new interpretation of this book as a necessary corollary of an outlook of crisis and change (this major and center subject in this dissertation), contrary to what has been commonly understood upon this work. The research focuses predominantly on tracing the sources cited by Venturi himself in his book, as well as other texts of wider dissemination and outreach (usually professional journals not exclusively academic, as well as books, catalogs of exhibitions, symposia proceedings...), and not so much in the buildings or unbuilt projects; but also, perhaps, it is focused in the terms in which these works were published, commented or reviewed. Hence an approach conceived sub specie bibliotecae has been adopted, with working methods characterized by their chronological component, and then the analytical-comparative one: in other words, a historiographicaljournalistic method able to relate stories or courses of certain ideas or notions, within a broader general context in its architectural, aesthetic, sociological-generational, cultural, philosophical, scientific, political, literary... sides. This approach intends to establish a re-reading of Venturi’s first book and its years of gestation, from some new understandings, more modern than postmodern(ist), proposing a possible evolution of the latest architecture whose roots, after all, would have their origin in the North America of 1946-1966.
Resumo:
El presente trabajo ofrece el planteamiento de una línea de investigación acerca de la relación entre la filosofía y el estudio de los sistemas complejos. En primer lugar, presenta un estudio sobre los principales conceptos que se emplean a la hora de estudiar este tipo de sistemas (auto-organización, emergencia, retroalimentación, etc.). A continuación, da cuenta de que la ambigüedad de estos conceptos provoca dificultades en el estudio de los sistemas complejos. A partir de estas observaciones, se propone que la filosofía, haciendo uso de herramientas tales como la lógica, la ontología (principalmente mereología) y las simulaciones computacionales puede tratar de definir de manera rigurosa estos conceptos, con el objeto de ofrecer un marco unificado para el estudio de los sistemas complejos.
Resumo:
As expectativas da Organização Mundial de Saúde para o ano de 2030 são que o número de mortes por câncer seja de aproximadamente 13,2 milhões, evidenciando a elevada parcela desta doença no problema de saúde mundial. Com relação ao câncer de próstata, de acordo com o Instituto Nacional do Câncer, o número de casos diagnosticados no mundo em 2012 foi de aproximadamente 1,1 milhão, enquanto que no Brasil os dados indicam a incidência de 68 mil novos casos. O tratamento deste tipo de neoplasia pode ser realizado com cirurgia (prostatectomia) ou radioterapia. Dentre a radioterapia, podemos destacar a técnica de braquiterapia, a qual consiste na introdução (implante) de pequenas fontes radioativas (sementes) no interior da próstata, onde será entregue um valor elevado de dose no volume de tratamento e baixa dose nos tecidos ao redor. No Brasil, a classe médica estima uma demanda de aproximadamente 8000 sementes/mês, sendo o custo unitário de cada semente de pelo menos U$ 26,00. A Associação Americana de Físicos na Medicina publicou alguns documentos descrevendo quais parâmetros e análises devem ser realizadas para avaliações da distribuição de dose, como por exemplo, os parâmetros Constante de taxa de dose, Função radial e Função de anisotropia. Estes parâmetros podem ser obtidos através de medidas experimentais da distribuição de dose ou por simulações computacionais. Neste trabalho foram determinados os parâmetros dosimétricos da semente OncoSeed-6711 da empresa Oncura-GEHealthcare e da semente desenvolvida pelo Grupo de Dosimetria de Fontes de Braquiterapia do Centro de Tecnologia das Radiações (CTR IPEN-CNEN/SP) por simulação computacional da distribuição de dose utilizando o código MCNP5, baseado no Método de Monte Carlo. A semente 6711 foi modelada, assim como um sistema dosimétrico constituído por um objeto simulador cúbico de 30x30x30 cm3 preenchido com água. Os valores obtidos da semente 6711 foram comparados com alguns apresentados na literatura, onde o parâmetro Constante de taxa de dose apresentou erro relativo em relação ao valor publicado no TG- 43 de 0,1%, sendo que os outros parâmetros analisados também apresentaram boa concordância com os valores publicados na literatura. Deste modo, pode-se considerar que os parâmetros utilizados nas simulações (espectro, modelagem geométrica e avaliação de resultados) estão compatíveis com outros estudos, sendo estes parâmetros também utilizados nas simulações da semente do IPEN. Considerando as análises de incerteza estatística, os valores obtidos da semente do IPEN são semelhantes aos valores da semente 6711.
Resumo:
Esta tese apresenta uma abordagem para a criação rápida de modelos em diferentes geometrias (complexas ou de alta simetria) com objetivo de calcular a correspondente intensidade espalhada, podendo esta ser utilizada na descrição de experimentos de es- palhamento à baixos ângulos. A modelagem pode ser realizada com mais de 100 geome- trias catalogadas em um Banco de Dados, além da possibilidade de construir estruturas a partir de posições aleatórias distribuídas na superfície de uma esfera. Em todos os casos os modelos são gerados por meio do método de elementos finitos compondo uma única geometria, ou ainda, compondo diferentes geometrias, combinadas entre si a partir de um número baixo de parâmetros. Para realizar essa tarefa foi desenvolvido um programa em Fortran, chamado de Polygen, que permite modelar geometrias convexas em diferentes formas, como sólidos, cascas, ou ainda com esferas ou estruturas do tipo DNA nas arestas, além de usar esses modelos para simular a curva de intensidade espalhada para sistemas orientados e aleatoriamente orientados. A curva de intensidade de espalhamento é calculada por meio da equação de Debye e os parâmetros que compõe cada um dos modelos, podem ser otimizados pelo ajuste contra dados experimentais, por meio de métodos de minimização baseados em simulated annealing, Levenberg-Marquardt e algorítmicos genéticos. A minimização permite ajustar os parâmetros do modelo (ou composição de modelos) como tamanho, densidade eletrônica, raio das subunidades, entre outros, contribuindo para fornecer uma nova ferramenta para modelagem e análise de dados de espalhamento. Em outra etapa desta tese, é apresentado o design de modelos atomísticos e a sua respectiva simulação por Dinâmica Molecular. A geometria de dois sistemas auto-organizado de DNA na forma de octaedro truncado, um com linkers de 7 Adeninas e outro com linkers de ATATATA, foram escolhidas para realizar a modelagem atomística e a simulação por Dinâmica Molecular. Para este sistema são apresentados os resultados de Root Mean Square Deviations (RMSD), Root Mean Square Fluctuations (RMSF), raio de giro, torção das hélices duplas de DNA além da avaliação das ligações de Hidrogênio, todos obtidos por meio da análise de uma trajetória de 50 ns.
Resumo:
No gerenciamento de recursos hídricos, a bacia hidrográfica é considerada a unidade natural de gestão. Suas características físicas definem um espaço onde a água converge para uma saída comum. O desenvolvimento integrado de uma bacia, bem como os possíveis conflitos ocasionados por demandas concorrentes do mesmo recurso, devem ser administrados respeitando esse conceito de unidade. No caso específico da bacia hidrográfica do Rio Jaguari, existe uma crescente preocupação relacionada aos usos múltiplos da água superficial. O rio Jaguari, importante afluente do Paraíba do Sul no estado de São Paulo, tem suas águas represadas para geração de energia elétrica e regularização de vazões. Nos últimos anos, tem-se constatado um crescente rebaixamento dos níveis operacionais da represa do Jaguari. Segundo estudos da sociedade civil organizada local, a tendência é de esgotamento do reservatório em poucos anos. Este trabalho aborda a questão do rebaixamento dos níveis de Jaguari através da aplicação do software DHI Mike Basin 2000. Trata-se de um simulador genérico para sistemas de recursos hídricos, de ampla aplicação. A bacia do Jaguari é representada em um modelo matemático e são simulados quatro cenários distintos de usos de água na bacia. Verifica-se que o problema é real e requer uma intervenção multi-institucional para ser solucionado.
Resumo:
Este trabalho trata do desenvolvimento de um sistema computacional, para a geração de dados e apresentação de resultados, específico para as estruturas de edifícios. As rotinas desenvolvidas devem trabalhar em conjunto com um sistema computacional para análise de estruturas com base no Método dos Elementos Finitos, contemplando tanto as estruturas de pavimentos; com a utilização de elementos de barra, placa/casca e molas; como as estruturas de contraventamento; com a utilização de elementos de barra tridimensional e recursos especiais como nó mestre e trechos rígidos. A linguagem computacional adotada para a elaboração das rotinas mencionadas é o Object Pascal do DELPHI, um ambiente de programação visual estruturado na programação orientada a objetos do Object Pascal. Essa escolha tem como objetivo, conseguir um sistema computacional onde alterações e adições de funções possam ser realizadas com facilidade, sem que todo o conjunto de programas precise ser analisado e modificado. Por fim, o programa deve servir como um verdadeiro ambiente para análise de estruturas de edifícios, controlando através de uma interface amigável com o usuário uma série de outros programas já desenvolvidos em FORTRAN, como por exemplo o dimensionamento de vigas, pilares, etc.
Resumo:
Na mesma proporção que fontes de água potável são reduzidas, a competição por elas tem aumentado, conseqüência imediata da expansão de áreas urbanas e de novas demandas agro-industriais. Os conflitos gerados por esta competição tendem a comprometer o desenvolvimento sustentável e o progresso de uma forma geral, uma vez que resultam em perda de eficácia para vultuosos investimentos públicos e privados e em prejuízos para os usuários menos estruturados. Considerando os fatos acima, o objeto deste trabalho é o estabelecimento de cenários de alocação das disponibilidades hídricas entre usuários de água da bacia do Sapucaí-Mirim/Grande, visando determinar a convivência harmoniosa das várias finalidades de uso provenientes do mesmo recurso hídrico. Tal meta poderá ser alcançada através da análise dos indicadores de desempenho - confiabilidade, vulnerabilidade e resiliência - do sistema os quais serão obtidos com o auxílio do modelo de simulação IRAS (Interactive River Aquifer Simulation).
Resumo:
Fundamental a vida e ao desenvolvimento de qualquer sociedade, a água é um bem precioso e limitado que está se esgotando e sendo motivo de preocupação mundial. O desperdício, a distribuição desigual, o aumento do consumo e a degradação da qualidade da água são motivos que a tornaram escassa e trouxeram à tona a importância do planejamento e gerenciamento dos recursos hídricos. Frente a esta situação, este trabalho buscou avaliar a disponibilidade hídrica quantitativa e qualitativa da bacia hidrográfica do rio Sapucaí-Mirim, SP. Através da aplicação do simulador hidrológico MIKE BASIN, foi analisado o desempenho do sistema de recursos hídricos, o conflito existente entre os usos múltiplos e a concentração dos parâmetros OD e DBO nas águas do rio que recebe efluentes domésticos, muitos deles sem nenhum tratamento. Apesar da quantidade de água ser suficiente para atender às demandas, o estudo mostra que a geração de energia elétrica está comprometida e a água está se esgotando qualitativamente, evidenciando a necessidade e urgência de se implantar estações de tratamento de esgoto.
Resumo:
Neste projeto foi desenvolvido um método computacional para verificação da melhor combinação tela intensificadora - filme para exames mamográficos através do estudo de suas características sensitométricas. O software, desenvolvido em ambiente Delphi para windows, apresenta na tela do microcomputador a imagem a ser obtida para cada tipo de combinação tela intensificadora - filme, utilizando imagens de \"Phantoms\" e de mamas reais. Em razão da ampla quantidade de fatores que influenciam a imagem mamográfica final, tais como magnificação, característica dos filmes e telas intensificadoras e condições da processadora, o método proposto pode proporcionar uma ampla avaliação da qualidade dos sistemas de imagem mamográfica de uma forma simples, rápida e automática, através de procedimentos de simulação computacional. A simulação investigou a influência que um determinado sistema de registro exerce sobre a qualidade da imagem, possibilitando conhecer previamente a imagem final a ser obtida com diferentes equipamentos e sistemas de registro. Dentre os sistemas investigados, três filmes (Kodak Min R 2000, Fuji UM MA-HC e Fuji ADM) e duas telas intensificadoras (Kodak Min R 2000 e Fuji AD Mammo Fine), aquele que apresentou melhores resultados, com melhor qualidade de imagens e menor exposição à paciente foi o de tela Min R 2000 com filme Min R 2000 da Kodak.