1000 resultados para Modelos de ajuste parcial


Relevância:

30.00% 30.00%

Publicador:

Resumo:

En la mayoría de problemas de decisión a los que nos enfrentamos no hay evidencia sobre cuál es la mejor elección debido a la complejidad de los mismos. Esta complejidad está asociada a la existencia de múltiples objetivos conflictivos y a que en muchos casos solo se dispone de información incompleta o imprecisa sobre los distintos parámetros del modelo de decisión. Por otro lado, el proceso de toma de decisiones se puede realizar en grupo, debiendo incorporar al modelo las preferencias individuales de cada uno de los decisores y, posteriormente, agregarlas para alcanzar un consenso final, lo que dificulta más todavía el proceso de decisión. La metodología del Análisis de Decisiones (AD) es un procedimiento sistemático y lógico que permite estructurar y simplificar la tarea de tomar decisiones. Utiliza la información existente, datos recogidos, modelos y opiniones profesionales para cuantificar la probabilidad de los valores o impactos de las alternativas y la Teoría de la Utilidad para cuantificar las preferencias de los decisores sobre los posibles valores de las alternativas. Esta tesis doctoral se centra en el desarrollo de extensiones del modelo multicriterio en utilidad aditivo para toma de decisiones en grupo con veto en base al AD y al concepto de la intensidad de la dominancia, que permite explotar la información incompleta o imprecisa asociada a los parámetros del modelo. Se considera la posibilidad de que la importancia relativa que tienen los criterios del problema para los decisores se representa mediante intervalos de valores o información ordinal o mediante números borrosos trapezoidales. Adicionalmente, se considera que los decisores tienen derecho a veto sobre los valores de los criterios bajo consideración, pero solo un subconjunto de ellos es efectivo, teniéndose el resto solo en cuenta de manera parcial. ABSTRACT In most decision-making problems, the best choice is unclear because of their complexity. This complexity is mainly associated with the existence of multiple conflicting objectives. Besides, there is, in many cases, only incomplete or inaccurate information on the various decision model parameters. Alternatively, the decision-making process may be performed by a group. Consequently, the model must account for individual preferences for each decision-maker (DM), which have to be aggregated to reach a final consensus. This makes the decision process even more difficult. The decision analysis (DA) methodology is a systematic and logical procedure for structuring and simplifying the decision-making task. It takes advantage of existing information, collected data, models and professional opinions to quantify the probability of the alternative values or impacts and utility theory to quantify the DM’s preferences concerning the possible alternative values. This PhD. thesis focuses on developing extensions for a multicriteria additive utility model for group decision-making accounting for vetoes based on DA and on the concept of dominance intensity in order to exploit incomplete or imprecise information associated with the parameters of the decision-making model. We consider the possibility of the relative importance of criteria for DMs being represented by intervals or ordinal information, or by trapezoidal fuzzy numbers. Additionally, we consider that DMs are allowed to provide veto values for the criteria under consideration, of which only a subset are effective, whereas the remainder are only partially taken into account.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La mecanización de las labores del suelo es la causa, por su consumo energético e impacto directo sobre el medio ambiente, que más afecta a la degradación y pérdida de productividad de los suelos. Entre los factores de disminución de la productividad se deben considerar la compactación, la erosión, el encostramiento y la pérdida de estructura. Todo esto obliga a cuidar el manejo agrícola de los suelos tratando de mejorar las condiciones del suelo y elevar sus rendimientos sin comprometer aspectos económicos, ecológicos y ambientales. En el presente trabajo se adecuan los parámetros constitutivos del modelo de Drucker Prager Extendido (DPE) que definen la fricción y la dilatancia del suelo en la fase de deformación plástica, para minimizar los errores en las predicciones durante la simulación de la respuesta mecánica de un Vertisol mediante el Método de Elementos Finitos. Para lo cual inicialmente se analizaron las bases teóricas que soportan este modelo, se determinaron las propiedades y parámetros físico-mecánicos del suelo requeridos como datos de entrada por el modelo, se determinó la exactitud de este modelo en las predicciones de la respuesta mecánica del suelo, se estimaron mediante el método de aproximación de funciones de Levenberg-Marquardt los parámetros constitutivos que definen la trayectoria de la curva esfuerzo-deformación plástica. Finalmente se comprobó la exactitud de las predicciones a partir de las adecuaciones realizadas al modelo. Los resultados permitieron determinar las propiedades y parámetros del suelo, requeridos como datos de entrada por el modelo, mostrando que su magnitud está en función su estado de humedad y densidad, además se obtuvieron los modelos empíricos de estas relaciones exhibiendo un R2>94%. Se definieron las variables que provocan las inexactitudes del modelo constitutivo (ángulo de fricción y dilatancia), mostrando que las mismas están relacionadas con la etapa de falla y deformación plástica. Finalmente se estimaron los valores óptimos de estos ángulos, disminuyendo los errores en las predicciones del modelo DPE por debajo del 4,35% haciéndelo adecuado para la simulación de la respuesta mecánica del suelo investigado. ABSTRACT The mechanization using farming techniques is one of the main factors that affects the most the soil, causing its degradation and loss of productivity, because of its energy consumption and direct impact on the environment. Compaction, erosion, crusting and loss of structure should be considered among the factors that decrease productivity. All this forces the necessity to take care of the agricultural-land management trying to improve soil conditions and increase yields without compromising economic, ecological and environmental aspects. The present study was aimed to adjust the parameters of the Drucker-Prager Extended Model (DPE), defining friction and dilation of soil in plastic deformation phase, in order to minimize the error of prediction when simulating the mechanical response of a Vertisol through the fine element method. First of all the theoretic fundamentals that withstand the model were analyzed. The properties and physical-mechanical parameters of the soil needed as input data to initialize the model, were established. And the precision of the predictions for the mechanical response of the soil was assessed. Then the constitutive parameters which define the path of the plastic stress-strain curve were estimated through Levenberg-Marquardt method of function approximations. Lastly the accuracy of the predictions from the adequacies made to the model was tested. The results permitted to determine those properties and parameters of the soil, needed in order to initialize the model. It showed that their magnitude is in function of density and humidity. Moreover, the empirical models from these relations were obtained: R2>94%. The variables producing inaccuracies in the constitutive model (angle of repose and dilation) were defined, and there was showed that they are linked with the plastic deformation and rupture point. Finally the optimal values of these angles were established, obtaining thereafter error values for the DPE model under 4, 35%, and making it suitable for the simulation of the mechanical response of the soil under study.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta tesis doctoral se enmarca dentro del campo de los sistemas embebidos reconfigurables, redes de sensores inalámbricas para aplicaciones de altas prestaciones, y computación distribuida. El documento se centra en el estudio de alternativas de procesamiento para sistemas embebidos autónomos distribuidos de altas prestaciones (por sus siglas en inglés, High-Performance Autonomous Distributed Systems (HPADS)), así como su evolución hacia el procesamiento de alta resolución. El estudio se ha llevado a cabo tanto a nivel de plataforma como a nivel de las arquitecturas de procesamiento dentro de la plataforma con el objetivo de optimizar aspectos tan relevantes como la eficiencia energética, la capacidad de cómputo y la tolerancia a fallos del sistema. Los HPADS son sistemas realimentados, normalmente formados por elementos distribuidos conectados o no en red, con cierta capacidad de adaptación, y con inteligencia suficiente para llevar a cabo labores de prognosis y/o autoevaluación. Esta clase de sistemas suele formar parte de sistemas más complejos llamados sistemas ciber-físicos (por sus siglas en inglés, Cyber-Physical Systems (CPSs)). Los CPSs cubren un espectro enorme de aplicaciones, yendo desde aplicaciones médicas, fabricación, o aplicaciones aeroespaciales, entre otras muchas. Para el diseño de este tipo de sistemas, aspectos tales como la confiabilidad, la definición de modelos de computación, o el uso de metodologías y/o herramientas que faciliten el incremento de la escalabilidad y de la gestión de la complejidad, son fundamentales. La primera parte de esta tesis doctoral se centra en el estudio de aquellas plataformas existentes en el estado del arte que por sus características pueden ser aplicables en el campo de los CPSs, así como en la propuesta de un nuevo diseño de plataforma de altas prestaciones que se ajuste mejor a los nuevos y más exigentes requisitos de las nuevas aplicaciones. Esta primera parte incluye descripción, implementación y validación de la plataforma propuesta, así como conclusiones sobre su usabilidad y sus limitaciones. Los principales objetivos para el diseño de la plataforma propuesta se enumeran a continuación: • Estudiar la viabilidad del uso de una FPGA basada en RAM como principal procesador de la plataforma en cuanto a consumo energético y capacidad de cómputo. • Propuesta de técnicas de gestión del consumo de energía en cada etapa del perfil de trabajo de la plataforma. •Propuestas para la inclusión de reconfiguración dinámica y parcial de la FPGA (por sus siglas en inglés, Dynamic Partial Reconfiguration (DPR)) de forma que sea posible cambiar ciertas partes del sistema en tiempo de ejecución y sin necesidad de interrumpir al resto de las partes. Evaluar su aplicabilidad en el caso de HPADS. Las nuevas aplicaciones y nuevos escenarios a los que se enfrentan los CPSs, imponen nuevos requisitos en cuanto al ancho de banda necesario para el procesamiento de los datos, así como en la adquisición y comunicación de los mismos, además de un claro incremento en la complejidad de los algoritmos empleados. Para poder cumplir con estos nuevos requisitos, las plataformas están migrando desde sistemas tradicionales uni-procesador de 8 bits, a sistemas híbridos hardware-software que incluyen varios procesadores, o varios procesadores y lógica programable. Entre estas nuevas arquitecturas, las FPGAs y los sistemas en chip (por sus siglas en inglés, System on Chip (SoC)) que incluyen procesadores embebidos y lógica programable, proporcionan soluciones con muy buenos resultados en cuanto a consumo energético, precio, capacidad de cómputo y flexibilidad. Estos buenos resultados son aún mejores cuando las aplicaciones tienen altos requisitos de cómputo y cuando las condiciones de trabajo son muy susceptibles de cambiar en tiempo real. La plataforma propuesta en esta tesis doctoral se ha denominado HiReCookie. La arquitectura incluye una FPGA basada en RAM como único procesador, así como un diseño compatible con la plataforma para redes de sensores inalámbricas desarrollada en el Centro de Electrónica Industrial de la Universidad Politécnica de Madrid (CEI-UPM) conocida como Cookies. Esta FPGA, modelo Spartan-6 LX150, era, en el momento de inicio de este trabajo, la mejor opción en cuanto a consumo y cantidad de recursos integrados, cuando además, permite el uso de reconfiguración dinámica y parcial. Es importante resaltar que aunque los valores de consumo son los mínimos para esta familia de componentes, la potencia instantánea consumida sigue siendo muy alta para aquellos sistemas que han de trabajar distribuidos, de forma autónoma, y en la mayoría de los casos alimentados por baterías. Por esta razón, es necesario incluir en el diseño estrategias de ahorro energético para incrementar la usabilidad y el tiempo de vida de la plataforma. La primera estrategia implementada consiste en dividir la plataforma en distintas islas de alimentación de forma que sólo aquellos elementos que sean estrictamente necesarios permanecerán alimentados, cuando el resto puede estar completamente apagado. De esta forma es posible combinar distintos modos de operación y así optimizar enormemente el consumo de energía. El hecho de apagar la FPGA para ahora energía durante los periodos de inactividad, supone la pérdida de la configuración, puesto que la memoria de configuración es una memoria volátil. Para reducir el impacto en el consumo y en el tiempo que supone la reconfiguración total de la plataforma una vez encendida, en este trabajo, se incluye una técnica para la compresión del archivo de configuración de la FPGA, de forma que se consiga una reducción del tiempo de configuración y por ende de la energía consumida. Aunque varios de los requisitos de diseño pueden satisfacerse con el diseño de la plataforma HiReCookie, es necesario seguir optimizando diversos parámetros tales como el consumo energético, la tolerancia a fallos y la capacidad de procesamiento. Esto sólo es posible explotando todas las posibilidades ofrecidas por la arquitectura de procesamiento en la FPGA. Por lo tanto, la segunda parte de esta tesis doctoral está centrada en el diseño de una arquitectura reconfigurable denominada ARTICo3 (Arquitectura Reconfigurable para el Tratamiento Inteligente de Cómputo, Confiabilidad y Consumo de energía) para la mejora de estos parámetros por medio de un uso dinámico de recursos. ARTICo3 es una arquitectura de procesamiento para FPGAs basadas en RAM, con comunicación tipo bus, preparada para dar soporte para la gestión dinámica de los recursos internos de la FPGA en tiempo de ejecución gracias a la inclusión de reconfiguración dinámica y parcial. Gracias a esta capacidad de reconfiguración parcial, es posible adaptar los niveles de capacidad de procesamiento, energía consumida o tolerancia a fallos para responder a las demandas de la aplicación, entorno, o métricas internas del dispositivo mediante la adaptación del número de recursos asignados para cada tarea. Durante esta segunda parte de la tesis se detallan el diseño de la arquitectura, su implementación en la plataforma HiReCookie, así como en otra familia de FPGAs, y su validación por medio de diferentes pruebas y demostraciones. Los principales objetivos que se plantean la arquitectura son los siguientes: • Proponer una metodología basada en un enfoque multi-hilo, como las propuestas por CUDA (por sus siglas en inglés, Compute Unified Device Architecture) u Open CL, en la cual distintos kernels, o unidades de ejecución, se ejecuten en un numero variable de aceleradores hardware sin necesidad de cambios en el código de aplicación. • Proponer un diseño y proporcionar una arquitectura en la que las condiciones de trabajo cambien de forma dinámica dependiendo bien de parámetros externos o bien de parámetros que indiquen el estado de la plataforma. Estos cambios en el punto de trabajo de la arquitectura serán posibles gracias a la reconfiguración dinámica y parcial de aceleradores hardware en tiempo real. • Explotar las posibilidades de procesamiento concurrente, incluso en una arquitectura basada en bus, por medio de la optimización de las transacciones en ráfaga de datos hacia los aceleradores. •Aprovechar las ventajas ofrecidas por la aceleración lograda por módulos puramente hardware para conseguir una mejor eficiencia energética. • Ser capaces de cambiar los niveles de redundancia de hardware de forma dinámica según las necesidades del sistema en tiempo real y sin cambios para el código de aplicación. • Proponer una capa de abstracción entre el código de aplicación y el uso dinámico de los recursos de la FPGA. El diseño en FPGAs permite la utilización de módulos hardware específicamente creados para una aplicación concreta. De esta forma es posible obtener rendimientos mucho mayores que en el caso de las arquitecturas de propósito general. Además, algunas FPGAs permiten la reconfiguración dinámica y parcial de ciertas partes de su lógica en tiempo de ejecución, lo cual dota al diseño de una gran flexibilidad. Los fabricantes de FPGAs ofrecen arquitecturas predefinidas con la posibilidad de añadir bloques prediseñados y poder formar sistemas en chip de una forma más o menos directa. Sin embargo, la forma en la que estos módulos hardware están organizados dentro de la arquitectura interna ya sea estática o dinámicamente, o la forma en la que la información se intercambia entre ellos, influye enormemente en la capacidad de cómputo y eficiencia energética del sistema. De la misma forma, la capacidad de cargar módulos hardware bajo demanda, permite añadir bloques redundantes que permitan aumentar el nivel de tolerancia a fallos de los sistemas. Sin embargo, la complejidad ligada al diseño de bloques hardware dedicados no debe ser subestimada. Es necesario tener en cuenta que el diseño de un bloque hardware no es sólo su propio diseño, sino también el diseño de sus interfaces, y en algunos casos de los drivers software para su manejo. Además, al añadir más bloques, el espacio de diseño se hace más complejo, y su programación más difícil. Aunque la mayoría de los fabricantes ofrecen interfaces predefinidas, IPs (por sus siglas en inglés, Intelectual Property) comerciales y plantillas para ayudar al diseño de los sistemas, para ser capaces de explotar las posibilidades reales del sistema, es necesario construir arquitecturas sobre las ya establecidas para facilitar el uso del paralelismo, la redundancia, y proporcionar un entorno que soporte la gestión dinámica de los recursos. Para proporcionar este tipo de soporte, ARTICo3 trabaja con un espacio de soluciones formado por tres ejes fundamentales: computación, consumo energético y confiabilidad. De esta forma, cada punto de trabajo se obtiene como una solución de compromiso entre estos tres parámetros. Mediante el uso de la reconfiguración dinámica y parcial y una mejora en la transmisión de los datos entre la memoria principal y los aceleradores, es posible dedicar un número variable de recursos en el tiempo para cada tarea, lo que hace que los recursos internos de la FPGA sean virtualmente ilimitados. Este variación en el tiempo del número de recursos por tarea se puede usar bien para incrementar el nivel de paralelismo, y por ende de aceleración, o bien para aumentar la redundancia, y por lo tanto el nivel de tolerancia a fallos. Al mismo tiempo, usar un numero óptimo de recursos para una tarea mejora el consumo energético ya que bien es posible disminuir la potencia instantánea consumida, o bien el tiempo de procesamiento. Con el objetivo de mantener los niveles de complejidad dentro de unos límites lógicos, es importante que los cambios realizados en el hardware sean totalmente transparentes para el código de aplicación. A este respecto, se incluyen distintos niveles de transparencia: • Transparencia a la escalabilidad: los recursos usados por una misma tarea pueden ser modificados sin que el código de aplicación sufra ningún cambio. • Transparencia al rendimiento: el sistema aumentara su rendimiento cuando la carga de trabajo aumente, sin cambios en el código de aplicación. • Transparencia a la replicación: es posible usar múltiples instancias de un mismo módulo bien para añadir redundancia o bien para incrementar la capacidad de procesamiento. Todo ello sin que el código de aplicación cambie. • Transparencia a la posición: la posición física de los módulos hardware es arbitraria para su direccionamiento desde el código de aplicación. • Transparencia a los fallos: si existe un fallo en un módulo hardware, gracias a la redundancia, el código de aplicación tomará directamente el resultado correcto. • Transparencia a la concurrencia: el hecho de que una tarea sea realizada por más o menos bloques es transparente para el código que la invoca. Por lo tanto, esta tesis doctoral contribuye en dos líneas diferentes. En primer lugar, con el diseño de la plataforma HiReCookie y en segundo lugar con el diseño de la arquitectura ARTICo3. Las principales contribuciones de esta tesis se resumen a continuación. • Arquitectura de la HiReCookie incluyendo: o Compatibilidad con la plataforma Cookies para incrementar las capacidades de esta. o División de la arquitectura en distintas islas de alimentación. o Implementación de los diversos modos de bajo consumo y políticas de despertado del nodo. o Creación de un archivo de configuración de la FPGA comprimido para reducir el tiempo y el consumo de la configuración inicial. • Diseño de la arquitectura reconfigurable para FPGAs basadas en RAM ARTICo3: o Modelo de computación y modos de ejecución inspirados en el modelo de CUDA pero basados en hardware reconfigurable con un número variable de bloques de hilos por cada unidad de ejecución. o Estructura para optimizar las transacciones de datos en ráfaga proporcionando datos en cascada o en paralelo a los distinto módulos incluyendo un proceso de votado por mayoría y operaciones de reducción. o Capa de abstracción entre el procesador principal que incluye el código de aplicación y los recursos asignados para las diferentes tareas. o Arquitectura de los módulos hardware reconfigurables para mantener la escalabilidad añadiendo una la interfaz para las nuevas funcionalidades con un simple acceso a una memoria RAM interna. o Caracterización online de las tareas para proporcionar información a un módulo de gestión de recursos para mejorar la operación en términos de energía y procesamiento cuando además se opera entre distintos nieles de tolerancia a fallos. El documento está dividido en dos partes principales formando un total de cinco capítulos. En primer lugar, después de motivar la necesidad de nuevas plataformas para cubrir las nuevas aplicaciones, se detalla el diseño de la plataforma HiReCookie, sus partes, las posibilidades para bajar el consumo energético y se muestran casos de uso de la plataforma así como pruebas de validación del diseño. La segunda parte del documento describe la arquitectura reconfigurable, su implementación en varias FPGAs, y pruebas de validación en términos de capacidad de procesamiento y consumo energético, incluyendo cómo estos aspectos se ven afectados por el nivel de tolerancia a fallos elegido. Los capítulos a lo largo del documento son los siguientes: El capítulo 1 analiza los principales objetivos, motivación y aspectos teóricos necesarios para seguir el resto del documento. El capítulo 2 está centrado en el diseño de la plataforma HiReCookie y sus posibilidades para disminuir el consumo de energía. El capítulo 3 describe la arquitectura reconfigurable ARTICo3. El capítulo 4 se centra en las pruebas de validación de la arquitectura usando la plataforma HiReCookie para la mayoría de los tests. Un ejemplo de aplicación es mostrado para analizar el funcionamiento de la arquitectura. El capítulo 5 concluye esta tesis doctoral comentando las conclusiones obtenidas, las contribuciones originales del trabajo y resultados y líneas futuras. ABSTRACT This PhD Thesis is framed within the field of dynamically reconfigurable embedded systems, advanced sensor networks and distributed computing. The document is centred on the study of processing solutions for high-performance autonomous distributed systems (HPADS) as well as their evolution towards High performance Computing (HPC) systems. The approach of the study is focused on both platform and processor levels to optimise critical aspects such as computing performance, energy efficiency and fault tolerance. HPADS are considered feedback systems, normally networked and/or distributed, with real-time adaptive and predictive functionality. These systems, as part of more complex systems known as Cyber-Physical Systems (CPSs), can be applied in a wide range of fields such as military, health care, manufacturing, aerospace, etc. For the design of HPADS, high levels of dependability, the definition of suitable models of computation, and the use of methodologies and tools to support scalability and complexity management, are required. The first part of the document studies the different possibilities at platform design level in the state of the art, together with description, development and validation tests of the platform proposed in this work to cope with the previously mentioned requirements. The main objectives targeted by this platform design are the following: • Study the feasibility of using SRAM-based FPGAs as the main processor of the platform in terms of energy consumption and performance for high demanding applications. • Analyse and propose energy management techniques to reduce energy consumption in every stage of the working profile of the platform. • Provide a solution with dynamic partial and wireless remote HW reconfiguration (DPR) to be able to change certain parts of the FPGA design at run time and on demand without interrupting the rest of the system. • Demonstrate the applicability of the platform in different test-bench applications. In order to select the best approach for the platform design in terms of processing alternatives, a study of the evolution of the state-of-the-art platforms is required to analyse how different architectures cope with new more demanding applications and scenarios: security, mixed-critical systems for aerospace, multimedia applications, or military environments, among others. In all these scenarios, important changes in the required processing bandwidth or the complexity of the algorithms used are provoking the migration of the platforms from single microprocessor architectures to multiprocessing and heterogeneous solutions with more instant power consumption but higher energy efficiency. Within these solutions, FPGAs and Systems on Chip including FPGA fabric and dedicated hard processors, offer a good trade of among flexibility, processing performance, energy consumption and price, when they are used in demanding applications where working conditions are very likely to vary over time and high complex algorithms are required. The platform architecture proposed in this PhD Thesis is called HiReCookie. It includes an SRAM-based FPGA as the main and only processing unit. The FPGA selected, the Xilinx Spartan-6 LX150, was at the beginning of this work the best choice in terms of amount of resources and power. Although, the power levels are the lowest of these kind of devices, they can be still very high for distributed systems that normally work powered by batteries. For that reason, it is necessary to include different energy saving possibilities to increase the usability of the platform. In order to reduce energy consumption, the platform architecture is divided into different power islands so that only those parts of the systems that are strictly needed are powered on, while the rest of the islands can be completely switched off. This allows a combination of different low power modes to decrease energy. In addition, one of the most important handicaps of SRAM-based FPGAs is that they are not alive at power up. Therefore, recovering the system from a switch-off state requires to reload the FPGA configuration from a non-volatile memory device. For that reason, this PhD Thesis also proposes a methodology to compress the FPGA configuration file in order to reduce time and energy during the initial configuration process. Although some of the requirements for the design of HPADS are already covered by the design of the HiReCookie platform, it is necessary to continue improving energy efficiency, computing performance and fault tolerance. This is only possible by exploiting all the opportunities provided by the processing architectures configured inside the FPGA. Therefore, the second part of the thesis details the design of the so called ARTICo3 FPGA architecture to enhance the already intrinsic capabilities of the FPGA. ARTICo3 is a DPR-capable bus-based virtual architecture for multiple HW acceleration in SRAM-based FPGAs. The architecture provides support for dynamic resource management in real time. In this way, by using DPR, it will be possible to change the levels of computing performance, energy consumption and fault tolerance on demand by increasing or decreasing the amount of resources used by the different tasks. Apart from the detailed design of the architecture and its implementation in different FPGA devices, different validation tests and comparisons are also shown. The main objectives targeted by this FPGA architecture are listed as follows: • Provide a method based on a multithread approach such as those offered by CUDA (Compute Unified Device Architecture) or OpenCL kernel executions, where kernels are executed in a variable number of HW accelerators without requiring application code changes. • Provide an architecture to dynamically adapt working points according to either self-measured or external parameters in terms of energy consumption, fault tolerance and computing performance. Taking advantage of DPR capabilities, the architecture must provide support for a dynamic use of resources in real time. • Exploit concurrent processing capabilities in a standard bus-based system by optimizing data transactions to and from HW accelerators. • Measure the advantage of HW acceleration as a technique to boost performance to improve processing times and save energy by reducing active times for distributed embedded systems. • Dynamically change the levels of HW redundancy to adapt fault tolerance in real time. • Provide HW abstraction from SW application design. FPGAs give the possibility of designing specific HW blocks for every required task to optimise performance while some of them include the possibility of including DPR. Apart from the possibilities provided by manufacturers, the way these HW modules are organised, addressed and multiplexed in area and time can improve computing performance and energy consumption. At the same time, fault tolerance and security techniques can also be dynamically included using DPR. However, the inherent complexity of designing new HW modules for every application is not negligible. It does not only consist of the HW description, but also the design of drivers and interfaces with the rest of the system, while the design space is widened and more complex to define and program. Even though the tools provided by the majority of manufacturers already include predefined bus interfaces, commercial IPs, and templates to ease application prototyping, it is necessary to improve these capabilities. By adding new architectures on top of them, it is possible to take advantage of parallelization and HW redundancy while providing a framework to ease the use of dynamic resource management. ARTICo3 works within a solution space where working points change at run time in a 3D space defined by three different axes: Computation, Consumption, and Fault Tolerance. Therefore, every working point is found as a trade-off solution among these three axes. By means of DPR, different accelerators can be multiplexed so that the amount of available resources for any application is virtually unlimited. Taking advantage of DPR capabilities and a novel way of transmitting data to the reconfigurable HW accelerators, it is possible to dedicate a dynamically-changing number of resources for a given task in order to either boost computing speed or adding HW redundancy and a voting process to increase fault-tolerance levels. At the same time, using an optimised amount of resources for a given task reduces energy consumption by reducing instant power or computing time. In order to keep level complexity under certain limits, it is important that HW changes are transparent for the application code. Therefore, different levels of transparency are targeted by the system: • Scalability transparency: a task must be able to expand its resources without changing the system structure or application algorithms. • Performance transparency: the system must reconfigure itself as load changes. • Replication transparency: multiple instances of the same task are loaded to increase reliability and performance. • Location transparency: resources are accessed with no knowledge of their location by the application code. • Failure transparency: task must be completed despite a failure in some components. • Concurrency transparency: different tasks will work in a concurrent way transparent to the application code. Therefore, as it can be seen, the Thesis is contributing in two different ways. First with the design of the HiReCookie platform and, second with the design of the ARTICo3 architecture. The main contributions of this PhD Thesis are then listed below: • Architecture of the HiReCookie platform including: o Compatibility of the processing layer for high performance applications with the Cookies Wireless Sensor Network platform for fast prototyping and implementation. o A division of the architecture in power islands. o All the different low-power modes. o The creation of the partial-initial bitstream together with the wake-up policies of the node. • The design of the reconfigurable architecture for SRAM FPGAs: ARTICo3: o A model of computation and execution modes inspired in CUDA but based on reconfigurable HW with a dynamic number of thread blocks per kernel. o A structure to optimise burst data transactions providing coalesced or parallel data to HW accelerators, parallel voting process and reduction operation. o The abstraction provided to the host processor with respect to the operation of the kernels in terms of the number of replicas, modes of operation, location in the reconfigurable area and addressing. o The architecture of the modules representing the thread blocks to make the system scalable by adding functional units only adding an access to a BRAM port. o The online characterization of the kernels to provide information to a scheduler or resource manager in terms of energy consumption and processing time when changing among different fault-tolerance levels, as well as if a kernel is expected to work in the memory-bounded or computing-bounded areas. The document of the Thesis is divided into two main parts with a total of five chapters. First, after motivating the need for new platforms to cover new more demanding applications, the design of the HiReCookie platform, its parts and several partial tests are detailed. The design of the platform alone does not cover all the needs of these applications. Therefore, the second part describes the architecture inside the FPGA, called ARTICo3, proposed in this PhD Thesis. The architecture and its implementation are tested in terms of energy consumption and computing performance showing different possibilities to improve fault tolerance and how this impact in energy and time of processing. Chapter 1 shows the main goals of this PhD Thesis and the technology background required to follow the rest of the document. Chapter 2 shows all the details about the design of the FPGA-based platform HiReCookie. Chapter 3 describes the ARTICo3 architecture. Chapter 4 is focused on the validation tests of the ARTICo3 architecture. An application for proof of concept is explained where typical kernels related to image processing and encryption algorithms are used. Further experimental analyses are performed using these kernels. Chapter 5 concludes the document analysing conclusions, comments about the contributions of the work, and some possible future lines for the work.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La gran cantidad de datos que se registran diariamente en los sistemas de base de datos de las organizaciones ha generado la necesidad de analizarla. Sin embargo, se enfrentan a la complejidad de procesar enormes volúmenes de datos a través de métodos tradicionales de análisis. Además, dentro de un contexto globalizado y competitivo las organizaciones se mantienen en la búsqueda constante de mejorar sus procesos, para lo cual requieren herramientas que les permitan tomar mejores decisiones. Esto implica estar mejor informado y conocer su historia digital para describir sus procesos y poder anticipar (predecir) eventos no previstos. Estos nuevos requerimientos de análisis de datos ha motivado el desarrollo creciente de proyectos de minería de datos. El proceso de minería de datos busca obtener desde un conjunto masivo de datos, modelos que permitan describir los datos o predecir nuevas instancias en el conjunto. Implica etapas de: preparación de los datos, procesamiento parcial o totalmente automatizado para identificar modelos en los datos, para luego obtener como salida patrones, relaciones o reglas. Esta salida debe significar un nuevo conocimiento para la organización, útil y comprensible para los usuarios finales, y que pueda ser integrado a los procesos para apoyar la toma de decisiones. Sin embargo, la mayor dificultad es justamente lograr que el analista de datos, que interviene en todo este proceso, pueda identificar modelos lo cual es una tarea compleja y muchas veces requiere de la experiencia, no sólo del analista de datos, sino que también del experto en el dominio del problema. Una forma de apoyar el análisis de datos, modelos y patrones es a través de su representación visual, utilizando las capacidades de percepción visual del ser humano, la cual puede detectar patrones con mayor facilidad. Bajo este enfoque, la visualización ha sido utilizada en minería datos, mayormente en el análisis descriptivo de los datos (entrada) y en la presentación de los patrones (salida), dejando limitado este paradigma para el análisis de modelos. El presente documento describe el desarrollo de la Tesis Doctoral denominada “Nuevos Esquemas de Visualizaciones para Mejorar la Comprensibilidad de Modelos de Data Mining”. Esta investigación busca aportar con un enfoque de visualización para apoyar la comprensión de modelos minería de datos, para esto propone la metáfora de modelos visualmente aumentados. ABSTRACT The large amount of data to be recorded daily in the systems database of organizations has generated the need to analyze it. However, faced with the complexity of processing huge volumes of data over traditional methods of analysis. Moreover, in a globalized and competitive environment organizations are kept constantly looking to improve their processes, which require tools that allow them to make better decisions. This involves being bettered informed and knows your digital story to describe its processes and to anticipate (predict) unanticipated events. These new requirements of data analysis, has led to the increasing development of data-mining projects. The data-mining process seeks to obtain from a massive data set, models to describe the data or predict new instances in the set. It involves steps of data preparation, partially or fully automated processing to identify patterns in the data, and then get output patterns, relationships or rules. This output must mean new knowledge for the organization, useful and understandable for end users, and can be integrated into the process to support decision-making. However, the biggest challenge is just getting the data analyst involved in this process, which can identify models is complex and often requires experience not only of the data analyst, but also the expert in the problem domain. One way to support the analysis of the data, models and patterns, is through its visual representation, i.e., using the capabilities of human visual perception, which can detect patterns easily in any context. Under this approach, the visualization has been used in data mining, mostly in exploratory data analysis (input) and the presentation of the patterns (output), leaving limited this paradigm for analyzing models. This document describes the development of the doctoral thesis entitled "New Visualizations Schemes to Improve Understandability of Data-Mining Models". This research aims to provide a visualization approach to support understanding of data mining models for this proposed metaphor visually enhanced models.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Introdução: As doenças cardiovasculares são a principal causa de morte no Brasil e no mundo e apresentam importante contribuição para a carga global de doenças. A dieta tem sido considerada um dos determinantes primários do estado de saúde dos indivíduos, atuando na modulação dos fatores de risco metabólicos para doença cardiovascular. Objetivos: Desenvolver um modelo conceitual para a relação entre fatores de risco metabólicos e investigar sua associação com padrões de dieta de adultos e idosos residentes no município de São Paulo. Métodos: Estudo transversal de base populacional com amostra probabilística de adultos e idosos, residentes em área urbana do município de São Paulo, que participaram do Inquérito de Saúde do Município de São Paulo, realizado em duas fases entre os anos de 2008 e 2011 (estudo ISA Capital 2008). Na primeira fase do estudo, 1.102 adultos e idosos, de ambos os sexos, foram entrevistados no domicílio, por meio da aplicação de questionário estruturado e do recordatório alimentar de 24 horas. Na segunda fase, 642 indivíduos adultos e idosos foram reavaliados quanto ao consumo alimentar por meio da aplicação, por telefone, do segundo recordatório alimentar, e, destes, 592 participaram da coleta domiciliar de amostras de sangue venoso, da medição antropométrica e da aferição da pressão arterial por técnico de enfermagem. Os alimentos relatados em ambos os recordatórios foram agrupados segundo a similaridade do valor nutricional e hábitos alimentares da população, e corrigidos pela variância intrapessoal da ingestão por procedimentos estatísticos da plataforma online Multiple Source Method. Os grupos de alimentos foram analisados por meio de análise fatorial exploratória e confirmatória (manuscrito 1) e por modelos de equações estruturais exploratórios (manuscrito 3), a fim de obter os padrões de dieta. O modelo conceitual da relação entre os fatores de risco metabólicos (leptina sérica, proteína C-reativa de alta sensibilidade sérica, pressão arterial sistólica e diastólica, razão colesterol total/lipoproteína de alta densidade, razão triacilglicerol/lipoproteína de alta densidade, glicemia de jejum plasmática, circunferência da cintura e peso corporal) foi obtido por modelos de equações estruturais estratificados por sexo (manuscrito 2). Por fim, a associação dos padrões de dieta com o modelo conceitual proposto (manuscrito 3) foi investigada por modelos de equações estruturais exploratórios. Índices de qualidade de ajuste foram estimados para avaliar a adequação de todos os modelos. As análises foram realizadas no programa Mplus versão 6.12. Resultados: No manuscrito 1, a análise fatorial exploratória revelou a existência de dois padrões de dieta, os quais apresentaram boa qualidade de ajuste na análise fatorial confirmatória quando aplicados os pontos de corte de cargas fatoriais |0,25| na rotação oblíqua Promax. No manuscrito 2, a relação entre os fatores de risco metabólicos foi diferente entre os sexos. Nas mulheres, a leptina sérica apresentou efeitos indiretos e positivos, mediados pelo peso corporal e pela circunferência da cintura, em todos os fatores de risco avaliados. Já nos homens, a leptina sérica apresentou efeitos diretos e positivos sobre a proteína C-reativa de alta sensibilidade e efeitos indiretos e positivos (mediados pelo peso corporal e pela circunferência da cintura) sobre a razão triacilglicerol/lipoproteína de alta densidade, colesterol total/lipoproteína de alta densidade e glicemia de jejum plasmática. No manuscrito 3, foram obtidos três padrões de dieta, dos quais o Tradicional apresentou relação direta e negativa com a leptina sérica e relação indireta e negativa com o peso corporal e a circunferência da cintura, bem como com os demais fatores de risco metabólicos. Já o padrão Prudente apresentou relação direta e negativa com a pressão arterial sistólica, enquanto o padrão Moderno não se associou aos fatores de risco metabólicos investigados. Conclusão: Diferenças nos padrões de dieta de acordo com o tipo de rotação fatorial empregada foram observadas. A relação entre os fatores de risco metabólicos para doença cardiovascular foi distinta entre homens e mulheres, sendo a leptina um dos possíveis hormônios envolvidos. Os padrões de dieta Tradicional e Prudente associaram-se inversamente com os fatores de risco metabólicos, desempenhando uma importante estratégia de prevenção e controle às doenças cardiovasculares no país.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A análise de dados de sobrevivência tem sido tradicionalmente baseada no modelo de regressão de Cox (COX, 1972). No entanto, a suposição de taxas de falha proporcionais assumida para esse modelo pode não ser atendida em diversas situações práticas. Essa restrição do modelo de Cox tem gerado interesse em abordagens alternativas, dentre elas os modelos dinâmicos que permitem efeito das covariáveis variando no tempo. Neste trabalho, foram revisados os principais modelos de sobrevivência dinâmicos com estrutura aditiva e multiplicativa nos contextos não paramétrico e semiparamétrico. Métodos gráficos baseados em resíduos foram apresentados com a finalidade de avaliar a qualidade de ajuste desses modelos. Uma versão tempo-dependente da área sob a curva ROC, denotada por AUC(t), foi proposta com a finalidade de avaliar e comparar a qualidade de predição entre modelos de sobrevivência com estruturas aditiva e multiplicativa. O desempenho da AUC(t) foi avaliado por meio de um estudo de simulação. Dados de três estudos descritos na literatura foram também analisados para ilustrar ou complementar os cenários que foram considerados no estudo de simulação. De modo geral, os resultados obtidos indicaram que os métodos gráficos apresentados para avaliar a adequação dos modelos em conjunto com a AUC(t) se constituem em um conjunto de ferramentas estatísticas úteis para o próposito de avaliar modelos de sobrevivência dinâmicos nos contextos não paramétrico e semiparamétrico. Além disso, a aplicação desse conjunto de ferramentas em alguns conjuntos de dados evidenciou que se, por um lado, os modelos dinâmicos são atrativos por permitirem covariáveis tempo-dependentes, por outro lado podem não ser apropriados para todos os conjuntos de dados, tendo em vista que estimação pode apresentar restrições para alguns deles.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Diferentes complexos de cobre(II), contendo ligantes do tipo base de Schiff e um grupamento imidazólico, com interesse bioinorgânico, catalítico e como novos materiais, foram preparados na forma de sais perclorato, nitrato ou cloreto e caracterizados através de diferentes técnicas espectroscópicas (UV/Vis, IR, EPR, Raman) e espectrometria de massa Tandem (ESI-MS/MS), além de análise elementar, condutividade molar e medidas de propriedades magnéticas. Alguns destes compostos, obtidos como cristais adequados, tiveram suas estruturas determinadas por cristalografia de raios-X. As espécies di- e polinucleares contendo pontes cloreto, mostraram desdobramentos das hiperfinas nos espectros de EPR, relacionados à presença do equilíbrio com a respectiva espécie mononuclear, devido à labilidade dos íons cloretos, dependendo do contra-íon e do tipo de solvente utilizado. Adicionalmente, em solução alcalina, estes compostos estão em equilíbrio com as correspondentes espécies polinucleares, onde os centros de cobre estão ligados através de um ligante imidazolato. Em meio alcalino, estes compostos polinucleares contendo ponte imidazolato foram também isolados e caracterizados por diferentes técnicas espectroscópicas e magnéticas. Através da variação estrutural e também do ligante-ponte foi possível modular o fenômeno da interação magnética entre os íons de cobre em estruturas correlatas di- e polinucleares. Os respectivos parâmetros magnéticos foram obtidos com ajuste das curvas experimentais de XM vs T, correlacionando-se muito bem com a geometria, ângulos e distâncias de ligação entre os íons, quando comparado com outros complexos similares descritos na literatura. Posteriormente, estudaram-se os fatores relacionados com a reatividade de todas essas espécies como catalisadores na oxidação de substratos de interesse (fenóis e aminas), através da variação do tamanho da cavidade nas estruturas cíclicas ou de variações no ligante coordenado ao redor do íon metálico. Vários deles se mostraram bons miméticos de tirosinases e catecol oxidases. Um novo complexo-modelo da citocromo c oxidase (CcO), utilizando a protoporfirina IX condensada ao quelato N,N,-bis[2-(1,2-metilbenzimidazolil)etil]amino e ao resíduo de glicil-L-histidina, foi sintetizado e caracterizado através de diferentes técnicas espectroscópicas, especialmente EPR. A adição de H2O2 ao sistema completamente oxidado, FeIII/CuII, a -55°C, ou o borbulhamento de oxigênio molecular a uma solução do complexo na sua forma reduzida, FeII/CuI, saturada de CO, resultou na formação de adutos com O2, de baixo spin, estáveis a baixas temperaturas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Comunicación presentada en las VIII Jornadas de Ingeniería del Software y Bases de Datos, JISBD 2003, Alicante, 12-14 noviembre 2003.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La hipótesis de la reconsolidación propone que una memoria consolidada entra nuevamente en un estado lábil seguido por un nuevo proceso de estabilización dependiente de síntesis de proteínas, definido como reconsolidación. Durante el proceso de desestabilización, la traza puede actualizarse incorporando nueva información ajustándose a nuevas exigencias ambientales. Esta visión le otorga a la memoria una propiedad flexible y dinámica, contrariamente a lo sugerido por la clásica teoría de la consolidación que definía el trazo de memoria como algo inflexible e inmutable. La reconsolidación de la memoria consta de dos fases: un proceso de labilización o desestabilización, seguido de una fase de re-estabilización. Evidencias recientes de nuestro laboratorio sugieren que la ocurrencia de un estado emocional negativo, como el generado por un evento traumático (estrés) reduce la vulnerabilidad de la traza durante la evocación, es decir la memoria bajo estas condiciones se vuelve resistente a la interferencia y disminuye las probabilidades de la ocurrencia de la reconsolidación. La abstinencia al etanol genera un estado emocional negativo de características similares al generado por estrés en el complejo basolateral de la Amígdala (BLA). El presente proyecto está dirigido a estudiar los mecanismos neurobiológicos implicados en la memoria resistente, en dos áreas cerebrales críticamente involucradas en la memoria de miedo contextual: BLA y el hipocampo dorsal (HD). Se verificará la reactividad a los agentes interferentes (Midazolam y Propranolol) sobre la reconsolidación tanto en animales estresados como en abstinentes. Además, estudiaremos la expresión de las subunidades de receptores NMDA y GABA-A en las áreas mencionadas. Además nos proponemos re-establecer la capacidad dinámica de la traza con herramientas farmacológicas como la infusión local de un agonista parcial de receptores NMDA. Bajo este esquema hipotético, este tratamiento permitirá re-establecer las propiedades biológicas que definen el proceso de labilización/reconsolidación, con la recuperación de la vulnerabilidad a los agentes interferentes de esta fase ante la presentación del recordatorio. En síntesis, proponemos que los cambios originados por la instauración de un estado emocional negativo modelan la dinámica de la memoria resultante al momento de la evocación. Listado de abreviaturas usadas: BLA: Complejo basolateral de la amígdala HD: hipocampo dorsal R-NMDA: receptores NMDA R-GABAA: receptores GABAA MDZ: Midazolam PROP: propranolol DCS: d-cycloserina

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El Caribe ha sido reconocido por considerarse una pluralidad de espacios que simultáneamente son solo uno. Contrario al contexto de su fragmentada geografía, su segregada historia colonial y su diversidad racial y lingüística, los intelectuales caribeños han establecido puentes de unidad cultural con la intención de configurar una identidad pan-caribeña. Por consiguiente, los ensayistas del siglo XX se enfrentan a la necesidad de examinar críticamente los factores que formulan sus respectivas identidades, en contraste con aquellas tradicionalmente impuestas bajo el discurso colonial y metropolitano. Desde el tercer cuarto del siglo, pensadores como Aimé Césaire (1913-2008), Fernando Ortiz (1881-1969), Fidel Castro (1926-), George Lamming (1927-), Kamau Brathwaite (1930-), Juan I. Jiménes-Grullón (1903-1983), Hubert Devonish (1953-), Edouard Glissant (1928-2011), Antonio Benítez-Rojo (1931-2005), Arcadio Díaz Quiñones y Maryse Condé (1937-), entre otros, cuestionan el sistema colonial, los procesos étnicos y las propuestas lingüísticas, relacionándolos con conceptos tales como la hibridez, el sincretismo, la transculturación y la heterogeneidad. Estas teorías culturales, de alguna manera, reescriben ideas antecedentes en reacción a discursos hegemónicos previos como consecuencia de los cambios políticos que trajeron las guerras de independencia en América Latina durante el siglo XIX. En mi tesis demuestro que estos planteamientos delinean un mapa de modelos epistemológicos de la cultura del Caribe. Para indicar que estas propuestas constituyen metáforas que muestran una consciencia cultural, las proposiciones acerca de la cultura de Jorge Luis Borges (1899-1986) y Hayden White (1928-) sirven como marco teórico apropiado. Así, a través de las representaciones literarias ensayísticas de los modelos metafóricos de la cultura caribeña, este trabajo redefine algunos aspectos importantes de la identidad cultural vis a vis la mirada parcial que usualmente se utiliza para estudiar el archipiélago antillano. Igualmente, incluso aunque estos modelos proponen una representación metafórica de la cultura pan-caribeña, la construcción de un modelo del Caribe puede ser utilizado en otras regiones y espacios culturales en el contexto de la globalización, ya que elucida una gnoseología cultural que sirve para describir distintas realidades globales.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La planificación y puesta en marcha del 2014-15 Erasmus+ EU Prácticas para los estudiantes del Grado Bilingüe de Educación Primaria fue un reto para los tutores de la Universidad Complutense de Madrid, Facultad de Educación. Dentro de este proyecto es importante la labor desempeñada por el profesor tutor de la UCM que ha tenido que llevar a cabo una estrecha supervisión de los estudiantes a distancia, orientada sobre todo a fomentar la reflexión crítica sobre el propio proceso de aprendizaje. De esta manera pretende contribuir al desarrollo de un programa de prácticas docentes internacionales, que se espera tenga una continuidad en los próximos cursos académicos. Para ello se analizó los beneficios que la realización del periodo de prácticas en el extranjero reporta a los estudiantes, para detectar sus necesidades reales, con los posibles problemas que puedan surgir y sus causas, y además crear a partir de ello un modelo de Prácticum que se ajuste a los nuevos retos a los que deberán enfrentarse nuestros alumnos como futuros docentes dentro de un contexto global y multi-cultural.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La articulación entre las políticas de empleo y las políticas sociales condicionan la percepción subjetiva de incertidumbre los individuos. El modelo de mercado laboral tiene un peso determinante en la percepción de incertidumbre. El empleo en sí mismo ya no es suficiente garantía de ingresos seguros. El empleo a tiempo parcial y los contratos temporales generan una creciente demanda de políticas de redistribución de los ingresos en los países del Sur y Este de Europa. En los países escandinavos los mismos tipos de contratos laborales generan menos desigualdad porque el empleo público contribuye a generar un “círculo virtuoso” que favorece las políticas de igualdad y la conciliación entre la vida laboral y familiar. A nivel individual las actitudes pro-redistributivas las impulsan las mujeres, aquellas personas con incertidumbre en sus ingresos económicos y con bajo nivel de estudios. Por el contrario, quienes más confían en el éxito individual y el mérito son los jóvenes con estudios universitarios y aquellos que perciben ingresos económicos altos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Con este trabajo nos proponemos estudiar las políticas agrarias del franquismo y particularmente la creación y actuación del Servicio de Extensión Agraria (1955) en el contexto de la difusión de la Teoría de la Modernización. Comenzaremos con una contextualización de las relaciones culturales entre España y los EE.UU. y su potencial proyección sobre el ámbito rural. A continuación, prestaremos atención a la impronta del modelo extensionista norteamericano en la organización y metodología del Servicio de Extensión Agraria. Sin perder de vista la importancia de la escala estatal para la implementación y adaptación de las distintas políticas agrarias, atenderemos al contexto político e ideológico internacional como elemento que permite ampliar la comprensión y estudio de dichas políticas. En ese sentido, propondremos finalmente una primera aproximación comparativa al estudio del SEA en relación con diferentes experiencias de extensionismo agrario en Latinoamérica.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A presente dissertação incide sobre o estudo dos efeitos do confinamento com materiais compósitos de polímeros reforçados com fibras de carbono (CFRP) em pilares de estruturas de betão armado. A motivação para este estudo surge da necessidade de aprofundar conhecimentos acerca do comportamento dos pilares de betão reforçados por confinamento com CFRP, uma vez que a sua aplicação apresenta uma crescente importância, por exemplo, para aumento da resistência e da ductilidade de estruturas de betão armado. Fez-se, inicialmente, uma breve revisão das técnicas de reforço convencionais utilizadas em pilares de betão armado, com ênfase no reforço exterior com polímeros reforçados com fibras. A elevada resistência à tração, à corrosão e à fadiga, o baixo peso volúmico, a versatilidade e a diversidade dos sistemas comercializados com CFRP tornam este material muito competitivo para este tipo de aplicação. Na sequência desse estudo, realizou-se uma revisão bibliográfica acerca dos modelos de comportamento que permitem prever o desempenho de pilares de betão confinados com CFRP, sujeitos a esforços de compressão. Como forma de análise desses modelos, desenvolveu-se uma ferramenta numérica em ambiente Mathworks - Matlab R2015a, que permitiu a obtenção e posterior comparação dos diagramas de tensão-extensão descritos pelos modelos desenvolvidos por Manfredi e Realfonzo (2001), Ferreira (2007) e Wei e Wu (2011). Por fim, comparam-se os resultados experimentais de Paula (2003) e de Rocca (2007) com os dos modelos constitutivos referidos anteriormente, analisando-se também a influência de vários fatores na eficácia do confinamento, tais como o boleamento, o número de camadas de CFRP e a geometria da secção transversal. Foram ainda comparados e discutidos resultados relativos ao confinamento parcial de pilares. Os resultados obtidos indicam que os modelos analíticos representam relativamente bem o andamento das curvas do betão confinado para secções circulares, quadradas e retangulares, verificando-se as principais discrepâncias nestas duas últimas tipologias de secção transversal, dada a dificuldade associada à quantificação de parâmetros associados ao seu comportamento (por exemplo, boleamento de arestas). No entanto, verificou-se igualmente que com um adequado boleamento de arestas (e consequente aumento da relação entre o raio de canto e a largura da secção de betão), bem como com um aumento do número de camadas de material compósito, é possível aumentar a tensão resistente e a extensão axial na rotura do betão à compressão.