920 resultados para Non-autonomous system


Relevância:

40.00% 40.00%

Publicador:

Resumo:

In this paper, in order to select a speed controller for a specific non-linear autonomous ground vehicle, proportional-integral-derivative (PID), Fuzzy, and linear quadratic regulator (LQR) controllers were designed. Here, in order to carry out the tuning of the above controllers, a multicomputer genetic algorithm (MGA) was designed. Then, the results of the MGA were used to parameterize the PID, Fuzzy and LQR controllers and to test them under laboratory conditions. Finally, a comparative analysis of the performance of the three controllers was conducted.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Autonomous systems refer to systems capable of operating in a real world environment without any form of external control for extended periods of time. Autonomy is a desired goal for every system as it improves its performance, safety and profit. Ontologies are a way to conceptualize the knowledge of a specific domain. In this paper an ontology for the description of autonomous systems as well as for its development (engineering) is presented and applied to a process. This ontology is intended to be applied and used to generate final applications following a model driven methodology.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Maximizing energy autonomy is a consistent challenge when deploying mobile robots in ionizing radiation or other hazardous environments. Having a reliable robot system is essential for successful execution of missions and to avoid manual recovery of the robots in environments that are harmful to human beings. For deployment of robots missions at short notice, the ability to know beforehand the energy required for performing the task is essential. This paper presents a on-line method for predicting energy requirements based on the pre-determined power models for a mobile robot. A small mobile robot, Khepera III is used for the experimental study and the results are promising with high prediction accuracy. The applications of the energy prediction models in energy optimization and simulations are also discussed along with examples of significant energy savings.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

In this paper, we study a system of partial differential equations describing the evolution of a population under chemotactic effects with non-local reaction terms. We consider an external application of chemoattractant in the system and study the cases of one and two populations in competition. By introducing global competitive/cooperative factors in terms of the total mass of the populations, weobtain, forarangeofparameters, thatanysolutionwithpositive and bounded initial data converges to a spatially homogeneous state with positive components. The proofs rely on the maximum principle for spatially homogeneous sub- and super-solutions.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

We study a parabolic–elliptic chemotactic system describing the evolution of a population’s density “u” and a chemoattractant’s concentration “v”. The system considers a non-constant chemotactic sensitivity given by “χ(N−u)”, for N≥0, and a source term of logistic type “λu(1−u)”. The existence of global bounded classical solutions is proved for any χ>0, N≥0 and λ≥0. By using a comparison argument we analyze the stability of the constant steady state u=1, v=1, for a range of parameters. – For N>1 and Nλ>2χ, any positive and bounded solution converges to the steady state. – For N≤1 the steady state is locally asymptotically stable and for χN<λ, the steady state is globally asymptotically stable.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

La robótica ha evolucionado exponencialmente en las últimas décadas, permitiendo a los sistemas actuales realizar tareas sumamente complejas con gran precisión, fiabilidad y velocidad. Sin embargo, este desarrollo ha estado asociado a un mayor grado de especialización y particularización de las tecnologías implicadas, siendo estas muy eficientes en situaciones concretas y controladas, pero incapaces en entornos cambiantes, dinámicos y desestructurados. Por eso, el desarrollo de la robótica debe pasar por dotar a los sistemas de capacidad de adaptación a las circunstancias, de entendedimiento sobre los cambios observados y de flexibilidad a la hora de interactuar con el entorno. Estas son las caracteristicas propias de la interacción del ser humano con su entorno, las que le permiten sobrevivir y las que pueden proporcionar a un sistema inteligencia y capacidad suficientes para desenvolverse en un entorno real de forma autónoma e independiente. Esta adaptabilidad es especialmente importante en el manejo de riesgos e incetidumbres, puesto que es el mecanismo que permite contextualizar y evaluar las amenazas para proporcionar una respuesta adecuada. Así, por ejemplo, cuando una persona se mueve e interactua con su entorno, no evalúa los obstáculos en función de su posición, velocidad o dinámica (como hacen los sistemas robóticos tradicionales), sino mediante la estimación del riesgo potencial que estos elementos suponen para la persona. Esta evaluación se consigue combinando dos procesos psicofísicos del ser humano: por un lado, la percepción humana analiza los elementos relevantes del entorno, tratando de entender su naturaleza a partir de patrones de comportamiento, propiedades asociadas u otros rasgos distintivos. Por otro lado, como segundo nivel de evaluación, el entendimiento de esta naturaleza permite al ser humano conocer/estimar la relación de los elementos con él mismo, así como sus implicaciones en cuanto a nivel de riesgo se refiere. El establecimiento de estas relaciones semánticas -llamado cognición- es la única forma de definir el nivel de riesgo de manera absoluta y de generar una respuesta adecuada al mismo. No necesariamente proporcional, sino coherente con el riesgo al que se enfrenta. La investigación que presenta esta tesis describe el trabajo realizado para trasladar esta metodología de análisis y funcionamiento a la robótica. Este se ha centrado especialmente en la nevegación de los robots aéreos, diseñando e implementado procedimientos de inspiración humana para garantizar la seguridad de la misma. Para ello se han estudiado y evaluado los mecanismos de percepción, cognición y reacción humanas en relación al manejo de riesgos. También se ha analizado como los estímulos son capturados, procesados y transformados por condicionantes psicológicos, sociológicos y antropológicos de los seres humanos. Finalmente, también se ha analizado como estos factores motivan y descandenan las reacciones humanas frente a los peligros. Como resultado de este estudio, todos estos procesos, comportamientos y condicionantes de la conducta humana se han reproducido en un framework que se ha estructurado basadandose en factores análogos. Este emplea el conocimiento obtenido experimentalmente en forma de algoritmos, técnicas y estrategias, emulando el comportamiento humano en las mismas circunstancias. Diseñado, implementeado y validado tanto en simulación como con datos reales, este framework propone una manera innovadora -tanto en metodología como en procedimiento- de entender y reaccionar frente a las amenazas potenciales de una misión robótica. ABSTRACT Robotics has undergone a great revolution in the last decades. Nowadays this technology is able to perform really complex tasks with a high degree of accuracy and speed, however this is only true in precisely defined situations with fully controlled variables. Since the real world is dynamic, changing and unstructured, flexible and non context-dependent systems are required. The ability to understand situations, acknowledge changes and balance reactions is required by robots to successfully interact with their surroundings in a fully autonomous fashion. In fact, it is those very processes that define human interactions with the environment. Social relationships, driving or risk/incertitude management... in all these activities and systems, context understanding and adaptability are what allow human beings to survive: contrarily to the traditional robotics, people do not evaluate obstacles according to their position but according to the potential risk their presence imply. In this sense, human perception looks for information which goes beyond location, speed and dynamics (the usual data used in traditional obstacle avoidance systems). Specific features in the behaviour of a particular element allows the understanding of that element’s nature and therefore the comprehension of the risk posed by it. This process defines the second main difference between traditional obstacle avoidance systems and human behaviour: the ability to understand a situation/scenario allows to get to know the implications of the elements and their relationship with the observer. Establishing these semantic relationships -named cognition- is the only way to estimate the actual danger level of an element. Furthermore, only the application of this knowledge allows the generation of coherent, suitable and adjusted responses to deal with any risk faced. The research presented in this thesis summarizes the work done towards translating these human cognitive/reasoning procedures to the field of robotics. More specifically, the work done has been focused on employing human-based methodologies to enable aerial robots to navigate safely. To this effect, human perception, cognition and reaction processes concerning risk management have been experimentally studied; as well as the acquisition and processing of stimuli. How psychological, sociological and anthropological factors modify, balance and give shape to those stimuli has been researched. And finally, the way in which these factors motivate the human behaviour according to different mindsets and priorities has been established. This associative workflow has been reproduced by establishing an equivalent structure and defining similar factors and sources. Besides, all the knowledge obtained experimentally has been applied in the form of algorithms, techniques and strategies which emulate the analogous human behaviours. As a result, a framework capable of understanding and reacting in response to stimuli has been implemented and validated.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Esta tesis doctoral se enmarca dentro del campo de los sistemas embebidos reconfigurables, redes de sensores inalámbricas para aplicaciones de altas prestaciones, y computación distribuida. El documento se centra en el estudio de alternativas de procesamiento para sistemas embebidos autónomos distribuidos de altas prestaciones (por sus siglas en inglés, High-Performance Autonomous Distributed Systems (HPADS)), así como su evolución hacia el procesamiento de alta resolución. El estudio se ha llevado a cabo tanto a nivel de plataforma como a nivel de las arquitecturas de procesamiento dentro de la plataforma con el objetivo de optimizar aspectos tan relevantes como la eficiencia energética, la capacidad de cómputo y la tolerancia a fallos del sistema. Los HPADS son sistemas realimentados, normalmente formados por elementos distribuidos conectados o no en red, con cierta capacidad de adaptación, y con inteligencia suficiente para llevar a cabo labores de prognosis y/o autoevaluación. Esta clase de sistemas suele formar parte de sistemas más complejos llamados sistemas ciber-físicos (por sus siglas en inglés, Cyber-Physical Systems (CPSs)). Los CPSs cubren un espectro enorme de aplicaciones, yendo desde aplicaciones médicas, fabricación, o aplicaciones aeroespaciales, entre otras muchas. Para el diseño de este tipo de sistemas, aspectos tales como la confiabilidad, la definición de modelos de computación, o el uso de metodologías y/o herramientas que faciliten el incremento de la escalabilidad y de la gestión de la complejidad, son fundamentales. La primera parte de esta tesis doctoral se centra en el estudio de aquellas plataformas existentes en el estado del arte que por sus características pueden ser aplicables en el campo de los CPSs, así como en la propuesta de un nuevo diseño de plataforma de altas prestaciones que se ajuste mejor a los nuevos y más exigentes requisitos de las nuevas aplicaciones. Esta primera parte incluye descripción, implementación y validación de la plataforma propuesta, así como conclusiones sobre su usabilidad y sus limitaciones. Los principales objetivos para el diseño de la plataforma propuesta se enumeran a continuación: • Estudiar la viabilidad del uso de una FPGA basada en RAM como principal procesador de la plataforma en cuanto a consumo energético y capacidad de cómputo. • Propuesta de técnicas de gestión del consumo de energía en cada etapa del perfil de trabajo de la plataforma. •Propuestas para la inclusión de reconfiguración dinámica y parcial de la FPGA (por sus siglas en inglés, Dynamic Partial Reconfiguration (DPR)) de forma que sea posible cambiar ciertas partes del sistema en tiempo de ejecución y sin necesidad de interrumpir al resto de las partes. Evaluar su aplicabilidad en el caso de HPADS. Las nuevas aplicaciones y nuevos escenarios a los que se enfrentan los CPSs, imponen nuevos requisitos en cuanto al ancho de banda necesario para el procesamiento de los datos, así como en la adquisición y comunicación de los mismos, además de un claro incremento en la complejidad de los algoritmos empleados. Para poder cumplir con estos nuevos requisitos, las plataformas están migrando desde sistemas tradicionales uni-procesador de 8 bits, a sistemas híbridos hardware-software que incluyen varios procesadores, o varios procesadores y lógica programable. Entre estas nuevas arquitecturas, las FPGAs y los sistemas en chip (por sus siglas en inglés, System on Chip (SoC)) que incluyen procesadores embebidos y lógica programable, proporcionan soluciones con muy buenos resultados en cuanto a consumo energético, precio, capacidad de cómputo y flexibilidad. Estos buenos resultados son aún mejores cuando las aplicaciones tienen altos requisitos de cómputo y cuando las condiciones de trabajo son muy susceptibles de cambiar en tiempo real. La plataforma propuesta en esta tesis doctoral se ha denominado HiReCookie. La arquitectura incluye una FPGA basada en RAM como único procesador, así como un diseño compatible con la plataforma para redes de sensores inalámbricas desarrollada en el Centro de Electrónica Industrial de la Universidad Politécnica de Madrid (CEI-UPM) conocida como Cookies. Esta FPGA, modelo Spartan-6 LX150, era, en el momento de inicio de este trabajo, la mejor opción en cuanto a consumo y cantidad de recursos integrados, cuando además, permite el uso de reconfiguración dinámica y parcial. Es importante resaltar que aunque los valores de consumo son los mínimos para esta familia de componentes, la potencia instantánea consumida sigue siendo muy alta para aquellos sistemas que han de trabajar distribuidos, de forma autónoma, y en la mayoría de los casos alimentados por baterías. Por esta razón, es necesario incluir en el diseño estrategias de ahorro energético para incrementar la usabilidad y el tiempo de vida de la plataforma. La primera estrategia implementada consiste en dividir la plataforma en distintas islas de alimentación de forma que sólo aquellos elementos que sean estrictamente necesarios permanecerán alimentados, cuando el resto puede estar completamente apagado. De esta forma es posible combinar distintos modos de operación y así optimizar enormemente el consumo de energía. El hecho de apagar la FPGA para ahora energía durante los periodos de inactividad, supone la pérdida de la configuración, puesto que la memoria de configuración es una memoria volátil. Para reducir el impacto en el consumo y en el tiempo que supone la reconfiguración total de la plataforma una vez encendida, en este trabajo, se incluye una técnica para la compresión del archivo de configuración de la FPGA, de forma que se consiga una reducción del tiempo de configuración y por ende de la energía consumida. Aunque varios de los requisitos de diseño pueden satisfacerse con el diseño de la plataforma HiReCookie, es necesario seguir optimizando diversos parámetros tales como el consumo energético, la tolerancia a fallos y la capacidad de procesamiento. Esto sólo es posible explotando todas las posibilidades ofrecidas por la arquitectura de procesamiento en la FPGA. Por lo tanto, la segunda parte de esta tesis doctoral está centrada en el diseño de una arquitectura reconfigurable denominada ARTICo3 (Arquitectura Reconfigurable para el Tratamiento Inteligente de Cómputo, Confiabilidad y Consumo de energía) para la mejora de estos parámetros por medio de un uso dinámico de recursos. ARTICo3 es una arquitectura de procesamiento para FPGAs basadas en RAM, con comunicación tipo bus, preparada para dar soporte para la gestión dinámica de los recursos internos de la FPGA en tiempo de ejecución gracias a la inclusión de reconfiguración dinámica y parcial. Gracias a esta capacidad de reconfiguración parcial, es posible adaptar los niveles de capacidad de procesamiento, energía consumida o tolerancia a fallos para responder a las demandas de la aplicación, entorno, o métricas internas del dispositivo mediante la adaptación del número de recursos asignados para cada tarea. Durante esta segunda parte de la tesis se detallan el diseño de la arquitectura, su implementación en la plataforma HiReCookie, así como en otra familia de FPGAs, y su validación por medio de diferentes pruebas y demostraciones. Los principales objetivos que se plantean la arquitectura son los siguientes: • Proponer una metodología basada en un enfoque multi-hilo, como las propuestas por CUDA (por sus siglas en inglés, Compute Unified Device Architecture) u Open CL, en la cual distintos kernels, o unidades de ejecución, se ejecuten en un numero variable de aceleradores hardware sin necesidad de cambios en el código de aplicación. • Proponer un diseño y proporcionar una arquitectura en la que las condiciones de trabajo cambien de forma dinámica dependiendo bien de parámetros externos o bien de parámetros que indiquen el estado de la plataforma. Estos cambios en el punto de trabajo de la arquitectura serán posibles gracias a la reconfiguración dinámica y parcial de aceleradores hardware en tiempo real. • Explotar las posibilidades de procesamiento concurrente, incluso en una arquitectura basada en bus, por medio de la optimización de las transacciones en ráfaga de datos hacia los aceleradores. •Aprovechar las ventajas ofrecidas por la aceleración lograda por módulos puramente hardware para conseguir una mejor eficiencia energética. • Ser capaces de cambiar los niveles de redundancia de hardware de forma dinámica según las necesidades del sistema en tiempo real y sin cambios para el código de aplicación. • Proponer una capa de abstracción entre el código de aplicación y el uso dinámico de los recursos de la FPGA. El diseño en FPGAs permite la utilización de módulos hardware específicamente creados para una aplicación concreta. De esta forma es posible obtener rendimientos mucho mayores que en el caso de las arquitecturas de propósito general. Además, algunas FPGAs permiten la reconfiguración dinámica y parcial de ciertas partes de su lógica en tiempo de ejecución, lo cual dota al diseño de una gran flexibilidad. Los fabricantes de FPGAs ofrecen arquitecturas predefinidas con la posibilidad de añadir bloques prediseñados y poder formar sistemas en chip de una forma más o menos directa. Sin embargo, la forma en la que estos módulos hardware están organizados dentro de la arquitectura interna ya sea estática o dinámicamente, o la forma en la que la información se intercambia entre ellos, influye enormemente en la capacidad de cómputo y eficiencia energética del sistema. De la misma forma, la capacidad de cargar módulos hardware bajo demanda, permite añadir bloques redundantes que permitan aumentar el nivel de tolerancia a fallos de los sistemas. Sin embargo, la complejidad ligada al diseño de bloques hardware dedicados no debe ser subestimada. Es necesario tener en cuenta que el diseño de un bloque hardware no es sólo su propio diseño, sino también el diseño de sus interfaces, y en algunos casos de los drivers software para su manejo. Además, al añadir más bloques, el espacio de diseño se hace más complejo, y su programación más difícil. Aunque la mayoría de los fabricantes ofrecen interfaces predefinidas, IPs (por sus siglas en inglés, Intelectual Property) comerciales y plantillas para ayudar al diseño de los sistemas, para ser capaces de explotar las posibilidades reales del sistema, es necesario construir arquitecturas sobre las ya establecidas para facilitar el uso del paralelismo, la redundancia, y proporcionar un entorno que soporte la gestión dinámica de los recursos. Para proporcionar este tipo de soporte, ARTICo3 trabaja con un espacio de soluciones formado por tres ejes fundamentales: computación, consumo energético y confiabilidad. De esta forma, cada punto de trabajo se obtiene como una solución de compromiso entre estos tres parámetros. Mediante el uso de la reconfiguración dinámica y parcial y una mejora en la transmisión de los datos entre la memoria principal y los aceleradores, es posible dedicar un número variable de recursos en el tiempo para cada tarea, lo que hace que los recursos internos de la FPGA sean virtualmente ilimitados. Este variación en el tiempo del número de recursos por tarea se puede usar bien para incrementar el nivel de paralelismo, y por ende de aceleración, o bien para aumentar la redundancia, y por lo tanto el nivel de tolerancia a fallos. Al mismo tiempo, usar un numero óptimo de recursos para una tarea mejora el consumo energético ya que bien es posible disminuir la potencia instantánea consumida, o bien el tiempo de procesamiento. Con el objetivo de mantener los niveles de complejidad dentro de unos límites lógicos, es importante que los cambios realizados en el hardware sean totalmente transparentes para el código de aplicación. A este respecto, se incluyen distintos niveles de transparencia: • Transparencia a la escalabilidad: los recursos usados por una misma tarea pueden ser modificados sin que el código de aplicación sufra ningún cambio. • Transparencia al rendimiento: el sistema aumentara su rendimiento cuando la carga de trabajo aumente, sin cambios en el código de aplicación. • Transparencia a la replicación: es posible usar múltiples instancias de un mismo módulo bien para añadir redundancia o bien para incrementar la capacidad de procesamiento. Todo ello sin que el código de aplicación cambie. • Transparencia a la posición: la posición física de los módulos hardware es arbitraria para su direccionamiento desde el código de aplicación. • Transparencia a los fallos: si existe un fallo en un módulo hardware, gracias a la redundancia, el código de aplicación tomará directamente el resultado correcto. • Transparencia a la concurrencia: el hecho de que una tarea sea realizada por más o menos bloques es transparente para el código que la invoca. Por lo tanto, esta tesis doctoral contribuye en dos líneas diferentes. En primer lugar, con el diseño de la plataforma HiReCookie y en segundo lugar con el diseño de la arquitectura ARTICo3. Las principales contribuciones de esta tesis se resumen a continuación. • Arquitectura de la HiReCookie incluyendo: o Compatibilidad con la plataforma Cookies para incrementar las capacidades de esta. o División de la arquitectura en distintas islas de alimentación. o Implementación de los diversos modos de bajo consumo y políticas de despertado del nodo. o Creación de un archivo de configuración de la FPGA comprimido para reducir el tiempo y el consumo de la configuración inicial. • Diseño de la arquitectura reconfigurable para FPGAs basadas en RAM ARTICo3: o Modelo de computación y modos de ejecución inspirados en el modelo de CUDA pero basados en hardware reconfigurable con un número variable de bloques de hilos por cada unidad de ejecución. o Estructura para optimizar las transacciones de datos en ráfaga proporcionando datos en cascada o en paralelo a los distinto módulos incluyendo un proceso de votado por mayoría y operaciones de reducción. o Capa de abstracción entre el procesador principal que incluye el código de aplicación y los recursos asignados para las diferentes tareas. o Arquitectura de los módulos hardware reconfigurables para mantener la escalabilidad añadiendo una la interfaz para las nuevas funcionalidades con un simple acceso a una memoria RAM interna. o Caracterización online de las tareas para proporcionar información a un módulo de gestión de recursos para mejorar la operación en términos de energía y procesamiento cuando además se opera entre distintos nieles de tolerancia a fallos. El documento está dividido en dos partes principales formando un total de cinco capítulos. En primer lugar, después de motivar la necesidad de nuevas plataformas para cubrir las nuevas aplicaciones, se detalla el diseño de la plataforma HiReCookie, sus partes, las posibilidades para bajar el consumo energético y se muestran casos de uso de la plataforma así como pruebas de validación del diseño. La segunda parte del documento describe la arquitectura reconfigurable, su implementación en varias FPGAs, y pruebas de validación en términos de capacidad de procesamiento y consumo energético, incluyendo cómo estos aspectos se ven afectados por el nivel de tolerancia a fallos elegido. Los capítulos a lo largo del documento son los siguientes: El capítulo 1 analiza los principales objetivos, motivación y aspectos teóricos necesarios para seguir el resto del documento. El capítulo 2 está centrado en el diseño de la plataforma HiReCookie y sus posibilidades para disminuir el consumo de energía. El capítulo 3 describe la arquitectura reconfigurable ARTICo3. El capítulo 4 se centra en las pruebas de validación de la arquitectura usando la plataforma HiReCookie para la mayoría de los tests. Un ejemplo de aplicación es mostrado para analizar el funcionamiento de la arquitectura. El capítulo 5 concluye esta tesis doctoral comentando las conclusiones obtenidas, las contribuciones originales del trabajo y resultados y líneas futuras. ABSTRACT This PhD Thesis is framed within the field of dynamically reconfigurable embedded systems, advanced sensor networks and distributed computing. The document is centred on the study of processing solutions for high-performance autonomous distributed systems (HPADS) as well as their evolution towards High performance Computing (HPC) systems. The approach of the study is focused on both platform and processor levels to optimise critical aspects such as computing performance, energy efficiency and fault tolerance. HPADS are considered feedback systems, normally networked and/or distributed, with real-time adaptive and predictive functionality. These systems, as part of more complex systems known as Cyber-Physical Systems (CPSs), can be applied in a wide range of fields such as military, health care, manufacturing, aerospace, etc. For the design of HPADS, high levels of dependability, the definition of suitable models of computation, and the use of methodologies and tools to support scalability and complexity management, are required. The first part of the document studies the different possibilities at platform design level in the state of the art, together with description, development and validation tests of the platform proposed in this work to cope with the previously mentioned requirements. The main objectives targeted by this platform design are the following: • Study the feasibility of using SRAM-based FPGAs as the main processor of the platform in terms of energy consumption and performance for high demanding applications. • Analyse and propose energy management techniques to reduce energy consumption in every stage of the working profile of the platform. • Provide a solution with dynamic partial and wireless remote HW reconfiguration (DPR) to be able to change certain parts of the FPGA design at run time and on demand without interrupting the rest of the system. • Demonstrate the applicability of the platform in different test-bench applications. In order to select the best approach for the platform design in terms of processing alternatives, a study of the evolution of the state-of-the-art platforms is required to analyse how different architectures cope with new more demanding applications and scenarios: security, mixed-critical systems for aerospace, multimedia applications, or military environments, among others. In all these scenarios, important changes in the required processing bandwidth or the complexity of the algorithms used are provoking the migration of the platforms from single microprocessor architectures to multiprocessing and heterogeneous solutions with more instant power consumption but higher energy efficiency. Within these solutions, FPGAs and Systems on Chip including FPGA fabric and dedicated hard processors, offer a good trade of among flexibility, processing performance, energy consumption and price, when they are used in demanding applications where working conditions are very likely to vary over time and high complex algorithms are required. The platform architecture proposed in this PhD Thesis is called HiReCookie. It includes an SRAM-based FPGA as the main and only processing unit. The FPGA selected, the Xilinx Spartan-6 LX150, was at the beginning of this work the best choice in terms of amount of resources and power. Although, the power levels are the lowest of these kind of devices, they can be still very high for distributed systems that normally work powered by batteries. For that reason, it is necessary to include different energy saving possibilities to increase the usability of the platform. In order to reduce energy consumption, the platform architecture is divided into different power islands so that only those parts of the systems that are strictly needed are powered on, while the rest of the islands can be completely switched off. This allows a combination of different low power modes to decrease energy. In addition, one of the most important handicaps of SRAM-based FPGAs is that they are not alive at power up. Therefore, recovering the system from a switch-off state requires to reload the FPGA configuration from a non-volatile memory device. For that reason, this PhD Thesis also proposes a methodology to compress the FPGA configuration file in order to reduce time and energy during the initial configuration process. Although some of the requirements for the design of HPADS are already covered by the design of the HiReCookie platform, it is necessary to continue improving energy efficiency, computing performance and fault tolerance. This is only possible by exploiting all the opportunities provided by the processing architectures configured inside the FPGA. Therefore, the second part of the thesis details the design of the so called ARTICo3 FPGA architecture to enhance the already intrinsic capabilities of the FPGA. ARTICo3 is a DPR-capable bus-based virtual architecture for multiple HW acceleration in SRAM-based FPGAs. The architecture provides support for dynamic resource management in real time. In this way, by using DPR, it will be possible to change the levels of computing performance, energy consumption and fault tolerance on demand by increasing or decreasing the amount of resources used by the different tasks. Apart from the detailed design of the architecture and its implementation in different FPGA devices, different validation tests and comparisons are also shown. The main objectives targeted by this FPGA architecture are listed as follows: • Provide a method based on a multithread approach such as those offered by CUDA (Compute Unified Device Architecture) or OpenCL kernel executions, where kernels are executed in a variable number of HW accelerators without requiring application code changes. • Provide an architecture to dynamically adapt working points according to either self-measured or external parameters in terms of energy consumption, fault tolerance and computing performance. Taking advantage of DPR capabilities, the architecture must provide support for a dynamic use of resources in real time. • Exploit concurrent processing capabilities in a standard bus-based system by optimizing data transactions to and from HW accelerators. • Measure the advantage of HW acceleration as a technique to boost performance to improve processing times and save energy by reducing active times for distributed embedded systems. • Dynamically change the levels of HW redundancy to adapt fault tolerance in real time. • Provide HW abstraction from SW application design. FPGAs give the possibility of designing specific HW blocks for every required task to optimise performance while some of them include the possibility of including DPR. Apart from the possibilities provided by manufacturers, the way these HW modules are organised, addressed and multiplexed in area and time can improve computing performance and energy consumption. At the same time, fault tolerance and security techniques can also be dynamically included using DPR. However, the inherent complexity of designing new HW modules for every application is not negligible. It does not only consist of the HW description, but also the design of drivers and interfaces with the rest of the system, while the design space is widened and more complex to define and program. Even though the tools provided by the majority of manufacturers already include predefined bus interfaces, commercial IPs, and templates to ease application prototyping, it is necessary to improve these capabilities. By adding new architectures on top of them, it is possible to take advantage of parallelization and HW redundancy while providing a framework to ease the use of dynamic resource management. ARTICo3 works within a solution space where working points change at run time in a 3D space defined by three different axes: Computation, Consumption, and Fault Tolerance. Therefore, every working point is found as a trade-off solution among these three axes. By means of DPR, different accelerators can be multiplexed so that the amount of available resources for any application is virtually unlimited. Taking advantage of DPR capabilities and a novel way of transmitting data to the reconfigurable HW accelerators, it is possible to dedicate a dynamically-changing number of resources for a given task in order to either boost computing speed or adding HW redundancy and a voting process to increase fault-tolerance levels. At the same time, using an optimised amount of resources for a given task reduces energy consumption by reducing instant power or computing time. In order to keep level complexity under certain limits, it is important that HW changes are transparent for the application code. Therefore, different levels of transparency are targeted by the system: • Scalability transparency: a task must be able to expand its resources without changing the system structure or application algorithms. • Performance transparency: the system must reconfigure itself as load changes. • Replication transparency: multiple instances of the same task are loaded to increase reliability and performance. • Location transparency: resources are accessed with no knowledge of their location by the application code. • Failure transparency: task must be completed despite a failure in some components. • Concurrency transparency: different tasks will work in a concurrent way transparent to the application code. Therefore, as it can be seen, the Thesis is contributing in two different ways. First with the design of the HiReCookie platform and, second with the design of the ARTICo3 architecture. The main contributions of this PhD Thesis are then listed below: • Architecture of the HiReCookie platform including: o Compatibility of the processing layer for high performance applications with the Cookies Wireless Sensor Network platform for fast prototyping and implementation. o A division of the architecture in power islands. o All the different low-power modes. o The creation of the partial-initial bitstream together with the wake-up policies of the node. • The design of the reconfigurable architecture for SRAM FPGAs: ARTICo3: o A model of computation and execution modes inspired in CUDA but based on reconfigurable HW with a dynamic number of thread blocks per kernel. o A structure to optimise burst data transactions providing coalesced or parallel data to HW accelerators, parallel voting process and reduction operation. o The abstraction provided to the host processor with respect to the operation of the kernels in terms of the number of replicas, modes of operation, location in the reconfigurable area and addressing. o The architecture of the modules representing the thread blocks to make the system scalable by adding functional units only adding an access to a BRAM port. o The online characterization of the kernels to provide information to a scheduler or resource manager in terms of energy consumption and processing time when changing among different fault-tolerance levels, as well as if a kernel is expected to work in the memory-bounded or computing-bounded areas. The document of the Thesis is divided into two main parts with a total of five chapters. First, after motivating the need for new platforms to cover new more demanding applications, the design of the HiReCookie platform, its parts and several partial tests are detailed. The design of the platform alone does not cover all the needs of these applications. Therefore, the second part describes the architecture inside the FPGA, called ARTICo3, proposed in this PhD Thesis. The architecture and its implementation are tested in terms of energy consumption and computing performance showing different possibilities to improve fault tolerance and how this impact in energy and time of processing. Chapter 1 shows the main goals of this PhD Thesis and the technology background required to follow the rest of the document. Chapter 2 shows all the details about the design of the FPGA-based platform HiReCookie. Chapter 3 describes the ARTICo3 architecture. Chapter 4 is focused on the validation tests of the ARTICo3 architecture. An application for proof of concept is explained where typical kernels related to image processing and encryption algorithms are used. Further experimental analyses are performed using these kernels. Chapter 5 concludes the document analysing conclusions, comments about the contributions of the work, and some possible future lines for the work.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

During the process of design and development of an autonomous Multi-UAV System, two main problems appear. The first one is the difficulty of designing all the modules and behaviors of the aerial multi-robot system. The second one is the difficulty of having an autonomous prototype of the system for the developers that allows to test the performance of each module even in an early stage of the project. These two problems motivate this paper. A multipurpose system architecture for autonomous multi-UAV platforms is presented. This versatile system architecture can be used by the system designers as a template when developing their own systems. The proposed system architecture is general enough to be used in a wide range of applications, as demonstrated in the paper. This system architecture aims to be a reference for all designers. Additionally, to allow for the fast prototyping of autonomous multi-aerial systems, an Open Source framework based on the previously defined system architecture is introduced. It allows developers to have a flight proven multi-aerial system ready to use, so that they can test their algorithms even in an early stage of the project. The implementation of this framework, introduced in the paper with the name of “CVG Quadrotor Swarm”, which has also the advantages of being modular and compatible with different aerial platforms, can be found at https://​github.​com/​Vision4UAV/​cvg_​quadrotor_​swarm with a consistent catalog of available modules. The good performance of this framework is demonstrated in the paper by choosing a basic instance of it and carrying out simulation and experimental tests whose results are summarized and discussed in this paper.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Mice deficient for plasminogen exhibit a variety of pathologies, all of which examined to date are reversed when the animals are also made fibrin(ogen) deficient. These results suggested that the predominant, and perhaps exclusive, physiological role of plasminogen is clearance of fibrin. Plasminogen-deficient mice also display resistance to excitotoxin-induced neurodegeneration, in contrast with wild-type mice, which are sensitive. Based on the genetic interaction between plasminogen and fibrinogen, we investigated whether resistance to neuronal cell death in the plasminogen-deficient mice is dependent on fibrin(ogen). Unexpectedly, mice lacking both plasminogen and fibrinogen are resistant to neurodegeneration to levels comparable to plasminogen-deficient mice. Therefore, plasmin acts on substrates other than fibrin during experimental neuronal degeneration, and may function similarly in other pathological settings in the central nervous system.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Il tatto assume un'importanza fondamentale nella vita quotidiana, in quanto ci permette di discriminare le caratteristiche fisiche di un oggetto specifico, di identificarlo e di eventualmente integrare le suddette informazioni tattili con informazioni provenienti da altri canali sensoriali. Questa è la componente sensoriale-discriminativa del tatto. Tuttavia quotidianamente il tatto assume un ruolo fondamentale durante le diverse interazioni sociali, positive, come quando abbracciamo o accarezziamo una persona con cui abbiamo un rapporto affettivo e negative, per esempio quando allontaniamo una persona estranea dal nostro spazio peri-personale. Questa componente è la cosiddetta dimensione affettiva-motivazionale, la quale determina la codifica della valenza emotiva che l'interazione assume. Questa componente ci permette di creare, mantenere o distruggere i legami sociali in relazione al significato che il tocco assume durante l'interazione. Se per esempio riceviamo una carezza da un familiare, questa verrà percepita come piacevole e assumerà un significato affiliativo. Questo tipo di tocco è comunente definito come Tocco Sociale (Social Touch). Gli aspetti discriminativi del tatto sono stati ben caratterizzati, in quanto storicamente, il ruolo del tatto è stato considerato quello di discriminare le caratteristiche di ciò che viene toccato, mentre gli aspetti affettivi sono stati solo recentemente indagati considerando la loro importanza nelle interazioni sociali. Il tocco statico responsabile dell'aspetto discriminante attiva a livello della pelle le grandi fibre mieliniche (Aβ), modulando a livello del sistema nervoso centrale le cortecce sensoriali, sia primarie che secondarie. Questo permette la codifica a livello del sistema nervoso centrale delle caratteristiche fisiche oggettive degli oggetti toccati. Studi riguardanti le caratteristiche del tocco affiliativo sociale hanno messo in evidenza che suddetta stimolazione tattile 1) è un particolare tocco dinamico che avviene sul lato peloso delle pelle con una velocità di 1-10 cm/sec; 2) attiva le fibre amieliniche (fibre CT o C-LTMRs); 3) induce positivi effetti autonomici, ad esempio la diminuzione della frequenza cardiaca e l'aumento della variabilità della frequenza cardiaca; e 4) determina la modulazione di regioni cerebrali coinvolte nella codifica del significato affiliativo dello stimolo sensoriale periferico, in particolare la corteccia insulare. Il senso del tatto, con le sue due dimensioni discriminativa e affiliativa, è quotidianamente usato non solo negli esseri umani, ma anche tra i primati non umani. Infatti, tutti i primati non umani utilizzano la componente discriminativa del tatto per identificare gli oggetti e il cibo e l'aspetto emotivo durante le interazioni sociali, sia negative come durante un combattimento, che positive, come durante i comportamenti affiliativi tra cui il grooming. I meccanismi di codifica della componente discriminativa dei primati non umani sono simili a quelli umani. Tuttavia, si conosce ben poco dei meccanismi alla base della codifica del tocco piacevole affiliativo. Pur essendo ben noto che i meccanorecettori amilienici C-LTMRs sono presenti anche sul lato peloso della pelle dei primati non umani, attualmente non ci sono studi riguardanti la correlazione tra il tocco piacevole e la loro modulazione, come invece è stato ampiamente dimostrato nell'uomo. Recentemente è stato ipotizzato (Dunbar, 2010) il ruolo delle fibre C-LTMRs durante il grooming, in particolare durante il cosiddetto swepping. Il grooming è costituito da due azioni motorie, lo sweeping e il picking che vengono eseguite in modo ritmico. Durante lo sweeping la scimmia agente muove il pelo della scimmia ricevente con un movimento a mano aperta, per poter vedere il preciso punto della pelle dove eseguire il picking, ovvero dove prendere la pelle a livello della radice del pelo con le unghie dell'indice e del pollice e tirare per rimuovere parassiti o uova di parassiti e ciò che è rimasto incastrato nel pelo. Oltre il noto ruolo igenico, il grooming sembra avere anche una importante funzione sociale affiliativa. Come la carezza nella società umana, cosi il grooming tra i primati non umani è considerato un comportamento. Secondo l'ipotesi di Dunbar l'attivazione delle C-LTMRs avverrebbe durante lo sweeping e questo porta a supporre che lo sweeping, come la carezza umana, costituisca una componente affiliativa del grooming, determinando quindi a contribuire alla sua codifica come comportamento sociale. Fino ad ora non vi è però alcuna prova diretta a sostegno di questa ipotesi. In particolare, 1) la velocità cui viene eseguito lo sweeping è compatibile con la velocità di attivazione delle fibre CT nell'uomo e quindi con la velocità tipica della carezza piacevole di carattere sociale affiliativo (1-10 cm/sec)?; 2) lo sweeping induce la stessa modulazione del sistema nervoso autonomo in direzione della modulazione del sistema vagale, come il tocco piacevole nell'uomo, attraverso l'attivazione delle fibre CT?; 3) lo sweeping modula la corteccia insulare, cosi come il tocco piacevole viene codificato come affiliativo nell'uomo mediante le proiezioni delle fibre CT a livello dell'insula posteriore? Lo scopo del presente lavoro è quella di testare l'ipotesi di Dunbar sopra citata, cercando quindi di rispondere alle suddette domande. Le risposte potrebbero consentire di ipotizzare la somiglianza tra lo sweeping, caratteristico del comportamento affiliativo di grooming tra i primati non umani e la carezza. In particolare, abbiamo eseguito 4 studi pilota. Nello Studio 1 abbiamo valutato la velocità con cui viene eseguito lo sweeping tra scimmie Rhesus, mediante una analisi cinematica di video registrati tra un gruppo di scimmie Rhesus. Negli Studi 2 e 3 abbiamo valutato gli effetti sul sistema nervoso autonomo dello sweeping eseguito dallo sperimentatore su una scimmia Rhesus di sesso maschile in una tipica situazione sperimentale. La stimolazione tattile è stata eseguita a diverse velocità, in accordo con i risultati dello Studio 1 e degli studi umani che hanno dimostrato la velocità ottimale e non ottimale per l'attivazione delle C-LTMRs. In particolare, nello Studio 2 abbiamo misurato la frequenza cardiaca e la variabilità di questa, come indice della modulatione vagale, mentre nello Studio 3 abbiamo valutato gli effetti dello sweeping sul sistema nervoso autonomo in termini di variazioni di temperatura del corpo, nello specifico a livello del muso della scimmia. Infine, nello Studio 4 abbiamo studiato il ruolo della corteccia somatosensoriale secondaria e insulare nella codifica dello sweeping. A questo scopo abbiamo eseguito registrazioni di singoli neuroni mentre la medesima scimmia soggetto sperimentale dello Studio 2 e 3, riceveva lo sweeping a due velocità, una ottimale per l'attivazione delle C-LTMRs secondo gli studi umani e i risultati dei tre studi sopra citati, ed una non ottimale. I dati preliminari ottenuti, dimostrano che 1) (Studio 1) lo sweeping tra scimmie Rhesus viene eseguito con una velocità media di 9.31 cm/sec, all'interno dell'intervallo di attivazione delle fibre CT nell'uomo; 2) (Studio 2) lo sweeping eseguito dallo sperimentatore sulla schiena di una scimmia Rhesus di sesso maschile in una situazione sperimentale determina una diminuzione della frequenza cardiaca e l'aumento della variabilità della frequenza cardiaca se eseguito alla velocità di 5 e 10 cm/sec. Al contrario, lo sweeping eseguito ad una velocità minore di 1 cm/sec o maggiore di 10 cm/sec, determina l'aumento della frequenza cardiaca e la diminuzione della variabilità di questa, quindi il decremento dell'attivazione del sistema nervoso parasimpatico; 3) (Studio 3) lo sweeping eseguito dallo sperimentatore sulla schiena di una scimmia Rhesus di sesso maschile in una situazione sperimentale determina l'aumento della temperatura corporea a livello del muso della scimmia se eseguito alla velocità di 5-10 cm/sec. Al contrario, lo sweeping eseguito ad una velocità minore di 5 cm/sec o maggiore di 10 cm/sec, determina la diminuzione della temperatura del muso; 4) (Studio 4) la corteccia somatosensoriale secondaria e la corteccia insulare posteriore presentano neuroni selettivamente modulati durante lo sweeping eseguito ad una velocità di 5-13 cm/sec ma non neuroni selettivi per la codifica della velocità dello sweeping minore di 5 cm/sec. Questi risultati supportano l'ipotesi di Dunbar relativa al coinvolgimento delle fibre CT durante lo sweeping. Infatti i dati mettono in luce che lo sweeping viene eseguito con una velocità (9.31 cm/sec), simile a quella di attivazione delle fibre CT nell'uomo (1-10 cm/sec), determina gli stessi effetti fisiologici positivi in termini di frequenza cardiaca (diminuzione) e variabilità della frequenza cardiaca (incremento) e la modulazione delle medesime aree a livello del sistema nervoso centrale (in particolare la corteccia insulare). Inoltre, abbiamo dimostrato per la prima volta che suddetta stimolazione tattile determina l'aumento della temperatura del muso della scimmia. Il presente studio rappresenta la prima prova indiretta dell'ipotesi relativa alla modulazione del sistema delle fibre C-LTMRs durante lo sweeping e quindi della codifica della stimolazione tattile piacevole affiliativa a livello del sistema nervoso centrale ed autonomo, nei primati non umani. I dati preliminari qui presentati evidenziano la somiglianza tra il sistema delle fibre CT dell'uomo e del sistema C-LTMRs nei primati non umano, riguardanti il Social Touch. Nonostante ciò abbiamo riscontrato alcune discrepanze tra i risultati da noi ottenuti e quelli invece ottenuti dagli studi umani. La velocità media dello sweeping è di 9.31 cm / sec, rasente il limite superiore dell’intervallo di velocità che attiva le fibre CT nell'uomo. Inoltre, gli effetti autonomici positivi, in termini di battito cardiaco, variabilità della frequenza cardiaca e temperatura a livello del muso, sono stati evidenziati durante lo sweeping eseguito con una velocità di 5 e 10 cm/sec, quindi al limite superiore dell’intervallo ottimale che attiva le fibre CT nell’uomo. Al contrario, lo sweeping eseguito con una velocità inferiore a 5 cm/sec e superiore a 10 cm/sec determina effetti fisiologici negativo. Infine, la corteccia insula sembra essere selettivamente modulata dallo stimolazione eseguita alla velocità di 5-13 cm/sec, ma non 1-5 cm/sec. Quindi, gli studi sul sistema delle fibre CT nell’uomo hanno dimostrato che la velocità ottimale è 1-10 cm/sec, mentre dai nostri risultati la velocità ottimale sembra essere 5-13 cm / sec. Quindi, nonostante l'omologia tra il sistema delle fibre CT nell'umano deputato alla codifica del tocco piacevole affiliativo ed il sistema delle fibre C-LTMRs nei primati non umani, ulteriori studi saranno necessari per definire con maggiore precisione la velocità ottimale di attivazione delle fibre C-LTMR e per dimostrare direttamente la loro attivazione durante lo sweeping, mediante la misurazione diretta della loro modulazione. Studi in questa direzione potranno confermare l'omologia tra lo sweeping in qualità di tocco affiliativo piacevole tra i primati non umani e la carezza tra gli uomini. Infine, il presente studio potrebbe essere un importante punto di partenza per esplorare il meccanismo evolutivo dietro la trasformazione dello sweeping tra primati non umani, azione utilitaria eseguita durante il grooming, a carezza, gesto puramente affiliativo tra gli uomini.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

This paper proposes the implementation of different non-local Planetary Boundary Layer schemes within the Regional Atmospheric Modeling System (RAMS) model. The two selected PBL parameterizations are the Medium-Range Forecast (MRF) PBL and its updated version, known as the Yonsei University (YSU) PBL. YSU is a first-order scheme that uses non-local eddy diffusivity coefficients to compute turbulent fluxes. It is based on the MRF, and improves it with an explicit treatment of the entrainment. With the aim of evaluating the RAMS results for these PBL parameterizations, a series of numerical simulations have been performed and contrasted with the results obtained using the Mellor and Yamada (MY) scheme, also widely used, and the standard PBL scheme in the RAMS model. The numerical study carried out here is focused on mesoscale circulation events during the summer, as these meteorological situations dominate this season of the year in the Western Mediterranean coast. In addition, the sensitivity of these PBL parameterizations to the initial soil moisture content is also evaluated. The results show a warmer and moister PBL for the YSU scheme compared to both MRF and MY. The model presents as well a tendency to overestimate the observed temperature and to underestimate the observed humidity, considering all PBL schemes and a low initial soil moisture content. In addition, the bias between the model and the observations is significantly reduced moistening the initial soil moisture of the corresponding run. Thus, varying this parameter has a positive effect and improves the simulated results in relation to the observations. However, there is still a significant overestimation of the wind speed over flatter terrain, independently of the PBL scheme and the initial soil moisture used, even though a different degree of accuracy is reproduced by RAMS taking into account the different sensitivity tests.