974 resultados para Sistemi multi-agente, TuCSoN, ReSpecT, coordinazione semantica
Resumo:
L’obiettivo principale di questo elaborato è di mostrare in un primo momento i concetti fondamentali che stanno alla base del paradigma ad agenti. Una volta introdotti, essi verranno collocati in un determinato ambiente di programmazione attraverso una piattaforma specifica chiamata Jason. Come sarà facile capire dalla lettura di questa trattazione, un sistema ad agenti è costituito dagli agenti stessi e dall’ambiente in cui sono situati. L’ambiente risulta quindi un altro tassello fondamentale ed è stato introdotto allo scopo un nuovo paradigma per la programmazione di ambienti chiamato Agent & Artifact. Nello specifico, verrà ampiamente descritto il framework di riferimento di tale paradigma: CArtAgO. Dopo aver illustrato i concetti e gli strumenti per poter agilmente programmare e progettare sistemi ad agenti, verrà infine mostrato un esempio di applicazione di tale tecnologia attraverso un case study. Il progetto del sistema in questione riguarda un reale caso aziendale e integra la tecnologia RFID con quella ad agenti per fornire la soluzione ad un problema noto come quello del controllo periodico delle scorte.
Resumo:
La tesi esplora le problematiche relative all'integrazione di tecnologie per lo sviluppo di sistemi multi-agente e tecnologie per lo sviluppo di sistemi di comunicazione ad eventi. In particolare è stata posta l'attenzione sui concetti condivisi da entrambe le tecnologie e su come sia possibile realizzare l'integrazione preservando i principi fondamentali delle due tipologie di sistemi, tramite l'implementazione di un'astrazione di coordinazione oggettiva. Inoltre viene mostrato un esempio di integrazione tra JADE, TuCSoN e Kafka, tramite un caso di studio che permette di utilizzare i tre modelli di coordinazione offerti da questi framework in un unico sistema multi-agente.
Resumo:
Negli ultimi anni le tecnologie informatiche sono state al centro di uno sviluppo esponenziale. Fra le incalcolabili innovazioni presentate, ha preso sempre più campo il paradigma per la programmazione ad agenti, che permette la realizzazione di sistemi software complessi, i quali, nell'informatica moderna, ricoprono un ruolo di fondamentale importanza. Questi sistemi, denominati autonomi, mostrano caratteristiche interessanti per scenari dinamici; essi infatti devono essere robusti e resistenti, in grado di adattarsi al contesto ambientale e quindi reagire a determinate modifiche che si verificano nell'ambiente, comportandosi di conseguenza. Indicano perciò la pro-attività dell'entità presa in considerazione. In questa tesi saranno spiegate queste tipologie di sistemi, introdotte le loro caratteristiche e mostrate le loro potenzialità. Tali caratteristiche permettono di responsabilizzare i soggetti, rendendo il sistema auto-organizzato, con una migliore scalabilità e modularità, riducendo quindi le elevate esigenze di calcolo. L'organizzazione di questo documento prevede i primi capitoli atti a introdurre il mondo dei sistemi autonomi, partendo dalle definizioni di autonomia e di agenti software, concludendo con i sistemi multi-agenti, allo scopo di permettere al lettore una comprensione adatta ed esaustiva. I successivi capitoli riguardano le fasi di progettazione delle entità prese in esame, le loro forme di standardizzazione e i modelli che possono adottare, tra i quali il più conosciuto, il modello BDI. Ne seguono due diverse metodologie per l'ingegneria del software orientata agli agenti. Si conclude con la presentazione dello stato dell'arte degli ambienti di sviluppo conosciuti, contenente un'esauriente introduzione ad ognuno di essi ed una visione nel mondo del lavoro del loro apporto negli applicativi in commercio. Infine la tesi terminerà con un capitolo di conclusioni e di riflessioni sui possibili aspetti futuri.
Resumo:
[ES] En este trabajo se expone una metodología para modelar un sistema Multi-Agente (SMA), para que sea equivalente a un sistema de Ecuaciones Diferenciales Ordinarias (EDO), mediante un esquema basado en el método de Monte Carlo. Se muestra que el SMA puede describir con mayor riqueza modelos de sistemas dinámicos con variables cuantificadas discretas. Estos sistemas son muy acordes con los sistemas biológicos y fisiológicos, como el modelado de poblaciones o el modelado de enfermedades epidemiológicas, que en su mayoría se modelan con ecuaciones diferenciales. Los autores piensan que las ecuaciones diferenciales no son lo suficientemente apropiadas para modelar este tipo de problemas y proponen que se modelen con una técnica basada en agentes. Se plantea un caso basado en un modelo matemático de Leucemia Mieloide Crónica (LMC) que se transforma en un SMA equivalente. Se realiza una simulación de los dos modelos (SMA y EDO) y se compara los resultados obtenidos.
Resumo:
Este trabalho pretende avaliar se é possível elaborar estratégias pedagógicas com base em modelos de níveis de tomada de consciência e utilizá-las, por meio de agentes inteligentes, em um ambiente de aprendizagem. O ambiente utilizado foi o AMPLIA - Ambiente Multi-agente Probabilístico Inteligente de Aprendizagem, desenvolvido inicialmente como um recurso auxiliar para a educação médica: neste ambiente, o aluno constrói uma representação gráfica de sua hipótese diagnóstica, por meio de uma rede bayesiana. O AMPLIA é formado por três agentes inteligentes, o primeiro é o Agente de Domínio, responsável pela avaliação da rede bayesiana do aluno. Os projetos dos outros dois agentes inteligentes do AMPLIA são apresentados nesta tese: o Agente Aprendiz, que faz inferências probabilísticas sobre as ações do aluno, a fim de construir um modelo do aluno baseado em seu nível de tomada de consciência, e o Agente Mediador, que utiliza um Diagrama de influência, para selecionar a estratégia pedagógica com maior probabilidade de utilidade. Por meio de uma revisão dos estudos de Piaget sobre a equilibração das estruturas cognitivas e sobre a tomada de consciência, foi construída a base teórica para a definição e organização das estratégias. Essas foram organizadas em classes, de acordo com o principal problema detectado na rede do aluno e com a confiança declarada pelo aluno, e em táticas, de acordo com o nível de autonomia, inferido pelo Agente Aprendiz. Foram realizados experimentos práticos acompanhados por instrumentos de avaliação e por observações virtuais on line, com o objetivo de detectar variações nos estados de confiança, de autonomia e de competência. Também foram pesquisados indícios de estados de desequilibração e de condutas de regulação e equilibração durante os ciclos de interação do aluno com o AMPLIA. Os resultados obtidos permitiram concluir que há evidências de que, ao longo do processo, há ciclos em que o aluno realiza ações sem uma tomada de consciência. Estes estados são identificados, probabilisticamente, pelo agente inteligente, que então seleciona uma estratégia mais voltada para um feedback negativo, isto é, uma correção. Quando o agente infere uma mudança neste estado, seleciona outra estratégia, com um feedback positivo e com maior utilidade para dar início a um processo de negociação pedagógica, isto é, uma tentativa de maximizar a confiança do aluno em si mesmo e no AMPLIA, assim como maximizar a confiança do AMPLIA no aluno. Os trabalhos futuros apontam para a ampliação do modelo do aluno, por meio da incorporação de um maior número de variáveis, e para a necessidade de aprofundamento dos estudos sobre a declaração de confiança, do ponto de vista psicológico. As principais contribuições relatadas são na definição e construção de um modelo de aluno, com utilização de redes bayesianas, no projeto de um agente pedagógico como mediador num processo de negociação pedagógica, e na definição e seleção de estratégias pedagógicas para o AMPLIA.
Resumo:
Com o objetivo de estabelecer uma metodologia capaz segregar momentos de mercado e de identificar as características predominantes dos investidores atuantes em um determinado mercado financeiro, este trabalho emprega simulações geradas em um Mercado Financeiro Artificial baseado em agentes, utilizando um Algoritmo Genético para ajustar tais simulações ao histórico real observado. Para tanto, uma aplicação foi desenvolvida utilizando-se o mercado de contratos futuros de índice Bovespa. Esta metodologia poderia facilmente ser estendida a outros mercados financeiros através da simples parametrização do modelo. Sobre as bases estabelecidas por Toriumi et al. (2011), contribuições significativas foram atingidas, promovendo acréscimo de conhecimento acerca tanto do mercado alvo escolhido, como das técnicas de modelagem em Mercados Financeiros Artificiais e também da aplicação de Algoritmos Genéticos a mercados financeiros, resultando em experimentos e análises que sugerem a eficácia do método ora proposto.
Resumo:
We propose a new paradigm for collective learning in multi-agent systems (MAS) as a solution to the problem in which several agents acting over the same environment must learn how to perform tasks, simultaneously, based on feedbacks given by each one of the other agents. We introduce the proposed paradigm in the form of a reinforcement learning algorithm, nominating it as reinforcement learning with influence values. While learning by rewards, each agent evaluates the relation between the current state and/or action executed at this state (actual believe) together with the reward obtained after all agents that are interacting perform their actions. The reward is a result of the interference of others. The agent considers the opinions of all its colleagues in order to attempt to change the values of its states and/or actions. The idea is that the system, as a whole, must reach an equilibrium, where all agents get satisfied with the obtained results. This means that the values of the state/actions pairs match the reward obtained by each agent. This dynamical way of setting the values for states and/or actions makes this new reinforcement learning paradigm the first to include, naturally, the fact that the presence of other agents in the environment turns it a dynamical model. As a direct result, we implicitly include the internal state, the actions and the rewards obtained by all the other agents in the internal state of each agent. This makes our proposal the first complete solution to the conceptual problem that rises when applying reinforcement learning in multi-agent systems, which is caused by the difference existent between the environment and agent models. With basis on the proposed model, we create the IVQ-learning algorithm that is exhaustive tested in repetitive games with two, three and four agents and in stochastic games that need cooperation and in games that need collaboration. This algorithm shows to be a good option for obtaining solutions that guarantee convergence to the Nash optimum equilibrium in cooperative problems. Experiments performed clear shows that the proposed paradigm is theoretical and experimentally superior to the traditional approaches. Yet, with the creation of this new paradigm the set of reinforcement learning applications in MAS grows up. That is, besides the possibility of applying the algorithm in traditional learning problems in MAS, as for example coordination of tasks in multi-robot systems, it is possible to apply reinforcement learning in problems that are essentially collaborative