7 resultados para Simulação Multi-Agente

em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho pretende avaliar se é possível elaborar estratégias pedagógicas com base em modelos de níveis de tomada de consciência e utilizá-las, por meio de agentes inteligentes, em um ambiente de aprendizagem. O ambiente utilizado foi o AMPLIA - Ambiente Multi-agente Probabilístico Inteligente de Aprendizagem, desenvolvido inicialmente como um recurso auxiliar para a educação médica: neste ambiente, o aluno constrói uma representação gráfica de sua hipótese diagnóstica, por meio de uma rede bayesiana. O AMPLIA é formado por três agentes inteligentes, o primeiro é o Agente de Domínio, responsável pela avaliação da rede bayesiana do aluno. Os projetos dos outros dois agentes inteligentes do AMPLIA são apresentados nesta tese: o Agente Aprendiz, que faz inferências probabilísticas sobre as ações do aluno, a fim de construir um modelo do aluno baseado em seu nível de tomada de consciência, e o Agente Mediador, que utiliza um Diagrama de influência, para selecionar a estratégia pedagógica com maior probabilidade de utilidade. Por meio de uma revisão dos estudos de Piaget sobre a equilibração das estruturas cognitivas e sobre a tomada de consciência, foi construída a base teórica para a definição e organização das estratégias. Essas foram organizadas em classes, de acordo com o principal problema detectado na rede do aluno e com a confiança declarada pelo aluno, e em táticas, de acordo com o nível de autonomia, inferido pelo Agente Aprendiz. Foram realizados experimentos práticos acompanhados por instrumentos de avaliação e por observações virtuais on line, com o objetivo de detectar variações nos estados de confiança, de autonomia e de competência. Também foram pesquisados indícios de estados de desequilibração e de condutas de regulação e equilibração durante os ciclos de interação do aluno com o AMPLIA. Os resultados obtidos permitiram concluir que há evidências de que, ao longo do processo, há ciclos em que o aluno realiza ações sem uma tomada de consciência. Estes estados são identificados, probabilisticamente, pelo agente inteligente, que então seleciona uma estratégia mais voltada para um feedback negativo, isto é, uma correção. Quando o agente infere uma mudança neste estado, seleciona outra estratégia, com um feedback positivo e com maior utilidade para dar início a um processo de negociação pedagógica, isto é, uma tentativa de maximizar a confiança do aluno em si mesmo e no AMPLIA, assim como maximizar a confiança do AMPLIA no aluno. Os trabalhos futuros apontam para a ampliação do modelo do aluno, por meio da incorporação de um maior número de variáveis, e para a necessidade de aprofundamento dos estudos sobre a declaração de confiança, do ponto de vista psicológico. As principais contribuições relatadas são na definição e construção de um modelo de aluno, com utilização de redes bayesianas, no projeto de um agente pedagógico como mediador num processo de negociação pedagógica, e na definição e seleção de estratégias pedagógicas para o AMPLIA.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O principal objetivo da tese foi desenvolver um modelo matemático computacional espacialmente explícito, de autômatos celulares (CA), capaz de simular a dinâmica de vegetação campestre sob pastejo, descrita por tipos funcionais de plantas (PFTs), ao invés de espécies. Com dados obtidos a campo, utilizou-se um método recursivo de identificação politética de PFTs a partir de atributos morfológicos das plantas, de forma a expressar máxima correlação com diversidade de espécies. A alternância entre condições experimentais de exposição e exclusão de pastejo permitiu produzir variação em padrões espaciais e temporais da composição da vegetação descrita por esses PFTs. A seguir buscou-se modelar a dinâmica da vegetação. Assumiu-se que a dinâmica da vegetação, embora complexa, pudesse ser simulada a partir de mecanismos relativamente simples incorporados a um modelo CA formado por uma grade de células (comunidades). Cada célula tem uma dada composição de PFTs a qual se altera a cada passo no tempo conforme a composição da própria célula e da vizinhança e matrizes de transição determinadas empiricamente com os dados experimentais. A dinâmica simulada da composição de comunidades excluídas do pastejo mostrou determinismo no sentido de um PFT único, característico daquelas comunidades. A mesma tendência não foi observada nas simulações de comunidades sempre pastejadas. Os resultados indicam uma razoável concordância entre a dinâmica simulada e real, para as comunidades excluídas; e uma discordância para as comunidades sempre pastejadas. Sugere-se que diferenças no arranjo espacial inicial das comunidades motivam falhas do modelo sob pastejo. O Institut National de la Recherche Agronomique (INRA), na França, vem desenvolvendo um modelo simulador multi-agente espacializado como objetivo de representar realisticamente o manejo da vegetação campestre natural sob diferentes regimes de pastejo. Ele foi concebido como uma ferramenta de pesquisa para explorar o comportamento animal em pastagens heterogêneas Nesse modelo implícito e determinístico, uma definição funcional de três diferentes comunidades vegetais foi introduzida objetivando simular a dinâmica de pastagens multi-espécies. Isto foi feito pela intercambio de parâmetros do modelo com atributos funcionais da comunidade. Do ponto vista conceptual o modelo apresentou boa resposta e parece adequado para simular a dinâmica de uma vegetação campestre por atributos funcionais. O modelo apresentou um bom ajuste aos dados experimentais para alto nível de utilização, mas não tão bom para médio e baixo nível de pastejo, ou seja, comunidades vegetais mais heterogêneas. Reforça-se a idéia de que mais modelos que levem em conta a estrutura horizontal da vegetação são necessários.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

À medida que consumidores aprendem a usar um novo bem durável, seu interesse no produto pode mudar. Em algumas situações, eles descobrem novas aplicações e benefícios inesperados. Em outras situações, eles experimentam decrescente interesse em melhorias nos produtos. Estas mudanças nas preferências podem afetar o marketing mix ótimo da empresa responsável pelo produto. Esta tese desenvolve um modelo para examinar como a dinâmica das preferências dos consumidores, resultante de compras passadas, impacta o preço e qualidade ótimos para um monopolista maximizador de lucro. O foco deste trabalho é em recompras voluntárias (i.e., compradores podem postergar a compra de uma reposição se assim o desejarem) e em consumidores que, ao recomprar, exigem que o produto ofertado tenha qualidade superior aos produtos que já possuem. Utilizando simulação multi-período, esta tese explora o impacto de três regimes de mudança nas preferências dos consumidores: crescente, decrescente e em forma de U (habituação e sensitização). Este trabalho analisa separadamente como mudanças na sensibilidade ao preço e na sensibilidade à qualidade afetam elementos do marketing mix ótimo. Os resultados fornecem uma série de contribuições à literatura de bens duráveis. Primeiro, eles ilustram o impacto da dinâmica das preferências dos consumidores na empresa e na tradicional Conjectura de Coase. Segundo, esta tese mostra que o fenômeno de performance oversupply, descrito na literatura sobre tecnologias disruptivas, pode ser explicado através da evolução das preferências dos consumidores. Terceiro, esta pesquisa estende a literatura sobre habituação e sensitização para a situação onde o marketing mix é endógeno.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O avanço tecnológico no projeto de microprocessadores, nos recentes anos, tem seguido duas tendências principais. A primeira tenta aumentar a freqüência do relógio dos mesmos usando componentes digitais e técnicas VLSI mais eficientes. A segunda tenta explorar paralelismo no nível de instrução através da reorganização dos seus componentes internos. Dentro desta segunda abordagem estão as arquiteturas multi-tarefas simultâneas, que são capazes de extrair o paralelismo existente entre e dentro de diferentes tarefas das aplicações, executando instruções de vários fluxos simultaneamente e maximizando assim a utilização do hardware. Apesar do alto custo da implementação em hardware, acredita-se no potencial destas arquiteturas para o futuro próximo, pois é previsto que em breve haverá a disponibilidade de bilhões de transistores para o desenvolvimento de circuitos integrados. Assim, a questão principal a ser encarada talvez seja: como prover instruções paralelas para uma arquitetura deste tipo? Sabe-se que a maioria das aplicações é seqüencial pois os problemas nem sempre possuem uma solução paralela e quando a solução existe os programadores nem sempre têm habilidade para ver a solução paralela. Pensando nestas questões a arquitetura SEMPRE foi projetada. Esta arquitetura executa múltiplos processos, ao invés de múltiplas tarefas, aproveitando assim o paralelismo existente entre diferentes aplicações. Este paralelismo é mais expressivo do que aquele que existe entre tarefas dentro de uma mesma aplicação devido a não existência de sincronismo ou comunicação entre elas. Portanto, a arquitetura SEMPRE aproveita a grande quantidade de processos existentes nas estações de trabalho compartilhadas e servidores de rede. Além disso, esta arquitetura provê suporte de hardware para o escalonamento de processos e instruções especiais para o sistema operacional gerenciar processos com mínimo esforço. Assim, os tempos perdidos com o escalonamento de processos e as trocas de contextos são insignificantes nesta arquitetura, provendo ainda maior desempenho durante a execução das aplicações. Outra característica inovadora desta arquitetura é a existência de um mecanismo de prébusca de processos que, trabalhando em cooperação com o escalonamento de processos, permite reduzir faltas na cache de instruções. Também, devido a essa rápida troca de contexto, a arquitetura permite a definição de uma fatia de tempo (fatia de tempo) menor do que aquela praticada pelo sistema operacional, provendo maior dinâmica na execução das aplicações. A arquitetura SEMPRE foi analisada e avaliada usando modelagem analítica e simulação dirigida por execução de programas do SPEC95. A modelagem mostrou que o escalonamento por hardware reduz os efeitos colaterais causados pela presença de processos na cache de instruções e a simulação comprovou que as diferentes características desta arquitetura podem, juntas, prover ganho de desempenho razoável sobre outras arquiteturas multi-tarefas simultâneas equivalentes, com um pequeno acréscimo de hardware, melhor aproveitando as fatias de tempo atribuídas aos processos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O comportamento hidrológico de grandes bacias envolve a integração da variabilidade espacial e temporal de um grande número de processos. No passado, o desenvolvimento de modelos matemáticos precipitação – vazão, para representar este comportamento de forma simplificada, permitiu dar resposta às questões básicas de engenharia. No entanto, estes modelos não permitiram avaliar os efeitos de modificações de uso do solo e a variabilidade da resposta em grandes bacias. Este trabalho apresenta o desenvolvimento e a validação de um modelo hidrológico distribuído utilizado para representar os processos de transformação de chuva em vazão em grandes bacias hidrográficas (maiores do que 10.000 km2). Uma grade regular de células de algumas dezenas ou centenas de km2 é utilizada pelo modelo para representar os processos de balanço de água no solo; evapotranspiração; escoamentos: superficial, sub-superficial e subterrâneo na célula; e o escoamento na rede de drenagem em toda a bacia hidrográfica. A variabilidade espacial é representada pela distribuição das características da bacia em células regulares ao longo de toda a bacia, e pela heterogeneidade das características no interior de cada célula. O modelo foi aplicado na bacia do rio Taquari Antas, no Rio Grande do Sul, na bacia do rio Taquari, no Mato Grosso do Sul, e na bacia do rio Uruguai, entre Rio Grande do Sul e Santa Catarina. O tamanho destas bacias variou entre, aproximadamente, 30.000 km2 e 75.000 km2. Os parâmetros do modelo foram calibrados de forma manual e automática, utilizando uma metodologia de calibração automática multi-objetivo baseada em um algoritmo genético. O modelo foi validado pela aplicação em períodos de verificação diferentes do período de calibração, em postos fluviométricos não considerados na calibração e pela aplicação em bacias próximas entre si, com características físicas semelhantes. Os resultados são bons, considerando a capacidade do modelo de reproduzir os hidrogramas observados, porém indicam que novas fontes de dados, como os fluxos de evapotranspiração para diferentes coberturas vegetais, serão necessários para a plena utilização do modelo na análise de mudanças de uso do solo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O desenvolvimento de protocolos distribuídos é uma tarefa complexa. Em sistemas tolerantes a falhas, a elaboração de mecanismos para detectar e mascarar defeitos representam grande parte do esforço de desenvolvimento. A técnica de simulação pode auxiliar significativamente nessa tarefa. Entretanto, existe uma carência de ferramentas de simulação para investigação de protocolos distribuídos em cenários com defeitos, particularmente com suporte a experimentos em configurações “típicas” da Internet. O objetivo deste trabalho é investigar o uso do simulador de redes NS (Network Simulator) como ambiente para simulação de sistemas distribuídos, particularmente em cenários sujeitos à ocorrência de defeitos. O NS é um simulador de redes multi-protocolos, que tem código aberto e pode ser estendido. Embora seja uma ferramenta destinada ao estudo de redes de computadores, o ajuste adequado de parâmetros e exploração de características permitiu utilizá-lo para simular defeitos em um sistema distribuído. Para isso, desenvolveu-se dois modelos de sistemas distribuídos que podem ser implementados no NS, dependendo do protocolo de transporte utilizado: um baseado em TCP e o outro baseado em UDP. Também, foram estudadas formas de modelar defeitos através do simulador. Para a simulação de defeito de colapso em um nodo, foi proposta a implementação de um método na classe de cada aplicação na qual se deseja simular defeitos. Para ilustrar como os modelos de sistemas distribuídos e de defeitos propostos podem ser utilizados, foram implementados diversos algoritmos distribuídos em sistemas síncronos e assíncronos. Algoritmos de eleição e o protocolo Primário-Backup são exemplos dessas implementações. A partir desses algoritmos, principalmente do Primário-Backup, no qual a simulação de defeitos foi realizada, foi possível constatar que o NS pode ser uma ferramenta de grande auxílio no desenvolvimento de novas técnicas de Tolerância a Falhas. Portanto, o NS pode ser estendido possibilitando que, com a utilização dos modelos apresentados nesse trabalho, simule-se defeitos em um sistema distribuído.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho apresenta um sistema multiagente que permite simular execuções musicais em violão. Em uma execução musical no violão observam-se elementos distintos que, trabalhando em conjunto, produzem a sonoridade desejada pelo músico. Ou seja, as ações tomadas pelo violonista, através do sincronismo de suas mãos sobre o instrumento, influenciam diretamente na sonoridade obtida. A idéia básica deste trabalho é desenvolver uma comunidade de agentes que represente as entidades envolvidas em uma performance musical de violão. Quatro agentes foram identificados e modelados no contexto desta dissertação. São eles: Mão Esquerda (ME): Responsável pela execução dos acordes, ou seja, deve possuir o conhecimento de formação de acordes dada a afinação do instrumento bem como a interpretação das cifras que representam os acordes. Agente Mão Direita (MD): Responsável pelo ritmo impresso na música; Caixa de Som (CS): Permite que os usuários simplesmente escutem a composição, sem nenhuma (ou muito pouca) interferência na composição. Agente Solista (SL): Projetado somente para ler arquivos MIDI e enviar notas para o Agente Caixa de Som (CS). O conhecimento relativo ao reconhecimento das cifras, geração do acorde e posterior cálculo do desenho do acorde para um instrumento de corda foi encapsulado em duas bibliotecas que visam auxiliar no desenvolvimento de outros novos projetos que necessitem de funcionalidades similares. Ainda, são abordadas as questões da comunicação entre os agentes e componentes gráficos utilizados na captura de informações rítmicas. O material musical produzido pelo sistema está contido no CD-ROM em anexo, bem como a documentação das API’s.