999 resultados para simulação baseada em agentes
Resumo:
As redes de computadores experimentam um grande crescimento não apenas em tamanho, mas também no número de serviços oferecidos e no número de protocolos de alto nível e aplicações que são executados sobre elas. Boa parte desses software (ex.: ICQ e Napster), em geral, não está diretamente ligada a aplicações críticas, mas o seu uso não controlado pode degradar o desempenho da rede. Para que se possa medir o impacto dos mesmos sobre a infra-estrutura, mecanismos de gerência ligados à contabilização e caracterização de tráfego são desejáveis. Por outro lado, alguns protocolos, serviços e aplicações (ex. servidores DNS e Web) suportam aplicações e precisam ser monitorados e gerenciados com maior atenção. Para essa classe de software de rede, a simples contabilização e caracterização de tráfego não é suficiente; tarefas de gerência como teste de serviços, detecção e manipulação de falhas, medição de desempenho e detecção de intrusão são importantes para garantir alta disponibilidade e eficiência da rede e aplicações. As ferramentas existentes para essa finalidade são, entre aspectos, (a) não integradas (necessidade de uma ferramenta para monitorar cada aplicação), (b) centralizadas (não oferecem suporte à distribuição de tarefas de gerenciamento) e (c) pouco flexíveis (dificuldade em gerenciar novos protocolos, serviços e aplicações). Nesse contexto, a tese propõe uma arquitetura, centrada na monitoração passiva em temporal do tráfego de rede, para gerenciamento distribuído de protocolos de alto nível, serviços e aplicações em rede. Baseada da MIB (Management Information Base) Script do IETF (Internet Engineering Task Force), a arquitetura Trace oferece mecanismos para a delegação de tarefas de gerenciamento a gerentes intermediários, que interagem com agentes de monitoração e agentes de ação para executá-las. A tese propõe também PTSL (Protocol Trace Specification Language), uma linguagem gráfica/textual criada para permitir que gerentes de rede especificam as interações de protocolos (traços) que lhes interessam monitorar. As especificações são usadas pelso gerentes intermediários para programar os agentes de monitoração. Uma vez programadas, esses agentes passam a monitorar a ocorrência dos traços.As informações obtidas são analisadas pelos agentes intermediários, que podem requisitar de ação a execução de procedimentos (ex: scripts Perl), possibilitando a automação de diversas tarefas de gerenciamento. A arquitetura proposta é validada por um protótipo: a plataforma de gerenciamento Trace.
Resumo:
O objetivo deste trabalho é a simulação numérica de escoamentos incompressíveis bidimensionais em dutos com expansão brusca, considerando o raio de expansão de 3 : 1. As equações governantes implementadas são as de Navier, que junto com relações constitutivas para a tensão visam representar comportamentos não newtonianos. A integração temporal é feita usando o esquema explícito de Runge-Kutta com três estágios e de segunda ordem; as derivadas espaciais são aproximadas pelo método de diferenças finitas centrais. Escoamentos em expansões bruscas para fluidos newtonianos apresentam um número de Reynolds crítico, dependente do raio de expansão, na qual três soluções passam a ser encontradas: uma solução sim étrica instável e duas soluções assimétricas rebatidas estáveis. Aumentando o número de Reynolds, a solução passa a ser tridimensional e dependente do tempo. Dessa forma, o objetivo é encontrar as diferenças que ocorrem no comportamento do fluxo quando o fluido utilizado possui características não newtonianas. As relações constitutivas empregadas pertencem à classe de fluidos newtonianos generalizados: power-law, Bingham e Herschel-Bulkley. Esses modelos prevêem comportamentos pseudoplásticos e dilatantes, plásticos e viscoplásticos, respectivamente. Os resultados numéricos mostram diferenças entre as soluções newtonianas e não newtonianas para Reynolds variando de 30 a 300. Os valores de Reynolds críticos para o modelo power-law não apresentaram grandes diferenças em comparação com os da solução newtoniana. Algumas variações foram percebidas nos perfis de velocidade. Entretanto, os resultados obtidos com os modelos de Bingham e Herschel-Bulkley apresentaram diferenças significativas quando comparados com os newtonianos com o aumento do parâmetro adimensional Bingham; à medida que Bingham é aumentado, o tamanho dos vórtices diminui. Além disso, os perfis de velocidade apresentam diferenças relevantes, uma vez que o fluxo possui regiões onde o fluido se comporta como sólido.
Resumo:
Com o aumento de informações disponíveis e das possibilidades de fazer comércio por meios eletrônicos, aumenta a complexidade de algumas tarefas, como comprar. Um dos possíveis caminhos para diminuir essa complexidade é dotar programas de computadores com conhecimentos sobre a realização de tais tarefas, incluindo como tomar decisões. Esta dissertação versa sobre a utilização de agentes de software nas empresas, que são programas de computadores delegados para a realização de funções específicas. Além de uma revisão sobre o atual uso de tais tecnologias, apresenta-se uma possível aplicação na área de Compras para uma empresa real. Para modelar o sistema proposto, utilizou-se uma extensão da Unified Modeling Language (UML), a Agent UML, que objetiva a adequação da primeira para representar sistemas multiagentes. As dificuldades encontradas para modelagem são uma discussão adicional, bem como as sugestões. Outras contribuições do presente trabalho são as apresentações de mecanismos de decisão e de negociação para a Função Compras, inspirados em funções de valor e na negociação colaborativa. Encerra-se, apontando algumas futuras direções, incentivando reflexões posteriores sobre este tema pioneiro na Escola de Administração da Universidade Federal do Rio Grande do Sul.
Resumo:
Construção de software com qualidade tem motivado diversas pesquisas na área de Engenharia de Software. Problemas como a grande complexidade requerida pelas aplicações atuais e a necessidade de gerenciamento de um número cada vez maior de pessoas envolvidas em projetos são obstáculos para serem transpostos. Trabalhos relacionados a tecnologia de processos de software aparecem como uma proposta para se obter maior controle das atividades realizadas com o intuito de se obter maior qualidade. A simulação de processos de software, através da representação dos passos definidos em um modelo, tem sido utilizada no auxílio a gerentes de projetos de sistemas para fornecer-lhes informações preciosas sobre o desenvolvimento de um sistema especificado. A representação de conhecimento a respeito das características relacionadas a um ambiente de desenvolvimento ajuda na obtenção de simulações mais realísticas. A partir do modelo, o simulador obtém uma descrição do ambiente em que deve atuar, baseado no conhecimento que se tem a respeito do ambiente. Esse trabalho apresenta um modelo de simulação de processos de software baseado em conhecimento para ser inserido em um ambiente de engenharia de processos de software. A função do modelo é simular um processo de software instanciado, procurando detectar inconsistências no mesmo que possam gerar problemas durante a sua execução, como aumento de custos e comprometimento da qualidade do(s) produto(s) obtido(s). Após a simulação o projetista pode constatar a necessidade de se refazer o modelo, ajustar parâmetros ou executar o processo de software. O objetivo da simulação, nesse trabalho, é auxiliar as pessoas responsáveis por um ambiente de desenvolvimento a obter modelos de processos validados. O modelo de simulação foi definido para ser utilizado no ambiente PROSOFT, que é um ambiente de desenvolvimento que permite a integração de novas ferramentas para desenvolvimento de software. O ambiente PROSOFT vem recebendo propostas de extensão que tem contribuído para o seu aprimoramento, fornecendo para seus usuários uma quantidade cada vez maior de ferramentas de auxílio a construção de artefatos de software. As propostas mais recentes foram um modelo para construção de sistemas especialistas, a definição de um ambiente cooperativo e um gerenciador de processos de software. ATOs algébricos (construções do PROSOFT) são utilizados para especificar formalmente o modelo de simulação definido neste trabalho. A validação é realizada através de um modelo em UML (Unified Method Language) que foi utilizado como base para a construção de um programa implementado usando a linguagem Java. Isso ocorre porque a ferramenta do PROSOFT (implementada em Java) que seria utilizada para validar as especificações algébricas ainda não está finalizada.
Resumo:
Neste trabalho realizou-se a vinculação entre o Modelo de Centralidade e um Sistema de Informações Geográficas. A motivação para a realização dessa tarefa surgiu do reconhecimento de que as principais ferramentas utilizadas atualmente em análises espaciais urbanas – Modelos Urbanos e SIGs – apresentam sérias limitações, e que sua união em uma nova ferramenta pode superar muitas dessas limitações. Propôs-se então uma estrutura básica de Sistemas de Suporte ao Planejamento (PSS) que fosse capaz de oferecer suporte efetivo às diversas etapas do processo de planejamento. Essa estrutura serve como base de apoio para a construção da nova ferramenta, cujo objetivo foi testar duas hipóteses: a) A união de Sistemas de Informação Geográficas e o Modelo de Centralidade pode aumentar a qualidade de análises espaciais urbanas, através de aspectos como visualização e precisão dos resultados, e rapidez, facilidade e flexibilidade na realização das análises. b) Sistemas de Informações Geográficas podem contribuir para operacionalizar novos aportes teóricos no Modelo de Centralidade, principalmente através das capacidades de manipulação de elementos espaciais A ferramenta foi construída através de rotinas de personalização do ArcView (scripts), em conjunto com módulos analíticos externos, em forma de DLL, construídos em Delphi. Os scripts se encarregam de compilar os dados necessários à análise de Centralidade, referentes ao traçado e à quantidade e qualidade das formas edificadas, e alimenta o módulo analítico com as informações necessárias. Este as processa e retorna os resultados aos scripts, que então preenchem as tabelas de atributos referentes às unidades espaciais, deixando-as prontas para serem submetidas aos procedimentos de geração de mapas e cruzamentos de dados usualmente realizadas pelos SIGs “comuns”. Para testar a hipótese “a”, realizou-se um estudo de caso na cidade de Pato Branco (PR) para avaliar o desempenho da ferramenta quando aplicada a uma situação próxima da realidade. O desempenho da ferramenta mostrou-se bastante satisfatório, quando comparado com o método tradicional de análise da Centralidade. A organização dos dados foi beneficiada, assim como o tempo de realização das análises, aumentando a flexibilidade para a realização de testes com diferentes configurações. Para testar a hipótese “b”, propôs-se uma pequena alteração no Modelo de Centralidade, que atribuiu pesos diferenciados às conexões entre elementos espaciais, como forma de tentar superar algumas das limitações das representações utilizadas até o momento. Dessa forma, os ângulos entre os trechos de logradouros passaram a definir custos diferenciados entre trechos, que por sua vez influenciavam na determinação dos caminhos mínimos entre trechos, dado essencial para o conceito de Centralidade Ficou provado então que é possível operacionalizar novos aportes teóricos ao modelo de Centralidade utilizando as capacidades de manipulação de dados espaciais oferecidas pelos SIGs, ainda que a validade do aporte utilizado neste trabalho não tenha sido testada. Outras conclusões do estudo são a adequação da estrutura modular da ferramenta, a necessidade de bases de dados completas e adequadas desde o ponto de vista do modelo de dados, e o reconhecimento de um vasto campo de experimentações a serem feitas como evolução natural das idéias apresentadas aqui.
Resumo:
A sondagem com SPT ("Standard Penetration Test") é o método de investigação com mais freqüência empregado na caracterização geotécnica de solos. Devido a relevância desse tipo de ensaio, desenvolveu-se um procedimento para geração de mapas de SPT com base em métodos geoestatísticos. Esses mapas devem conter a estimativa do índice de penetração (SPT) em diferentes posições no terreno em estudo, partindo de ensaios pré-existentes, objetivando auxiliar de maneira mais efetiva o planejamento de obras de engenharia. O trabalho foi baseado em um banco de dados com 141 sondagens realizadas na cidade de Passo Fundo/RS, compreendendo uma área total de 4,16km2. O banco de dados compreende sondagens de uma única empresa (o que minimiza os erros decorrentes da própria sondagem SPT) e uma única unidade geotécnica. Essas informações foram utilizadas para a avaliação do comportamento espacial dos parâmetros modelados e, posteriormente, construção de mapas de SPT. As estimativas foram efetuadas por krigagem ordinária em blocos com dimensões de 100mx100m, em quatro níveis distintos definidos de acordo com a variação média do índice de penetração com a profundidade Os mapas resultantes da krigagem ordinária revelaram-se satisfatórios para o fim a que se destina esse trabalho. Para a avaliação desses mapas, é relevante que se quantifiquem as incertezas associadas a essas estimativas. A metodologia para tal é baseada em Simulação Geoestatística, onde foram efetuadas simulações seqüenciais Gaussianas (ssG), em blocos de mesma dimensão que a utilizada na krigagem. Os resultados positivos mostraram ser adequado o emprego da simulação seqüencial Gaussiana, para geração de mapas auxiliares de valores de SPT a serem empregados no planejamento de investigações geotécnicas complementares.
Resumo:
Neste trabalho é apresentado o desenvolvimento de um programa para cálculo de campos eletromagnéticos baseado no método das Diferenças Finitas no Domínio do Tempo (FDTD). Este programa é aplicado no cálculo da Taxa de Absorção Específica (SAR) na cabeça de um usuário de transceptores portáteis como os telefones celulares. Como introdução ao problema é realizada uma revisão dos efeitos biológicos e das recomendações para a exposição humana a radiofreqüências e microondas. Os principais resultados obtidos com simulações realizadas com o programa desenvolvido. São mostrados e comparados com os resultados simulados e medidos por outros autores, assim como com as recomendações nacionais e internacionais. A título de recomendação final e como alternativa visando minimizar os riscos que a absorção do campo pode representar para a saúde dos usuários, é proposta a utilização de antenas que emitem mais no sentido oposto à cabeça. Este conceito é testado com o desenvolvimento de uma antena simples em microstrip.
Resumo:
Substâncias carcinogênicas são diariamente lançadas no meio ambiente, tanto na atmosfera quanto em corpos hídricos. Estas são capazes de ligar-se a proteínas constituintes de tecidos vivos produzindo um carcinoma, cuja probabilidade de formação depende da afinidade do poluente com os grupos funcionais presentes nos substratos protéicos. Contudo, os mecanismos pelos quais ocorre a formação do carcinoma não estão totalmente esclarecidos. Alguns modelos baseados em propriedades moleculares foram formulados na tentativa de prever quais serão os mecanismos, compostos intermediários e produtos finais de reação. Porém, esses modelos apresentam sérias limitações por não levarem em conta a dinâmica do processo reativo. Para que se possa estimar os mecanismos, é preciso detectar a formação ou ruptura de ligações ao longo do tempo, o que torna necessário utilizar modelos transientes. O presente trabalho apresenta um modelo que resolve a equação de Schrödinger dependente do tempo para verificar qual o mecanismo de reação entre uma substância carcinogênica e um aminoácido. A simulação do cenário transiente proposto requer um baixo tempo de processamento e possibilita uma fácil interpretação dos resultados obtidos.
Resumo:
O volume de informações armazenadas e representadas em XML cresce rapidamente, abrangendo desde a Web até bancos de dados corporativos. Nesse contexto, surge a necessidade de mecanismos de recuperação de dados nesse formato que sejam, ao mesmo tempo, mais eficientes e mais eficazes. Várias propostas de linguagens de consulta têm sido feitas, dentre as quais podem ser citadas XQL, XML-QL e Quilt. Essas linguagens, todas textuais, são mais indicadas para manipulação programática ou para usuários experientes. Visando atingir também os usuários menos experientes, foram propostas linguagens visuais, tais como XML-GL e Xing. Todas essas linguagens, entretanto, apresentam duas características comuns: a) o usuário precisa conhecer, pelo menos em um certo nível, a estrutura interna dos documentos; b) a mesma informação, se armazenada de formas diferentes, exige instruções de consulta diferentes. A solução para esses problemas apresentada neste trabalho envolve a utilização de um modelo conceitual para representar os conceitos e as relações entre conceitos que ocorrem em documentos XML pertencentes a um determinado domínio de problema. O modelo conceitual é representado por uma ontologia do domínio do problema. Essa associação permite que consultas possam ser elaboradas tendo como base os conceitos da ontologia. Para permitir a associação da ontologia a conjuntos de documentos XML, apresentam-se regras de mapeamento que permitem definir se um documento XML é compatível com uma determinada ontologia. A partir dessa definição, propõe-se uma linguagem visual para consultas a documentos XML com base em ontologias, e apresenta-se uma proposta de interface visual para essa linguagem.
Resumo:
O presente trabalho tem como objetivo o desenvolvimento de um modelo dinâmico genérico para reatores de polimerização em leito fluidizado com capacidade de predizer produção, condições de operação e propriedades do produto, como o índice de fluidez e densidade. Este modelo genérico é então aplicado ao caso específico da polimerização de eteno em reatores do processo UNIPOL, utilizando catalisador de óxido de cromo. De modo a obter um modelo validado, os parâmetros cinéticos são estimados utilizando experimentos realizados em uma planta piloto UNIPOL. Também é apresentado um modelo simplificado em relação ao modelo proposto inicialmente, cujo objetivo é remover as interações dos parâmetros das malhas de controle com os parâmetros cinéticos a serem estimados, aproveitando medidas de planta não utilizadas pelo outro modelo. Junto com a parte de estimação de parâmetros é apresentada a metodologia da análise de sensibilidade para o planejamento de experimentos e estimação de parâmetros.
Resumo:
Foi realizado o estudo do efeito do tipo de nylon nas blendas PP/PP-MA/Ny. Estas blendas foram caracterizadas por calorimetria diferencial de varredura, microscopia eletrônica de varredura, propriedades mecânicas e reológicas. Na análise reológica foram realizados os testes para os nylons N6, N6,9 e N6,10. Para os nylons N6,6 e N6,12 não foi possível fazer as medidas de viscosidade. Os resultados demonstraram que para os teores de 0,34 e 0,46 g% de MA no PP, o nível de dispersão final segue o fator da reatividade dos grupos terminais amino do nylons. Assim, a ordem de aumento de dispersão para as blendas com os nylons foi de N6,9, N6 e N6,10. Este comportamento foi confirmado na análise morfológica. Para o teor de 0,81 g%, a dispersão foi afetada pelo quociente das viscosidades, obedecendo a ordem esperada para os nylons 6,10, 6,9 e 6 e suas blendas.
Resumo:
Um dos principais desafios para o século XXI é o uso sustentável dos recursos hídricos. A agricultura é a maior usuária desse recurso, sendo responsável por aproximadamente 70% dos gastos globais de água. Para o uso racional da água é necessário o conhecimento das propriedades hidráulicas do solo na condição de não-saturação. A simulação do movimento da água no solo através da modelagem é uma ferramenta importante no entendimento do sistema solo-água-planta, pois permite a previsão e estudo do comportamento da redistribuição da água no solo de maneira eficiente. Porém a forte dependência entre os parâmetros hidráulicos do solo (teor de água, potencial matricial e condutividade hidráulica) fazem da modelagem um assunto complicado, necessitando de modelos numéricos que utilizem intervalos discretos de tempo e espaço. Esses intervalos devem ser suficientemente pequenos para que dentro de um intervalo as variações dos parâmetros hidráulicos sejam insignificantes. Nesta tese é proposto um algoritmo para a descrição do movimento vertical da água no solo, definindo o intervalo de tempo como função de uma variação máxima admissível do teor de água. O algoritmo foi testado para alguns conjuntos de dados hidráulicos de solos, utilizando as condições de contorno de um experimento de perfil instantâneo. A eficiência do algoritmo foi verificada em situações práticas, como na previsão do teor de água na Capacidade de Campo e na predição do tempo para ser atingida determinada condição de umidade no solo. Utilizando o algoritmo, também foram estudados o comportamento da retenção e dos parâmetros de condutividade em relação aos parâmetros de drenagem. Concluiu-se que o algoritmo descreve adequadamente o processo de redistribuição de água no solo utilizando intervalos suficientemente pequenos de tempo e espaço; a forma de discretização do tempo não comprometeu a acurácia das medidas; a previsão do teor de água na Capacidade de Campo e do tempo para ser atingida determinada condição de umidade no solo foram satisfatórias; e o algoritmo permite o estudo das relações entre os parâmetros hidráulicos do solo.
Resumo:
Este trabalho descreve o protocolo de adaptação ATM do tipo 2 (AAL2), e expõe as mudanças que foram realizadas no simulador de rede ATM com a finalidade de estudá-lo. É proposto que se conheça melhor este novo padrão, planejado para baixa taixa de transferência e multiplexação de usuários e pode contribuir nos serviços de tráfego de voz, quando ocorre a integração de diversas aplicações que é o objetivo da B-ISDN. Após algumas explanações sobre o ATM em geral, é descrita de forma detalhada a recomendação I.362 que padroniza o novo AAL. É explicado o comportamento da máquina de estados de transmissão, e como ocorre a temporização para carregar diversos pacotes de voz numa mesma célula. Como foi idealizado para a classe de serviços do tipo VBR em tempo real, comentam-se alguns mecanismos próprios do AAL2 para controle de tráfego e sua influência. Descreve-se a subcamada SSCS proposta para pacotes longos, recentemente padronizada. São apresentados alguns artigos e estudos realizados sobre o AAL2 que descreve quantitativamente o ganho esperado pelo protocolo e levanta algumas questões comparando-o ao AAL1. Por ter sido inicialmente uma necessidade da telefonia celular, realiza-se um breve comentário de estudos dirigidos para a área. Com o intuito de realizar a simulação do protocolo, foi utilizado o simulador de redes ATM, desenvolvido pelo NIST, que possui certas qualidades desejadas para este trabalho, porém, foram necessárias realizar modificações para implementar a camada AAL que não estava prevista na arquitetura original dele. Para se criar um ambiente de testes propício, e com a preocupação de não corromper o funcionamento padrão, foram criadas estruturas semelhantes às existentes e realizadas mudanças sutis, reconhecidas normalmente pelo simulador original. A partir destas simulações, pretende-se deixar uma ferramenta para fazer análises deste protocolo; utilizando modelos de tráfego de voz, a fim de obter informações do seu comportamento. No entanto, este estudo limitou-se somente a demonstrar a verificação e validação do simulador a partir dos resultados gerados. Para verificar a integridade do código fonte original foram utilizados os exemplos do próprio NIST e assim garantir que nada foi alterado. Além disso, o novo módulo foi comparado a norma através de um "debug". Na validação, devido ao fato de não existir uma rede real montada e disponível para testes, foram empregados artigos para comparar os resultados e demonstrar a boa aproximação obtida. Acredita-se que desta forma obteve-se o resultado desejado de um ambiente para estudo e compreensão do AAL2 e que, futuramente, pode ser usado para todos os protocolos da camada AAL.
Resumo:
O desprendimento de vórtices é responsável por vibrações prejudiciais a estruturas e pelo aumento de seus coeficientes de arraste. Portanto o correto entendimento e o controle do desprendimento de vórtices é de grande interesse de modo a diminuir custos de manutenção de estruturas estáticas e custos com combustíveis de estruturas móveis, por exemplo. O caráter tridimensional do desprendimento de vórtices a baixos números de Reynolds, entre 100 e 300, é aqui estudado através de Simulações Numéricas Diretas (DNS) do escoamento ao redor de cilindros circulares em duas e três dimensões. O controle do desprendimento de vórtices foi estudado nesta dissertação, através do uso de placas de separação do escoamento em simulações numéricas bidimensionais para números de Reynolds 100, 160 e 300, mostrando que para estes números de Reynolds é possível reduzir as freqüências de desprendimento, e em alguns casos até suprimi-las. A simulação tridimensional para Re = 300 mostrou um escoamento aparentemente bidimensional que afeta sensivelmente a freqüência de desprendimento quando em comparação o caso 2D. Para a realização das simulação numéricas foi utilizado um esquema compacto de diferenças finitas em associação com um método de representação virtual de obstáculos imersos em escoamentos, que permite a representação de geometrias complexas sobre uma malha cartesiana.
Resumo:
O presente trabalho analisa o processo de produção do espaço urbano do ponto de vista configuracional, fundamentado na técnica da modelagem urbana. Enfoca a correspondência entre espacialidade real, produzida pela dinâmica das inter-relações urbanas e espacialidade normativa, prescrita nos planos diretores. O modelo de análise utilizado simula o crescimento espacial interno de determinado setor da cidade de Porto Alegre, produzindo possíveis cenários de distribuição dos espaços construídos, capazes de orientar ações de planejamento e monitoramento do desenvolvimento urbano.