995 resultados para Hiker Dice. Algoritmo Exato. Algoritmos Heurísticos


Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho investiga a relação entre aprendizado e dinâmica em sistemas complexos multiagentes. Fazemos isso através de estudos experimentais em um cenário de racionalidade limitada que situa-se na interesecção entre Inteligência Artificial, Economia e Física Estatística, conhecido como “Minority Game”. Apresentamos resultados experimentais sobre o jogo focando o estudo do cenário sob uma perspectiva de Aprendizado de Máquina. Introduzimos um novo algoritmo de aprendizado para os agentes no jogo, que chamamos de aprendizado criativo, e mostramos que este algoritmo induz uma distribuição mais eficiente de recursos entre os agentes. Este aumento de eficiência mostra-se resultante de uma busca irrestrita no espaço de estratégias que permitem uma maximização mais eficiente das distâncias entre estratégias. Analisamos então os efeitos dos parâmetros deste algoritmo no desempenho de um agente, comparando os resultados com o algoritmo tradicional de aprendizado e mostramos que o algoritmo proposto é mais eficiente que o tradicional na maioria das situações. Finalmente, investigamos como o tamanho de memória afeta o desempenho de agentes utilizando ambos algoritmos e concluímos que agentes individuais com tamanhos de memória maiores apenas obtém um aumento no desempenho se o sistema se encontrar em uma região ineficiente, enquanto que nas demais fases tais aumentos são irrelevantes - e mesmo danosos - à performance desses agentes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O entendimento da manufatura celular passa pelo estudo das rotas de fabricação e pelos métodos de agrupamento de máquinas e de peças. Neste contexto, o objetivo principal deste trabalho é a implemetação de uma ferramenta de auxílio ao projeto de células de manufatura, abordando uma metodologia fundamentada na Tecnologia de Grupo para agrupamento de máquinas em células de manufatura com as respectivas famílias de peças. A base de dados com as informações das peças, das máquinas e das rotas que compõe o fluxo de produção é implementada em um banco de dados relacional. A matriz incidência peça-máquina é montada a partir das rotas armazenadas no banco de dados através de um aplicativo desenvolvido em Visual Basic. Os agrupamentos em famílias de peças e células de manufatura são gerados por três diferentes algoritmos: o Rank Order Clustering (ROC), o Close Neighbor Algorithm (CNA) e um algoritmo heurístico (HEU). São aplicadas restrições referentes a limite de carregamento, tamanho de célula e resolução de situações de “gargalo”. Processados os algoritmos de agrupamento, são analisados os resultados em função da densidade e da eficiência do agrupamento. O sistema apresenta o resultado final em planilhas no formato MS Excel. A primeira planilha, chamada resultados, exibe os valores das restrições de projeto das células (número de máquinas por célula, tempo limite de carregamento e tempo limite para duplicação da máquina), o número de peças (colunas) e de máquinas (linhas) da matriz incidência, os valores de eficiência do agrupamento de peças, do agrupamento de máquinas e do aproveitamento dos recursos, bem como o número de células independentes e a quantidade de máquinas duplicadas, obtidos por cada algoritmo no sistema, destacando os melhores resultados. A segunda planilha mostra a matriz incidência peça-máquina. As demais planilhas apresentam, respectivamente, a matriz diagonalizada com o algoritmo original (ROC e CNA), a matriz diagonalizada levando-se em consideração as restrições de projeto das células (análise ROC, análise CNA e HEU) e por fim, uma planilha relatório. A planilha relatório tabula os mesmos valores citados na primeira planilha e lista as peças associadas a cada família, as máquinas associadas a cada célula, as peças rejeitadas, por não se enquadrarem nos agrupamentos, e que devem ser tratadas fora do ambiente celular e as máquinas duplicadas. A comparação dos resultados é efetuada considerando as características adicionadas aos algoritmos originais. Dos três estudados, as restrições de projeto são tratadas na implementação do HEU. Os demais, ROC e CNA, têm incorporado um pós processamento. Em análises comparativas observa-se a superioridade dos algoritmos ROC e HEU em relação ao CNA e os resultados do ROC são melhores ou iguais aos demais, dificilmente inferiores.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esse trabalho comparou, para condições macroeconômicas usuais, a eficiência do modelo de Redes Neurais Artificiais (RNAs) otimizadas por Algoritmos Genéticos (AGs) na precificação de opções de Dólar à Vista aos seguintes modelos de precificação convencionais: Black-Scholes, Garman-Kohlhagen, Árvores Trinomiais e Simulações de Monte Carlo. As informações utilizadas nesta análise, compreendidas entre janeiro de 1999 e novembro de 2006, foram disponibilizadas pela Bolsa de Mercadorias e Futuros (BM&F) e pelo Federal Reserve americano. As comparações e avaliações foram realizadas com o software MATLAB, versão 7.0, e suas respectivas caixas de ferramentas que ofereceram o ambiente e as ferramentas necessárias à implementação e customização dos modelos mencionados acima. As análises do custo do delta-hedging para cada modelo indicaram que, apesar de mais complexa, a utilização dos Algoritmos Genéticos exclusivamente para otimização direta (binária) dos pesos sinápticos das Redes Neurais não produziu resultados significativamente superiores aos modelos convencionais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação apresenta duas implementações de algoritmos para gerência dinâmica de memória em software, as quais foram desenvolvidas utilizando como alvo uma plataforma embarcada Java. Uma vez que a plataforma utilizada pertence a uma metodologia para geração semi-automática de hardware e software para sistemas embarcados, os dois algoritmos implementados foram projetados para serem integrados ao contexto desta mesma metodologia. Como forma de estabelecer comparações detalhadas entre as duas implementações desenvolvidas, foram realizadas diversas estimativas em desempenho, uso de memória, potência e energia para cada implementação, utilizando para isto duas versões existentes da plataforma adotada. Através da análise dos resultados obtidos, observou-se que um dos algoritmos desenvolvidos obteve um desempenho melhor para realização da gerência dinâmica da memória. Em contrapartida, o outro algoritmo possui características de projeto que possibilitam sua utilização com aplicações de tempo-real. De um modo geral, os custos adicionais resultantes da utilização do algoritmo de tempo-real, em relação ao outro algoritmo também implementado, são de aproximadamente 2% para a potência média dissipada, 16% para o número de ciclos executados, 18% para a energia consumida e 10% sobre a quantidade de total memória utilizada. Isto mostra que o custo extra necessário para utilização do algoritmo de tempo real é razoavelmente baixo se comparado aos benefícios proporcionados pela sua utilização. Como impactos finais produzidos por este trabalho, obteve-se um acréscimo de 35% sobre o número total de instruções suportadas pela arquitetura utilizada. Adicionalmente, 12% das instruções que já existiam no conjunto desta arquitetura foram modificadas para se adaptarem aos novos mecanismos implementados. Com isto, o conjunto atual da arquitetura passa a corresponder a 44% do total de instruções existentes na arquitetura da máquina virtual Java. Por último, além das estimativas desenvolvidas, foram também realizadas algumas sugestões para melhoria global dos algoritmos implementados. Em síntese, alguns pontos cobertos por estas sugestões incluem: a migração de elementos do processamento do escopo dinâmico para o estático, o desenvolvimento de mecanismos escaláveis para compactação de memória em tempo-real, a integração de escalonadores ao processo de gerência de memória e a extensão do processo de geração semi-automática de software e hardware para sistemas embarcados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O uso de dados altimétricos para a avaliação e monitoramento da variação dos níveis dos oceanos, teve início com o satélite Seasat e vem desenvolvendo-se com êxito em outros sistemas como o Geosat e o ERS-l. Esta técnica tem se mostrado única em termos de oceanografia e abre caminho para a sua utilização em outros campos como a hidrologia. A possibilidade de avaliar-se os niveis das águas continentais por meio da altimetria, trata-se de uma proposta promissora termos de recursos hidricos em países de dimensões como o Brasil.O desenvolvimento de um algoritmo capaz de. a partir dos dados do satélite altimétrico Geosat processá-los de forma mais rápida e econômica, fornecendo informações prévias com as quais se possa efetivamente obter a variação do nível das águas de rios e Lagoas, constitue-se no desafio desta dissertação.O ajuste matemático proposto, que se utilizaria de um número menor de variáveis, se comparado ao método aplicado pela NASA, não trouxe os resultados esperados , mostrando-se ineficiente. Esta dissertação sugere que, embora este modelo proposto tenha se mostrado inadequado, abre-se um vasto campo de pesquisas para que a altimetria de satélites torne-se uma técnica operacional e viável em termos de recursos hidricos em águas continentais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho elabora um modelo para investigação do padrão de variação do crescimento econômico, entre diferentes países e através do tempo, usando um framework Markov- Switching com matriz de transição variável. O modelo desenvolvido segue a abordagem de Pritchett (2003), explicando a dinâmica do crescimento a partir de uma coleção de diferentes estados – cada qual com seu sub-modelo e padrão de crescimento – através dos quais os países oscilam ao longo do tempo. A matriz de transição entre os diferentes estados é variante no tempo, dependendo de variáveis condicionantes de cada país e a dinâmica de cada estado é linear. Desenvolvemos um método de estimação generalizando o Algoritmo EM de Diebold et al. (1993) e estimamos um modelo-exemplo em painel com a matriz de transição condicionada na qualidade das instituições e no nível de investimento. Encontramos três estados de crescimento: crescimento estável, ‘milagroso’ e estagnação - virtualmente coincidentes com os três primeiros de Jerzmanowski (2006). Os resultados mostram que a qualidade das instituições é um importante determinante do crescimento de longo prazo enquanto o nível de investimento tem papel diferenciado: contribui positivamente em países com boa qualidade de instituições e tem papel pouco relevante para os países com instituições medianas ou piores.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O módulo de resiliência (MR) é hoje um dos parâmetros-chave para o dimensionamento empírico-mecanístico de pavimentos flexíveis. Há, entretanto, algumas peculiaridades no ensaio de tração indireta com cargas cíclicas que ocasionam variações na sua determinação. A investigação de tais fatores é necessária para que a magnitude do seu efeito sobre o valor de MR seja quantificada. Para isto, esta pesquisa avaliou, através de uma análise paramétrica, os algoritmos apresentados pelo Protocolo P07 do LTPP, análogo ao método correntemente utilizado pelas instituições brasileiras de pesquisa em pavimentação, e pela pesquisa NCHRP 1-28/1-28A para determinação dos deslocamentos resilientes, bem como o efeito do pulso e freqüência de carregamento e níveis de tensão de tração (%RT) em duas misturas asfálticas: uma mistura com ligante asfáltico convencional e outra com ligante asfáltico modificado por adição de borracha. Foram necessárias adaptações no equipamento de compressão diametral cíclica utilizado na pesquisa, e também a montagem de um sistema de posicionamento de sensores que permitisse a gravação de deslocamentos horizontais e verticais viabilizando a determinação do coeficiente do Poisson. Realizaram-se ensaios de MR e resistência à tração (RT) às temperaturas de 10°, 25° e 35°C e, complementarmente, ensaio de fadiga (tensão controlada) a 25°C. Os resultados obtidos demonstram a alta sensibilidade do valor de MR aos algoritmos de cálculo dos deslocamentos resilientes; o algoritmo apresentado pela pesquisa 1-28/ 1-28A do NCHRP foi considerado adequado. Observou-se a dependência do MR ao pulso de carga, à freqüência de ensaio e também ao nível de tensão aplicado durante o ensaio. A magnitude desta dependência, entretanto, é função do tipo de mistura e da temperatura sob a qual o ensaio foi realizado. A determinação do coeficiente de Poisson pareceu ser bastante suscetível ao sistema de medição utilizado, tendo apresentando uma grande variabilidade. Nos ensaios de vida de fadiga sob tensão controlada pode-se evidenciar a redução dos valores de MR dentro da zona de condicionamento. Propõe-se ainda que a defasagem medida entre o pulso de carga e o pulso de deslocamento no ensaio de MR, possa ser usada como indicador do comportamento visco-elástico das misturas, uma vez que apresentou comportamento análogo ao do ângulo de fase.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O controle de robôs móveis não holonômicos apresenta como principal desafio o fato de estes sistemas não serem estabilizáveis em um ponto através de uma realimentação de estados suave e invariante no tempo, conforme o Teorema de Brockett. Para contornar este resultado, técnicas clássicas utilizam leis de controle variante no tempo ou não suaves (descontínuas). Entretanto, estas técnicas não prevêem durante o cálculo da lei de controle restrições nas variáveis do sistema e assim, muitas vezes, geram entradas de controle que são incompatíveis com uma implementação real. Neste trabalho são desenvolvidos algoritmos de controle preditivo baseado em modelo (MPC) para o controle de robôs móveis não holonômicos dotados de rodas. No MPC, restrições nas variáveis de estado e de controle podem ser consideradas durante o cálculo da lei de controle de uma forma bastante direta. Além disso, o MPC gera implicitamente uma lei de controle que respeita as condições de Brockett. Como o modelo do robô é não linear, é necessário um algoritmo de MPC não linear (NMPC). Dois objetivos são estudados: (1) estabilização em um ponto e (2) rastreamento de trajetória. Através de extensivos resultados de simulação, é mostrada a eficácia da técnica. Referente ao primeiro problema, é feita uma análise comparativa com algumas leis clássicas de controle de robôs móveis, mostrando que o MPC aplicado aqui apresenta uma melhor performance com relação às trajetórias de estado e de controle. No problema de rastreamento de trajetória, é desenvolvida uma técnica linear, alternativa ao NMPC, utilizando linearizações sucessivas ao longo da trajetória de referência, a fim de diminuir o esforço computacional necessário para o problema de otimização. Para os dois problemas, análises referentes ao esforço computacional são desenvolvidas com o intuito de mostrar a viabilidade das técnicas de MCP apresentadas aqui em uma implementação real.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In the last years the number of industrial applications for Augmented Reality (AR) and Virtual Reality (VR) environments has significantly increased. Optical tracking systems are an important component of AR/VR environments. In this work, a low cost optical tracking system with adequate attributes for professional use is proposed. The system works in infrared spectral region to reduce optical noise. A highspeed camera, equipped with daylight blocking filter and infrared flash strobes, transfers uncompressed grayscale images to a regular PC, where image pre-processing software and the PTrack tracking algorithm recognize a set of retro-reflective markers and extract its 3D position and orientation. Included in this work is a comprehensive research on image pre-processing and tracking algorithms. A testbed was built to perform accuracy and precision tests. Results show that the system reaches accuracy and precision levels slightly worse than but still comparable to professional systems. Due to its modularity, the system can be expanded by using several one-camera tracking modules linked by a sensor fusion algorithm, in order to obtain a larger working range. A setup with two modules was built and tested, resulting in performance similar to the stand-alone configuration.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Vídeos são dos principais meios de difusão de conhecimento, informação e entretenimento existentes. Todavia, apesar da boa qualidade e da boa aceitação do público, os vídeos atuais ainda restringem o espectador a um único ponto de vista. Atualmente, alguns estudos estão sendo desenvolvidos visando oferecer ao espectador maior liberdade para decidir de onde ele gostaria de assistir a cena. O tipo de vídeo a ser produzido por essas iniciativas tem sido chamado genericamente de vídeo 3D. Esse trabalho propõe uma arquitetura para captura e exibição de vídeos 3D em tempo real utilizando as informações de cor e profundidade da cena, capturadas para cada pixel de cada quadro do vídeo. A informação de profundidade pode ser obtida utilizando-se câmeras 3D, algoritmos de extração de disparidade a partir de estéreo, ou com auxílio de luz estruturada. A partir da informação de profundidade é possível calcular novos pontos de vista da cena utilizando um algoritmo de warping 3D. Devido a não disponibilidade de câmeras 3D durante a realização deste trabalho, a arquitetura proposta foi validada utilizando um ambiente sintético construído usando técnicas de computação gráfica. Este protótipo também foi utilizado para analisar diversos algoritmos de visão computacional que utilizam imagens estereoscópias para a extração da profundidade de cenas em tempo real. O uso de um ambiente controlado permitiu uma análise bastante criteriosa da qualidade dos mapas de profundidade produzidos por estes algoritmos, nos levando a concluir que eles ainda não são apropriados para uso de aplicações que necessitem da captura de vídeo 3D em tempo real.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho apresenta uma nova metodologia de localização de faltas em sistemas de distribuição de energia. O esquema proposto é capaz de obter uma estimativa precisa da localização tanto de faltas sólidas e lineares quanto de faltas de alta impedância. Esta última classe de faltas representa um grande problema para as concessionárias distribuidoras de energia elétrica, uma vez que seus efeitos nem sempre são detectados pelos dispositivos de proteção utilizados. Os algoritmos de localização de faltas normalmente presentes em relés de proteção digitais são formulados para faltas sólidas ou com baixa resistência de falta. Sendo assim, sua aplicação para localização de faltas de alta impedância resulta em estimativas errôneas da distância de falta. A metodologia proposta visa superar esta deficiência dos algoritmos de localização tradicionais através da criação de um algoritmo baseado em redes neurais artificiais que poderá ser adicionado como uma rotina adicional de um relé de proteção digital. O esquema proposto utiliza dados oscilográficos pré e pós-falta que são processados de modo que sua localização possa ser estimada através de um conjunto de características extraídas dos sinais de tensão e corrente. Este conjunto de características é classificado pelas redes neurais artificiais de cuja saída resulta um valor relativo a distância de falta. Além da metodologia proposta, duas metodologias para localização de faltas foram implementadas, possibilitando a obtenção de resultados comparativos. Os dados de falta necessários foram obtidos através de centenas de simulações computacionais de um modelo de alimentador radial de distribuição. Os resultados obtidos demonstram a viabilidade do uso da metodologia proposta para localização de faltas em sistemas de distribuição de energia, especialmente faltas de alta impedância.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho primeiramente explora fundamentos teóricos básicos para análise e implementação de algoritmos para a modelagem de séries temporais. A finalidade principal da modelagem de séries temporais será a predição para utilizá-la na arbitragem estatística. As séries utilizadas são retiradas de uma base de histórico do mercado de ações brasileiro. Estratégias de arbitragem estatística, mais especificamente pairs trading, utilizam a característica de reversão à média dos modelos para explorar um lucro potencial quando o módulo do spread está estatisticamente muito afastado de sua média. Além disso, os modelos dinâmicos deste trabalho apresentam parâmetros variantes no tempo que aumentam a sua flexibilidade e adaptabilidade em mudanças estruturais do processo. Os pares do algoritmo de pairs trading são escolhidos selecionando ativos de mesma empresa ou índices e ETFs (Exchange Trade Funds). A validação da escolha dos pares é feita utilizando testes de cointegração. As simulações demonstram os resultados dos testes de cointegração, a variação no tempo dos parâmetros do modelo e o resultado de um portfólio fictício.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente estudo tem como objetivo comparar e combinar diferentes técnicas de projeção para o PIB trimestral brasileiro de 1991 ao segundo trimestre de 2014, utilizando dados agregados, e dados desagregados com pesos fixos e estocásticos. Os modelos desagregados univariados e multivariados, assim como os pesos estocásticos, foram estimados pelo algoritmo Autometrics criado por Doornik (2009), através dos níveis de desagregação disponibilizados pelo IBGE no Sistema de Contas Nacionais. Os modelos agregados foram estimados pelo Autometrics, por Markov-Switching e por modelos estruturais de espaço-estado. A metodologia de comparação de projeções utilizada foi o Model Confidence Set, desenvolvida por Hanse, Lunde e Nason (2011). Foram realizadas duas simulações, sendo a primeira com a análise fora da amostra a partir de 2008, e a segunda a partir de 2000, com horizonte de projeção de até 6 passos à frente. Os resultados sugerem que os modelos desagregados com pesos fixos desempenham melhor nos dois primeiros passos, enquanto nos períodos restantes os modelos da série agregada geram melhores previsões.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A abordagem de Modelos Baseados em Agentes é utilizada para trabalhar problemas complexos, em que se busca obter resultados partindo da análise e construção de componentes e das interações entre si. Os resultados observados a partir das simulações são agregados da combinação entre ações e interferências que ocorrem no nível microscópico do modelo. Conduzindo, desta forma, a uma simulação do micro para o macro. Os mercados financeiros são sistemas perfeitos para o uso destes modelos por preencherem a todos os seus requisitos. Este trabalho implementa um Modelo de Mercado Financeiro Baseado em Agentes constituído por diversos agentes que interagem entre si através de um Núcleo de Negociação que atua com dois ativos e conta com o auxílio de formadores de mercado para promover a liquidez dos mercados, conforme se verifica em mercados reais. Para operação deste modelo, foram desenvolvidos dois tipos de agentes que administram, simultaneamente, carteiras com os dois ativos. O primeiro tipo usa o modelo de Markowitz, enquanto o segundo usa técnicas de análise de spread entre ativos. Outra contribuição deste modelo é a análise sobre o uso de função objetivo sobre os retornos dos ativos, no lugar das análises sobre os preços.