24 resultados para Algoritmo memético


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O trabalho tem como objetivo aplicar uma modelagem não linear ao Produto Interno Bruto brasileiro. Para tanto foi testada a existência de não linearidade do processo gerador dos dados com a metodologia sugerida por Castle e Henry (2010). O teste consiste em verificar a persistência dos regressores não lineares no modelo linear irrestrito. A seguir a série é modelada a partir do modelo autoregressivo com limiar utilizando a abordagem geral para específico na seleção do modelo. O algoritmo Autometrics é utilizado para escolha do modelo não linear. Os resultados encontrados indicam que o Produto Interno Bruto do Brasil é melhor explicado por um modelo não linear com três mudanças de regime, que ocorrem no inicio dos anos 90, que, de fato, foi um período bastante volátil. Através da modelagem não linear existe o potencial para datação de ciclos, no entanto os resultados encontrados não foram suficientes para tal análise.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem por objetivo comparar metodologias distintas para cálculo de desalinhamento cambial além de testar a hipótese se as taxas de câmbio dos diversos países sofrem influencia apenas dos seus próprios fundamentos ou também da taxa de câmbio e dos fundamentos de outros países. Estas hipóteses consistem, respectivamente, na ausência ou na existência de interdependência entre os diversos países. Para realizar tal tarefa utilizam-se duas estratégias empíricas. A primeira baseia-se em avaliar se um modelo multivariado de séries de tempo usualmente utilizada na literatura de desalinhamento cambial com dados apenas do próprio país em análise pode ser melhorado através da adição de variáveis relacionadas a outros países usando o algoritmo proposto por David Hendry e co-autores. A segunda estratégia consiste em estimar um panel longo com as variáveis utilizadas para estimar desalinhamento cambial e testar formalmente a hipótese de ausência de interdependências. Os resultados sugerem que em ambas estratégias existe evidência de existência de interdependência. Esta ocorreria mais por conta de fatores ligados ao curto prazo, ou seja, o que explicaria o valor da taxa de câmbio de um país no longo prazo seriam seus próprios fundamentos enquanto no curto prazo fatores externos poderiam causar desvios

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Outliers são observações que parecem ser inconsistentes com as demais. Também chamadas de valores atípicos, extremos ou aberrantes, estas inconsistências podem ser causadas por mudanças de política ou crises econômicas, ondas inesperadas de frio ou calor, erros de medida ou digitação, entre outras. Outliers não são necessariamente valores incorretos, mas, quando provenientes de erros de medida ou digitação, podem distorcer os resultados de uma análise e levar o pesquisador à conclusões equivocadas. O objetivo deste trabalho é estudar e comparar diferentes métodos para detecção de anormalidades em séries de preços do Índice de Preços ao Consumidor (IPC), calculado pelo Instituto Brasileiro de Economia (IBRE) da Fundação Getulio Vargas (FGV). O IPC mede a variação dos preços de um conjunto fixo de bens e serviços componentes de despesas habituais das famílias com nível de renda situado entre 1 e 33 salários mínimos mensais e é usado principalmente como um índice de referência para avaliação do poder de compra do consumidor. Além do método utilizado atualmente no IBRE pelos analistas de preços, os métodos considerados neste estudo são: variações do Método do IBRE, Método do Boxplot, Método do Boxplot SIQR, Método do Boxplot Ajustado, Método de Cercas Resistentes, Método do Quartil, do Quartil Modificado, Método do Desvio Mediano Absoluto e Algoritmo de Tukey. Tais métodos foram aplicados em dados pertencentes aos municípios Rio de Janeiro e São Paulo. Para que se possa analisar o desempenho de cada método, é necessário conhecer os verdadeiros valores extremos antecipadamente. Portanto, neste trabalho, tal análise foi feita assumindo que os preços descartados ou alterados pelos analistas no processo de crítica são os verdadeiros outliers. O Método do IBRE é bastante correlacionado com os preços alterados ou descartados pelos analistas. Sendo assim, a suposição de que os preços alterados ou descartados pelos analistas são os verdadeiros valores extremos pode influenciar os resultados, fazendo com que o mesmo seja favorecido em comparação com os demais métodos. No entanto, desta forma, é possível computar duas medidas através das quais os métodos são avaliados. A primeira é a porcentagem de acerto do método, que informa a proporção de verdadeiros outliers detectados. A segunda é o número de falsos positivos produzidos pelo método, que informa quantos valores precisaram ser sinalizados para um verdadeiro outlier ser detectado. Quanto maior for a proporção de acerto gerada pelo método e menor for a quantidade de falsos positivos produzidos pelo mesmo, melhor é o desempenho do método. Sendo assim, foi possível construir um ranking referente ao desempenho dos métodos, identificando o melhor dentre os analisados. Para o município do Rio de Janeiro, algumas das variações do Método do IBRE apresentaram desempenhos iguais ou superiores ao do método original. Já para o município de São Paulo, o Método do IBRE apresentou o melhor desempenho. Em trabalhos futuros, espera-se testar os métodos em dados obtidos por simulação ou que constituam bases largamente utilizadas na literatura, de forma que a suposição de que os preços descartados ou alterados pelos analistas no processo de crítica são os verdadeiros outliers não interfira nos resultados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com o objetivo de estabelecer uma metodologia capaz segregar momentos de mercado e de identificar as características predominantes dos investidores atuantes em um determinado mercado financeiro, este trabalho emprega simulações geradas em um Mercado Financeiro Artificial baseado em agentes, utilizando um Algoritmo Genético para ajustar tais simulações ao histórico real observado. Para tanto, uma aplicação foi desenvolvida utilizando-se o mercado de contratos futuros de índice Bovespa. Esta metodologia poderia facilmente ser estendida a outros mercados financeiros através da simples parametrização do modelo. Sobre as bases estabelecidas por Toriumi et al. (2011), contribuições significativas foram atingidas, promovendo acréscimo de conhecimento acerca tanto do mercado alvo escolhido, como das técnicas de modelagem em Mercados Financeiros Artificiais e também da aplicação de Algoritmos Genéticos a mercados financeiros, resultando em experimentos e análises que sugerem a eficácia do método ora proposto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho primeiramente explora fundamentos teóricos básicos para análise e implementação de algoritmos para a modelagem de séries temporais. A finalidade principal da modelagem de séries temporais será a predição para utilizá-la na arbitragem estatística. As séries utilizadas são retiradas de uma base de histórico do mercado de ações brasileiro. Estratégias de arbitragem estatística, mais especificamente pairs trading, utilizam a característica de reversão à média dos modelos para explorar um lucro potencial quando o módulo do spread está estatisticamente muito afastado de sua média. Além disso, os modelos dinâmicos deste trabalho apresentam parâmetros variantes no tempo que aumentam a sua flexibilidade e adaptabilidade em mudanças estruturais do processo. Os pares do algoritmo de pairs trading são escolhidos selecionando ativos de mesma empresa ou índices e ETFs (Exchange Trade Funds). A validação da escolha dos pares é feita utilizando testes de cointegração. As simulações demonstram os resultados dos testes de cointegração, a variação no tempo dos parâmetros do modelo e o resultado de um portfólio fictício.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente estudo tem como objetivo comparar e combinar diferentes técnicas de projeção para o PIB trimestral brasileiro de 1991 ao segundo trimestre de 2014, utilizando dados agregados, e dados desagregados com pesos fixos e estocásticos. Os modelos desagregados univariados e multivariados, assim como os pesos estocásticos, foram estimados pelo algoritmo Autometrics criado por Doornik (2009), através dos níveis de desagregação disponibilizados pelo IBGE no Sistema de Contas Nacionais. Os modelos agregados foram estimados pelo Autometrics, por Markov-Switching e por modelos estruturais de espaço-estado. A metodologia de comparação de projeções utilizada foi o Model Confidence Set, desenvolvida por Hanse, Lunde e Nason (2011). Foram realizadas duas simulações, sendo a primeira com a análise fora da amostra a partir de 2008, e a segunda a partir de 2000, com horizonte de projeção de até 6 passos à frente. Os resultados sugerem que os modelos desagregados com pesos fixos desempenham melhor nos dois primeiros passos, enquanto nos períodos restantes os modelos da série agregada geram melhores previsões.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O trabalho tem como objetivo verificar a existência e a relevância dos Efeitos Calendário em indicadores industriais. São explorados modelos univariados lineares para o indicador mensal da produção industrial brasileira e alguns de seus componentes. Inicialmente é realizada uma análise dentro da amostra valendo-se de modelos estruturais de espaço-estado e do algoritmo de seleção Autometrics, a qual aponta efeito significante da maioria das variáveis relacionadas ao calendário. Em seguida, através do procedimento de Diebold-Mariano (1995) e do Model Confidence Set, proposto por Hansen, Lunde e Nason (2011), são realizadas comparações de previsões de modelos derivados do Autometrics com um dispositivo simples de Dupla Diferença para um horizonte de até 24 meses à frente. Em geral, os modelos Autometrics que consideram as variáveis de calendário se mostram superiores nas projeções de 1 a 2 meses adiante e superam o modelo simples em todos os horizontes. Quando se agrega os componentes de categoria de uso para formar o índice industrial total, há evidências de ganhos nas projeções de prazo mais curto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O palestrante vai debater como o modelo de gestão inaugurado pelo Uber pode ser usado em favor da sociedade. No lugar de uma gestão centralizada, a startup californiana, que com apenas sete anos de existência já é avaliada em US$ 51 bilhões, desenvolveu um algoritmo que gerencia a relação entre fornecedores e consumidores por meio da curadoria dos usuários da plataforma. A ideia abre espaço para a criação de projetos e políticos públicas inovadoras e participativas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação estuda a propagação de crises sobre o sistema financeiro. Mais especi- ficamente, busca-se desenvolver modelos que permitam simular como um determinado choque econômico atinge determinados agentes do sistema financeiro e apartir dele se propagam, transformando-se em um problema sistêmico. A dissertação é dividida em dois capítulos,além da introdução. O primeiro capítulo desenvolve um modelo de propa- gação de crises em fundos de investimento baseado em ciência das redes.Combinando dois modelos de propagação em redes financeiras, um simulando a propagação de perdas em redes bipartites de ativos e agentes financeiros e o outro simulando a propagação de perdas em uma rede de investimentos diretos em quotas de outros agentes, desenvolve-se um algoritmo para simular a propagação de perdas através de ambos os mecanismos e utiliza-se este algoritmo para simular uma crise no mercado brasileiro de fundos de investimento. No capítulo 2,desenvolve-se um modelo de simulação baseado em agentes, com agentes financeiros, para simular propagação de um choque que afeta o mercado de operações compromissadas.Criamos também um mercado artificial composto por bancos, hedge funds e fundos de curto prazo e simulamos a propagação de um choque de liquidez sobre um ativo de risco securitizando utilizado para colateralizar operações compromissadas dos bancos.