6 resultados para exponentially weighted moving average

em Repositório digital da Fundação Getúlio Vargas - FGV


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Com o objetivo de analisar o impacto na Estrutura a Termos de Volatilidade (ETV) das taxas de juros utilizando dois diferentes modelos na estimação da Estrutura a Termo das Taxas de Juros (ETTJ) e a suposição em relação a estrutura heterocedástica dos erros (MQO e MQG ponderado pela duration), a técnica procede em estimar a ETV utilizando-se da volatilidade histórica por desvio padrão e pelo modelo auto-regressivo Exponentially Weighted Moving Average (EWMA). Por meio do teste de backtesting proposto por Kupiec para o VaR paramétrico obtido com as volatilidades das ETV´s estimadas, concluí-se que há uma grande diferença na aderência que dependem da combinação dos modelos utilizados para as ETV´s. Além disso, há diferenças estatisticamente significantes entre as ETV´s estimadas em todo os pontos da curva, particularmente maiores no curto prazo (até 1 ano) e nos prazos mais longos (acima de 10 anos).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho tem como objetivo verificar se o mercado de opções da Petrobras PN (PETR4) é ineficiente na forma fraca, ou seja, se as informações públicas estão ou não refletidas nos preços dos ativos. Para isso, tenta-se obter lucro sistemático por meio da estratégia Delta-Gama-Neutra que utiliza a ação preferencial e as opções de compra da empresa. Essa ação foi escolhida, uma vez que as suas opções tinham alto grau de liquidez durante todo o período estudado (01/10/2012 a 31/03/2013). Para a realização do estudo, foram consideradas as ordens de compra e venda enviadas tanto para o ativo-objeto quanto para as opções de forma a chegar ao livro de ofertas (book) real de todos os instrumentos a cada cinco minutos. A estratégia foi utilizada quando distorções entre a Volatilidade Implícita, calculada pelo modelo Black & Scholes, e a volatilidade calculada por alisamento exponencial (EWMA – Exponentially Weighted Moving Average) foram observadas. Os resultados obtidos mostraram que o mercado de opções de Petrobras não é eficiente em sua forma fraca, já que em 371 operações realizadas durante esse período, 85% delas foram lucrativas, com resultado médio de 0,49% e o tempo médio de duração de cada operação sendo pouco menor que uma hora e treze minutos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O objetivo da dissertação é avaliar o impacto da adoção do regime de metas na inércia da inflação. A inércia é analisada de acordo com procedimentos tradicionalmente adotados na literatura, através de modelos ARIMA. Em virtude das metas de inflação não serem imutáveis ao longo do tempo, propõe-se uma metodologia para se medir a inércia da taxa de inflação, onde esta possui dois componentes: a tendência e a parte transitória. A inércia da inflação será, então, medida pelo coeficiente com que a taxa de inflação converge para sua taxa de longo prazo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta dissertação concentra-se nos processos estocásticos espaciais definidos em um reticulado, os chamados modelos do tipo Cliff & Ord. Minha contribuição nesta tese consiste em utilizar aproximações de Edgeworth e saddlepoint para investigar as propriedades em amostras finitas do teste para detectar a presença de dependência espacial em modelos SAR (autoregressivo espacial), e propor uma nova classe de modelos econométricos espaciais na qual os parâmetros que afetam a estrutura da média são distintos dos parâmetros presentes na estrutura da variância do processo. Isto permite uma interpretação mais clara dos parâmetros do modelo, além de generalizar uma proposta de taxonomia feita por Anselin (2003). Eu proponho um estimador para os parâmetros do modelo e derivo a distribuição assintótica do estimador. O modelo sugerido na dissertação fornece uma interpretação interessante ao modelo SARAR, bastante comum na literatura. A investigação das propriedades em amostras finitas dos testes expande com relação a literatura permitindo que a matriz de vizinhança do processo espacial seja uma função não-linear do parâmetro de dependência espacial. A utilização de aproximações ao invés de simulações (mais comum na literatura), permite uma maneira fácil de comparar as propriedades dos testes com diferentes matrizes de vizinhança e corrigir o tamanho ao comparar a potência dos testes. Eu obtenho teste invariante ótimo que é também localmente uniformemente mais potente (LUMPI). Construo o envelope de potência para o teste LUMPI e mostro que ele é virtualmente UMP, pois a potência do teste está muito próxima ao envelope (considerando as estruturas espaciais definidas na dissertação). Eu sugiro um procedimento prático para construir um teste que tem boa potência em uma gama de situações onde talvez o teste LUMPI não tenha boas propriedades. Eu concluo que a potência do teste aumenta com o tamanho da amostra e com o parâmetro de dependência espacial (o que está de acordo com a literatura). Entretanto, disputo a visão consensual que a potência do teste diminui a medida que a matriz de vizinhança fica mais densa. Isto reflete um erro de medida comum na literatura, pois a distância estatística entre a hipótese nula e a alternativa varia muito com a estrutura da matriz. Fazendo a correção, concluo que a potência do teste aumenta com a distância da alternativa à nula, como esperado.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Mandelbrot (1971) demonstrou a importância de considerar dependências de longo prazo na precificação de ativos - o método tradicional para mensurá-las, encontrado em Hurst (1951), faz uso da estatística R/S. Paralelamente a isso, Box e Jenkins (1976; edição original de 1970) apresentaram sua famosa metodologia para determinação da ordem dos parâmetros de modelos desenvolvidos no contexto de processos com memória de curto prazo, conhecidos por ARIMA (acrônimo do inglês Autoregressive Integrated Moving Average). Estimulados pela percepção de que um modelo que pretenda representar fielmente o processo gerador de dados deva explicar tanto a dinâmica de curto prazo quanto a de longo prazo, Granger e Joyeux (1980) e Hosking (1981) introduziram os modelos ARFIMA (de onde o F adicionado vem de Fractionally), uma generalização da classe ARIMA, nos quais a dependência de longo prazo estimada é relacionada ao valor do parâmetro de integração. Pode-se dizer que a partir de então processos com alto grau de persistência passaram a atrair cada vez mais o interesse de pesquisadores, o que resultou no desenvolvimento de outros métodos para estimá-la, porém sem que algum tenha se sobressaído claramente – e é neste ponto que o presente trabalho se insere. Por meio de simulações, buscou-se: (1) classificar diversos estimadores quanto a sua precisão, o que nos obrigou a; (2) determinar parametrizações razoáveis desses, entendidas aqui como aquelas que minimizam o viés, o erro quadrático médio e o desvio-padrão. Após rever a literatura sobre o tema, abordar estes pontos se mostrou necessário para o objetivo principal: elaborar estratégias de negociação baseadas em projeções feitas a partir da caracterização de dependências em dados intradiários, minuto a minuto, de ações e índices de ações. Foram analisadas as séries de retornos da ação Petrobras PN e do Índice Bovespa, com dados de 01/04/2013 a 31/03/2014. Os softwares usados foram o S-Plus e o R.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This work proposes a method to examine variations in the cointegration relation between preferred and common stocks in the Brazilian stock market via Markovian regime switches. It aims on contributing for future works in "pairs trading" and, more specifically, to price discovery, given that, conditional on the state, the system is assumed stationary. This implies there exists a (conditional) moving average representation from which measures of "information share" (IS) could be extracted. For identification purposes, the Markov error correction model is estimated within a Bayesian MCMC framework. Inference and capability of detecting regime changes are shown using a Montecarlo experiment. I also highlight the necessity of modeling financial effects of high frequency data for reliable inference.