51 resultados para Filtragem estocástica


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta um modelo para determinação da superfície de volatilidades de um par de moedas cujas opções têm baixa liquidez, utilizando superfícies de volatilidade com maior liquidez, de pares de moedas em que as moedas estudadas sejam uma de suas componentes. Esse objetivo é atingido através da utilização de um modelo de volatilidade estocástica. A calibração de seus parâmetros é feita a partir dos valores de mercado de Butterfly Spreads e Risk Reversals dos pares de moedas líquidos. O trabalho contribui em relação à literatura no sentido de ampliar a cobertura de strikes e vencimentos considerados, permitindo que, tanto opções pouco líquidas e fora do dinheiro, como notas estruturadas com opções embutidas possam ser mais adequadamente apreçadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O trabalho tem como objetivo comparar a eficácia das diferentes metodologias de projeção de inflação aplicadas ao Brasil. Serão comparados modelos de projeção que utilizam os dados agregados e desagregados do IPCA em um horizonte de até doze meses à frente. Foi utilizado o IPCA na base mensal, com início em janeiro de 1996 e fim em março de 2012. A análise fora da amostra foi feita para o período entre janeiro de 2008 e março de 2012. Os modelos desagregados serão estimados por SARIMA, pelo software X-12 ARIMA disponibilizado pelo US Census Bureau, e terão as aberturas do IPCA de grupos (9) e itens (52), assim como aberturas com sentido mais econômico utilizadas pelo Banco Central do Brasil como: serviços, administrados, alimentos e industrializados; duráveis, não duráveis, semiduráveis, serviços e administrados. Os modelos agregados serão estimados por técnicas como SARIMA, modelos estruturais em espaço-estado (Filtro de Kalman) e Markov-switching. Os modelos serão comparados pela técnica de seleção de modelo Model Confidence Set, introduzida por Hansen, Lunde e Nason (2010), e Dielbod e Mariano (1995), no qual encontramos evidências de ganhos de desempenho nas projeções dos modelos mais desagregados em relação aos modelos agregados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O agronegócio é uma das atividades mais importantes para a economia brasileira, e um dos principais custos para a produção de commodities agrícolas é a terra para o cultivo. Desta forma, a precificação de terrenos agrícolas mostra-se um importante elemento para o investidor decidir pela entrada ou não nesta indústria. Uma forma de precificar o terreno é assumir que seu preço equivale ao valor da opção que o investidor tem em entrar neste mercado. Considerando incertezas envolvidas na produção de commodities, como o preço do grão no momento da venda, a produtividade da terra e o próprio custo de produção, o valor do terreno foi calculado através de duas abordagens: Fluxo de Caixa Descontado, considerando que o agricultor escolherá no início do investimento qual cultura plantará e não mudará esta escolha, e Opções Reais, adicionando a flexibilidade do agricultor decidir por qual cultura plantar a cada safra. No estudo foram consideradas as culturas de milho, soja e a rotação entre soja e milho safrinha. Para isto, foi utilizado um modelo de preços para a soja e milho com comportamento estocástico da volatilidade e saltos aleatórios em datas determinadas, além de correlação entre a aleatoriedade dos preços. Os resultados mostram que utilizando ambas as metodologias chega-se a um valor que se aproxima ao valor de mercado observado para as terras, porém a metodologia de Opções Reais agrega valor ao terreno de forma significativa e consistente próxima a 11%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta pesquisa busca testar a eficácia de uma estratégia de arbitragem de taxas de juros no Brasil baseada na utilização do modelo de Nelson-Siegel dinâmico aplicada à curva de contratos futuros de taxa de juros de 1 dia da BM&FBovespa para o período compreendido entre 02 de janeiro de 2008 e 03 de dezembro de 2012. O trabalho adapta para o mercado brasileiro o modelo original proposto por Nelson e Siegel (1987), e algumas de suas extensões e interpretações, chegando a um dos modelos propostos por Diebold, Rudebusch e Aruoba (2006), no qual estimam os parâmetros do modelo de Nelson-Siegel em uma única etapa, colocando-o em formato de espaço de estados e utilizando o Filtro de Kalman para realizar a previsão dos fatores, assumindo que o comportamento dos mesmos é um VAR de ordem 1. Desta maneira, o modelo possui a vantagem de que todos os parâmetros são estimados simultaneamente, e os autores mostraram que este modelo possui bom poder preditivo. Os resultados da estratégia adotada foram animadores quando considerados para negociação apenas os 7 primeiros vencimentos abertos para negociação na BM&FBovespa, que possuem maturidade máxima próxima a 1 ano.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Devido à utilização de estratégias distintas de investimento dos hedge funds brasileiros caracterizadas pelo uso de derivativos, operações alavancadas e vendas a descoberto, esses fundos apresentam significante não normalidade dos retornos gerados. Portanto, as medidas usuais de avaliação de performance são incapazes de fornecer resultados consistentes com o verdadeiro desempenho dos portfólios de hedge fund. Este trabalho irá utilizar duas metodologias não tradicionais para analisar a performance dos hedge funds brasileiros e determinar qual estratégia supera o mercado acionário. Serão utilizadas duas medidas não paramétricas, Almost Stochastic Dominância (ASD) e Manipulation-Proof Performance Measure (MPPM). Os resultados demonstram que os hedge funds brasileiros não superam os benckmaks utilizados na dominância de primeira ordem, mas quando analisada a dominância de segunda ordem sete estratégias apresentaram desempenho superior ao Índice Ibovespa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este tese é composta por quatro ensaios sobre aplicações econométricas em tópicos econômicos relevantes. Os estudos versam sobre consumo de bens não-duráveis e preços de imóveis, capital humano e crescimento econômico, demanda residencial de energia elétrica e, por fim, periodicidade de variáveis fiscais de Estados e Municípios brasileiros. No primeiro artigo, "Non-Durable Consumption and Real-Estate Prices in Brazil: Panel-Data Analysis at the State Level", é investigada a relação entre variação do preço de imóveis e variação no consumo de bens não-duráveis. Os dados coletados permitem a formação de um painel com sete estados brasileiros observados entre 2008- 2012. Os resultados são obtidos a partir da estimação de uma forma reduzida obtida em Campbell e Cocco (2007) que aproxima um modelo estrutural. As estimativas para o caso brasileiro são inferiores as de Campbell e Cocco (2007), que, por sua vez, utilizaram microdados britânicos. O segundo artigo, "Uma medida alternativa de capital humano para o estudo empírico do crescimento", propõe uma forma de mensuração do estoque de capital humano que reflita diretamente preços de mercado, através do valor presente do fluxo de renda real futura. Os impactos dessa medida alternativa são avaliados a partir da estimação da função de produção tradicional dos modelos de crescimento neoclássico. Os dados compõem um painel de 25 países observados entre 1970 e 2010. Um exercício de robustez é realizado para avaliar a estabilidade dos coeficientes estimados diante de variações em variáveis exógenas do modelo. Por sua vez, o terceiro artigo "Household Electricity Demand in Brazil: a microdata approach", parte de dados da Pesquisa de Orçamento Familiar (POF) para mensurar a elasticidade preço da demanda residencial brasileira por energia elétrica. O uso de microdados permite adotar abordagens que levem em consideração a seleção amostral. Seu efeito sobre a demanda de eletricidade é relevante, uma vez que esta demanda é derivada da demanda por estoque de bens duráveis. Nesse contexto, a escolha prévia do estoque de bens duráveis (e consequentemente, a escolha pela intensidade de energia desse estoque) condiciona a demanda por eletricidade dos domicílios. Finalmente, o quarto trabalho, "Interpolação de Variáveis Fiscais Brasileiras usando Representação de Espaço de Estados" procurou sanar o problema de baixa periodicidade da divulgação de séries fiscais de Estados e Municípios brasileiros. Através de técnica de interpolação baseada no Filtro de Kalman, as séries mensais não observadas são projetadas a partir de séries bimestrais parcialmente observadas e covariáveis mensais selecionadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho primeiramente explora fundamentos teóricos básicos para análise e implementação de algoritmos para a modelagem de séries temporais. A finalidade principal da modelagem de séries temporais será a predição para utilizá-la na arbitragem estatística. As séries utilizadas são retiradas de uma base de histórico do mercado de ações brasileiro. Estratégias de arbitragem estatística, mais especificamente pairs trading, utilizam a característica de reversão à média dos modelos para explorar um lucro potencial quando o módulo do spread está estatisticamente muito afastado de sua média. Além disso, os modelos dinâmicos deste trabalho apresentam parâmetros variantes no tempo que aumentam a sua flexibilidade e adaptabilidade em mudanças estruturais do processo. Os pares do algoritmo de pairs trading são escolhidos selecionando ativos de mesma empresa ou índices e ETFs (Exchange Trade Funds). A validação da escolha dos pares é feita utilizando testes de cointegração. As simulações demonstram os resultados dos testes de cointegração, a variação no tempo dos parâmetros do modelo e o resultado de um portfólio fictício.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A tradicional representação da estrutura a termo das taxas de juros em três fatores latentes (nível, inclinação e curvatura) teve sua formulação original desenvolvida por Charles R. Nelson e Andrew F. Siegel em 1987. Desde então, diversas aplicações vêm sendo desenvolvidas por acadêmicos e profissionais de mercado tendo como base esta classe de modelos, sobretudo com a intenção de antecipar movimentos nas curvas de juros. Ao mesmo tempo, estudos recentes como os de Diebold, Piazzesi e Rudebusch (2010), Diebold, Rudebusch e Aruoba (2006), Pooter, Ravazallo e van Dijk (2010) e Li, Niu e Zeng (2012) sugerem que a incorporação de informação macroeconômica aos modelos da ETTJ pode proporcionar um maior poder preditivo. Neste trabalho, a versão dinâmica do modelo Nelson-Siegel, conforme proposta por Diebold e Li (2006), foi comparada a um modelo análogo, em que são incluídas variáveis exógenas macroeconômicas. Em paralelo, foram testados dois métodos diferentes para a estimação dos parâmetros: a tradicional abordagem em dois passos (Two-Step DNS), e a estimação com o Filtro de Kalman Estendido, que permite que os parâmetros sejam estimados recursivamente, a cada vez que uma nova informação é adicionada ao sistema. Em relação aos modelos testados, os resultados encontrados mostram-se pouco conclusivos, apontando uma melhora apenas marginal nas estimativas dentro e fora da amostra quando as variáveis exógenas são incluídas. Já a utilização do Filtro de Kalman Estendido mostrou resultados mais consistentes quando comparados ao método em dois passos para praticamente todos os horizontes de tempo estudados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this article we use factor models to describe a certain class of covariance structure for financiaI time series models. More specifical1y, we concentrate on situations where the factor variances are modeled by a multivariate stochastic volatility structure. We build on previous work by allowing the factor loadings, in the factor mo deI structure, to have a time-varying structure and to capture changes in asset weights over time motivated by applications with multi pIe time series of daily exchange rates. We explore and discuss potential extensions to the models exposed here in the prediction area. This discussion leads to open issues on real time implementation and natural model comparisons.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The past decade has wítenessed a series of (well accepted and defined) financial crises periods in the world economy. Most of these events aI,"e country specific and eventually spreaded out across neighbor countries, with the concept of vicinity extrapolating the geographic maps and entering the contagion maps. Unfortunately, what contagion represents and how to measure it are still unanswered questions. In this article we measure the transmission of shocks by cross-market correlation\ coefficients following Forbes and Rigobon's (2000) notion of shift-contagion,. Our main contribution relies upon the use of traditional factor model techniques combined with stochastic volatility mo deIs to study the dependence among Latin American stock price indexes and the North American indexo More specifically, we concentrate on situations where the factor variances are modeled by a multivariate stochastic volatility structure. From a theoretical perspective, we improve currently available methodology by allowing the factor loadings, in the factor model structure, to have a time-varying structure and to capture changes in the series' weights over time. By doing this, we believe that changes and interventions experienced by those five countries are well accommodated by our models which learns and adapts reasonably fast to those economic and idiosyncratic shocks. We empirically show that the time varying covariance structure can be modeled by one or two common factors and that some sort of contagion is present in most of the series' covariances during periods of economical instability, or crisis. Open issues on real time implementation and natural model comparisons are thoroughly discussed.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O maior acesso dos brasileiros à internet e o aumento do volume de conteúdo disseminado pela web têm atraído atenção para as análises de big data. Mercado, imprensa e governos recorrem cada vez mais a técnicas de análise de rede para apoiar decisões. Mas essa prática embute riscos de manipulação pouco considerados. A DAPP/FGV — parceira do GLOBO no monitoramento de redes — tem desenvolvido mecanismos próprios de filtragem e identificou ao menos 25% de “lixo on-line” em pesquisas feitas nas duas últimas semanas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Seguindo a tendência mundial de um melhor gerenciamento de riscos, o regulador do mercado de seguros brasileiro, após a implementação dos demais riscos, está em fase avançada de desenvolvimento de seu modelo para aferir o risco de mercado das seguradoras. Uma vez que as discussões cessem, as empresas serão forçadas a usar um modelo que, hoje, apresenta muitas falhas, gerando uma demanda de capital adicional de seus acionistas que pode levar algumas delas ao estado de insolvência. O principal objetivo deste estudo é analisar a adequação do modelo e subsidiar a discussão a fim de aperfeiçoar o modelo final, com análises comparativas com outros modelos no país e no mundo, estudo de cenários e visões do mercado. De modo geral, as análises feitas revelam problemas sérios no modelo, como necessidade de aporte de capital em empresas extremamente lucrativas e insuficiência de garantia de segurança pelo uso puro dos fatores de choque em detrimento a uma análise estocástica. Finalmente, são sugeridas algumas soluções para minimizar o efeito da inadequação do modelo e ainda algumas sugestões para melhoria do mesmo, de forma que os acionistas não sejam prejudicados, o regulador consiga administrar adequadamente os riscos e a sociedade seja beneficiada pela solidez das companhias em quem confiou seus riscos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

ABSTRACT Global Sugar market has changed considerably since 1970; the dramatic fluctuations in sugar prices have affected the sugar market worldwide. Therefore, new countries such as Brazil, India, China and Thailand start to invest intensively into this market. In the new scenario, Brazil became the main producer of sugar, as well as the main exporter one. The models considered in this study showed the influence of the main sugar producers and the worldwide stocks against the commodity price behaviour. Firstly, the study showed that ending-stocks have a higher impact in the sugar prices comparing to beginning-stocks, in this case, the main countries that contribute for stocks build-up were Brazil and India. Secondly, this study evaluated the impact of the largest sugar producers against the price, the models concluded that Brazil was the most significant country followed by China. Although the study showed Brazil as the main country which impacts stocks and sugar price; it is important to highlight that other countries are also important in the context to identify the main drivers for the supply and demand dynamics in order to evaluate price levels in response of the production and stocks.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo desse trabalho é encontrar uma medida dinâmica de liquidez de ações brasileiras, chamada VNET. Foram utilizados dados de alta frequência para criar um modelo capaz de medir o excesso de compras e vendas associadas a um movimento de preços. Ao variar no tempo, o VNET pode ser entendido como a variação da proporção de agentes informados em um modelo de informação assimétrica. Uma vez estimado, ele pode ser utilizado para prever mudanças na liquidez de uma ação. O VNET tem implicações práticas importantes, podendo ser utilizado por operadores como uma medida estocástica para identificar quais seriam os melhores momentos para operar. Gerentes de risco também podem estimar a deterioração de preço esperada ao se liquidar uma posição, sendo possível analisar suas diversas opções, servindo de base para otimização da execução. Na construção do trabalho encontramos as durações de preço de cada ação e as diversas medidas associadas a elas. Com base nos dados observa-se que a profundidade varia com ágio de compra e venda, com o volume negociado, com o numero de negócios, com a duração de preços condicional e com o seu erro de previsão. Os resíduos da regressão de VNET se mostraram bem comportados o que corrobora a hipótese de que o modelo foi bem especificado. Para estimar a curva de reação do mercado, variamos os intervalos de preço usados na definição das durações.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uma forma interessante para uma companhia que pretende assumir uma posição comprada em suas próprias ações ou lançar futuramente um programa de recompra de ações, mas sem precisar dispor de caixa ou ter que contratar um empréstimo, ou então se protegendo de uma eventual alta no preço das ações, é através da contratação de um swap de ações. Neste swap, a companhia fica ativa na variação de sua própria ação enquanto paga uma taxa de juros pré ou pós-fixada. Contudo, este tipo de swap apresenta risco wrong-way, ou seja, existe uma dependência positiva entre a ação subjacente do swap e a probabilidade de default da companhia, o que precisa ser considerado por um banco ao precificar este tipo de swap. Neste trabalho propomos um modelo para incorporar a dependência entre probabilidades de default e a exposição à contraparte no cálculo do CVA para este tipo de swap. Utilizamos um processo de Cox para modelar o instante de ocorrência de default, dado que a intensidade estocástica de default segue um modelo do tipo CIR, e assumindo que o fator aleatório presente na ação subjacente e que o fator aleatório presente na intensidade de default são dados conjuntamente por uma distribuição normal padrão bivariada. Analisamos o impacto no CVA da incorporação do riscowrong-way para este tipo de swap com diferentes contrapartes, e para diferentes prazos de vencimento e níveis de correlação.