1000 resultados para Taxa de juros real
Resumo:
Esta tese tem por objetivo principal examinar a interação da política fiscal com a política monetária. A pergunta central a ser respondida por esse estudo é se a política fiscal tem efeitos sobre a regra de Taylor. Para responder a essa pergunta o estudo é conduzido com análise teórica e empírica. O modelo analítico é desenvolvido do framework novo keynesiano, apresentado por Gali (2008), adicionando-se papel do governo sobre a demanda agregada e a produtividade das firmas. A análise empírica é realizada com dados de 1990 a 2008, em um painel de países utilizando o System GMM (método generalizado dos momentos) desenvolvido por Blundell e Bond (1998). Os resultados obtidos nesse trabalho apontam para um impacto positivo do gasto fiscal na taxa de juros de curto prazo, tal que o aumento em 1 ponto percentual de gasto além do nível de equilíbrio leva a um aumento de aproximadamente 0,1 pontos percentuais na taxa de juros no curto prazo, já o impacto no longo prazo, na estimação preferida, varia de 0,5 a 1 ponto percentual. Ou seja, para efeito de recomendação de política fiscal, gastos governamentais têm efeitos na taxa de juros nominal de curto prazo.
Resumo:
O objetivo do presente trabalho é verificar se o modelo que combina correção de erros e fatores extraídos de grandes conjuntos de dados macroeconômicos produz previsões mais precisas das taxas de juros do Brasil em relação aos modelos VAR, VECM e FAVAR. Para realizar esta análise, foi utilizado o modelo sugerido por Banerjee e Marcellino (2009), o FAVECM, que consiste em agregar o mecanismo de correção de erros ao modelo proposto por Bernanke, Boivin e Eliasz (2005), o FAVAR. A hipótese é que o FAVECM possuiu uma formulação teórica mais geral. Os resultados mostram que para o mercado brasileiro o FAVECM apresentou ganhos significativos de previsão para as taxas mais longas e horizontes de previsão maiores.
Resumo:
O trabalho busca comparar dois conjuntos de informações para a projeção das variações do PIB brasileiro: através de modelos econométricos aplicados sobre a série univariada do PIB, e a aplicação dos mesmos modelos, mas contemplando adicionalmente o conjunto de informação com dados da estrutura a termo de taxa de juros de swap PRÉ-DI. O objetivo é verificar, assim como descrito na literatura internacional, se informações de variáveis financeiras tem a capacidade de incrementar o poder preditivo de projeções de variáveis macroeconômicas, na medida em que esses dados também embutem as expectativas dos agentes em relação ao desenvolvimento do cenário econômico. Adicionalmente, o mesmo procedimento aplicado para os dados brasileiros é aplicado sobre as informações dos Estados Unidos, buscando poder fornecer ao estudo uma base de comparação sobre os dados, tamanho da amostra e estágio de maturidade das respectivas economias. Como conclusão do resultado do trabalho está o fato de que foi possível obter um modelo no qual a inclusão do componente de mercado apresenta menores erros de projeção do que as projeções apenas univariadas, no entanto, os ganhos de projeção não demonstram grande vantagem comparativa a ponto de poder capturar o efeito de antecipação do mercado em relação ao indicador econômico como em alguns casos norte-americanos. Adicionalmente o estudo demonstra que para este trabalho e amostra de dados, mesmo diante de diferentes modelos econométricos de previsão, as projeções univariadas apresentaram resultados similares.
Resumo:
Este trabalho tem a finalidade de analisar as evidências de relações de longo prazo entre a taxa de câmbio real (“RER”), a posição internacional de investimentos (“NFA”) e o efeito Balassa-Samuelson (“PREL”) em um grupo de 28 países, grupo este que inclui países em diferentes estágios de desenvolvimento. A metodologia utilizada foi a de testes de cointegração. Os testes aplicados foram desenvolvidos por Bierens (1997), teste não paramétrico, e por Saikkonen e Lütkepohl (2000a, b, c), teste que consiste em primeiro estimar um termo determinístico. Evidências de cointegração são constatadas, em ambos os testes, na maioria dos países estudados. Entretanto, houve diferenças relevantes entre os resultados encontrados através dos dois testes aplicados. Estas diferenças entre os resultados, bem como alguns casos especiais de países que não demonstraram evidências de cointegração, requerem análises mais aprofundadas sobre o comportamento de longo prazo das três variáveis estudadas.
Resumo:
A forte apreciação cambial que o Brasil sofreu na última década se traduziu em um novo debate acerca da hipótese de Doença Holandesa no país. Como a queda da taxa de câmbio real ocorreu em um período de alta de preços de commodities e nos últimos anos, especialmente após a crise de 2008, vimos uma maior concentração da pauta exportadora em produtos primários, muitos economistas argumentam que a apreciação foi consequência do boom de commodities e que, em razão disso, o Brasil poderia estar sofrendo da Doença Holandesa. Este trabalho mostra que o boom de commodities não foi a principal causa da apreciação da taxa de câmbio real e não representou uma maior dependência destas mercadorias. A mudança do perfil de risco da economia brasileira foi um dos fatores mais importante para a queda da taxa de câmbio. Concluímos, portanto, que a recente perda de competitividade dos demais setores exportadores não pode ser atribuída exclusivamente à valorização das commodities.
Resumo:
Com o objetivo de precificar derivativos de taxas de juros no mercado brasileiro, este trabalho foca na implementação do modelo de Heath, Jarrow e Morton (1992) em sua forma discreta e multifatorial através de uma abordagem numérica, e, que possibilita uma grande flexibilidade na estimativa da taxa forward sob uma estrutura de volatilidade baseada em fatores ortogonais, facilitando assim a simulação de sua evolução por Monte Carlo, como conseqüência da independência destes fatores. A estrutura de volatilidade foi construída de maneira a ser totalmente não paramétrica baseada em vértices sintéticos que foram obtidos por interpolação dos dados históricos de cotações do DI Futuro negociado na BM&FBOVESPA, sendo o período analisado entre 02/01/2003 a 28/12/2012. Para possibilitar esta abordagem foi introduzida uma modificação no modelo HJM desenvolvida por Brace e Musiela (1994).
Resumo:
Modelos de predição baseados em estimações não-paramétricas continuam em desenvolvimento e têm permeado a comunidade quantitativa. Sua principal característica é que não consideram a priori distribuições de probabilidade conhecidas, mas permitem que os dados passados sirvam de base para a construção das próprias distribuições. Implementamos para o mercado brasileiro os estimadores agrupados não-paramétricos de Sam e Jiang (2009) para as funções de drift e de difusão do processo estocástico da taxa de juros instantânea, por meio do uso de séries de taxas de juros de diferentes maturidades fornecidas pelos contratos futuros de depósitos interfinanceiros de um dia (DI1). Os estimadores foram construídos sob a perspectiva da estimação por núcleos (kernels), que requer para a sua otimização um formato específico da função-núcleo. Neste trabalho, foi usado o núcleo de Epanechnikov, e um parâmetro de suavizamento (largura de banda), o qual é fundamental para encontrar a função de densidade de probabilidade ótima que forneça a estimação mais eficiente em termos do MISE (Mean Integrated Squared Error - Erro Quadrado Integrado Médio) no momento de testar o modelo com o tradicional método de validação cruzada de k-dobras. Ressalvas são feitas quando as séries não possuem os tamanhos adequados, mas a quebra estrutural do processo de difusão da taxa de juros brasileira, a partir do ano 2006, obriga à redução do tamanho das séries ao custo de reduzir o poder preditivo do modelo. A quebra estrutural representa um processo de amadurecimento do mercado brasileiro que provoca em grande medida o desempenho insatisfatório do estimador proposto.
Resumo:
Estudos sobre os determinantes da estrutura a termo de taxa de juros brasileira são recentes. Um melhor entendimento sobre os determinantes da mesma é importante, entre outras razões, para política econômica. Existem duas visões extremas sobre estrutura a termo. A primeira argumenta que as taxas de longo é igual a uma média ponderada das taxas de curto mais um prêmio por maturidade devido a agentes que arbitrassem tal diferença. A segunda visão argumenta que os agentes não teriam incentivos para arbitrar a curva de juros pois teria preferência por maturidades específicas e logo a curva de longo e curto estariam desconectadas. O presente trabalho testa as proposições Greenwood e Vayanos (2008) obtidas a partir de um modelo em que as duas visões acima são reconciliadas. No modelo de Greenwood e Vayanos (2008) a alteração da maturidade da dívida do governo afeta toda a estrutura a termo e tal efeito é mais intenso para títulos mais longos. Com esse intuito, testou-se se, para dados brasileiros, o prazo médio dos títulos afetava tanto o excesso de retorno como os spreads na curva. Os resultados indicaram que o prazo médio afeta o spread e o excesso de retorno, com efeito mais intenso no segundo.
Resumo:
Este trabalho propõe a implementação de um modelo de três fatores em que os movimentos da Estrutura a Termo da Taxa de Juros são determinados por variáveis macroeconômicas observáveis. Desenvolvi o estudo com base na metodologia elaborada por Huse (2007), que propôs um novo modelo baseado nos estudos de Nelson e Siegel (1987) e Diebold e Li (2006). Os fatores utilizados foram: taxa de câmbio em reais por dólar, expectativa da taxa de inflação para daqui a doze meses, spread do Credit Default Swap com maturidade de cinco anos, taxa de desemprego, índice de commodities e expectativa da taxa SELIC para o final do ano corrente. O modelo foi capaz de explicar 94% das mudanças na estrutura a termo da taxa de juros. Aumentos na taxa de câmbio, na expectativa de taxa de inflação, no spread do Credit Default Swap, na taxa de desemprego e na expectativa da taxa SELIC estão diretamente relacionadas com aumento na curva de juros com zero cupom. Variações no preço das commodities estão inversamente relacionadas com variações na Estrutura a Termo da Taxa de Juros.
Resumo:
Este trabalho tem o objetivo de testar a qualidade preditiva do Modelo Vasicek de dois fatores acoplado ao Filtro de Kalman. Aplicado a uma estratégia de investimento, incluímos um critério de Stop Loss nos períodos que o modelo não responde de forma satisfatória ao movimento das taxas de juros. Utilizando contratos futuros de DI disponíveis na BMFBovespa entre 01 de março de 2007 a 30 de maio de 2014, as simulações foram realizadas em diferentes momentos de mercado, verificando qual a melhor janela para obtenção dos parâmetros dos modelos, e por quanto tempo esses parâmetros estimam de maneira ótima o comportamento das taxas de juros. Os resultados foram comparados com os obtidos pelo Modelo Vetor-auto regressivo de ordem 1, e constatou-se que o Filtro de Kalman aplicado ao Modelo Vasicek de dois fatores não é o mais indicado para estudos relacionados a previsão das taxas de juros. As limitações desse modelo o restringe em conseguir estimar toda a curva de juros de uma só vez denegrindo seus resultados.
Resumo:
A tradicional representação da estrutura a termo das taxas de juros em três fatores latentes (nível, inclinação e curvatura) teve sua formulação original desenvolvida por Charles R. Nelson e Andrew F. Siegel em 1987. Desde então, diversas aplicações vêm sendo desenvolvidas por acadêmicos e profissionais de mercado tendo como base esta classe de modelos, sobretudo com a intenção de antecipar movimentos nas curvas de juros. Ao mesmo tempo, estudos recentes como os de Diebold, Piazzesi e Rudebusch (2010), Diebold, Rudebusch e Aruoba (2006), Pooter, Ravazallo e van Dijk (2010) e Li, Niu e Zeng (2012) sugerem que a incorporação de informação macroeconômica aos modelos da ETTJ pode proporcionar um maior poder preditivo. Neste trabalho, a versão dinâmica do modelo Nelson-Siegel, conforme proposta por Diebold e Li (2006), foi comparada a um modelo análogo, em que são incluídas variáveis exógenas macroeconômicas. Em paralelo, foram testados dois métodos diferentes para a estimação dos parâmetros: a tradicional abordagem em dois passos (Two-Step DNS), e a estimação com o Filtro de Kalman Estendido, que permite que os parâmetros sejam estimados recursivamente, a cada vez que uma nova informação é adicionada ao sistema. Em relação aos modelos testados, os resultados encontrados mostram-se pouco conclusivos, apontando uma melhora apenas marginal nas estimativas dentro e fora da amostra quando as variáveis exógenas são incluídas. Já a utilização do Filtro de Kalman Estendido mostrou resultados mais consistentes quando comparados ao método em dois passos para praticamente todos os horizontes de tempo estudados.
Resumo:
Com base nos dados históricos do bid-ask spread dos ativos do mercado futuro de taxas de juros no Brasil, este estudo analisa se há evidência de presença de investidores com informação superior no período que antecede o COPOM. A partir de testes do Componente de Assimetria de Informação (CAI) medidos às vésperas de 21 reuniões do COPOM, realizadas entre outubro de 2011 e maio de 2014, encontramos evidências que: o CAI apresenta patamar superior para períodos que antecedem reunião cuja decisão não foi bem antecipada pelo mercado, sugerindo a presença de investidores com informação superior nessas circunstâncias. Contudo, não encontramos evidência de que haja qualquer relação entre o comportamento do CAI com o volume de negócios, nem que haja relação entre o comportamento do CAI com o posicionamento de determinados players, especificamente Pessoas Físicas e Pessoas Jurídicas Não Financeiras. Por outro lado, encontramos evidência de expressiva redução na CAI no dia seguinte ao COPOM, sinalizando a eficácia da comunicação do BC na ancoragem de expectativas e reforçando a reunião como evento propício para atuação de players com informação superior. Os resultados se tornam ainda mais relevantes quando se considera o contexto do período analisado, marcado pela presença de intensa volatilidade na SELIC e por uma investigação da CVM sobre insider trading no mercado de juros.
Resumo:
Este trabalho demonstra como podemos usar opções sobre o Índice de Taxa Média de Depósitos Interfinanceiros de Um Dia (IDI) para extrair a função densidade de probabilidade (FDP) para os próximos passos do Comitê de Política Monetária (COPOM). Como a decisão do COPOM tem uma natureza discreta, podemos estimar a FDP usando Mínimo Quadrados Ordinários (MQO). Esta técnica permite incluir restrições sobre as probabilidades estimadas. As probabilidades calculadas usando opções sobre IDI são então comparadas com as probabilidades encontradas usando o Futuro de DI e as probabilidades calculadas através de pesquisas.
Resumo:
Este trabalho procura identificar quais variáveis são as mais relevantes para previsão da taxa de câmbio real do Brasil e analisar a robustez dessas previsões. Para isso foram realizados testes de cointegração de Johansen em 13 variáveis macroeconômicas. O banco de dados utilizado são séries trimestrais e compreende o período de 1970 a 2014 e os testes foram realizados sobre as séries combinadas dois a dois, três a três e quatro a quatro. Por meio desse método, encontramos nove grupos que cointegram entre si. Utilizando esses grupos, são feitas previsões fora da amostra com a partir das últimas 60 observações. A qualidade das previsões foi avaliada por meio dos testes de Erro Quadrático Médio, teste de Diebold-Mariano e, além disso, foi utilizado um modelo de passeio aleatório do câmbio real como benchmark para o procedimento de Hansen. Todos os testes mostram que, à medida que se aumenta o horizonte de projeção, o passeio aleatório perde poder preditivo e a maioria dos modelos são mais informativos sobre o futuro da o câmbio real efetivo. O horizonte é de três a quatro anos à frente. No caso do teste de Hansen, o passeio aleatório é completamente eliminado do grupo final de modelos, mostrando que é possível fazer previsões superiores ao passeio aleatório.