234 resultados para Estrutura a Termo das Taxas de Juros
Resumo:
O mercado bancário brasileiro aparenta se organizar sob a forma de oligopólio, sobretudo por conta da presença de um número reduzido de grandes instituições. A teoria microeconômica nos sugere, no entanto, que mercado oligopolizado não é sinônimo de ausência de competição. A partir disso, conclui-se que não é evidente que os bancos privados domésticos não compitam entre si (claro, tampouco o contrário é evidente). Neste trabalho analisamos a evolução do grau de competitividade da indústria bancária brasileira, entre janeiro de 2001 e dezembro de 2012, utilizando a estatística-H de Panzar & Rosse. A mensuração da competição para a amostra completa continuou a indicar que os bancos brasileiros operam em regime de concorrência monopolística. Não obstante, a evolução trimestral da estatística-H aponta para períodos de significativa redução da competitividade na indústria bancária brasileira, que coincidem com momentos importantes em termos de fusões e aquisições dentro deste setor. Como complemento às conclusões obtidas através do cálculo da estatística-H, e à luz da recente intensiva do governo de “forçar” uma queda do spread bancário via instituições públicas, foram executados testes de causalidade (de Granger) entre as taxas de juros cobradas pelos bancos públicos e privados. Os resultados indicam que as instituições bancárias aparentemente levam em conta, dentre outros fatores, as decisões dos seus concorrentes na hora de definir as taxas de juros que serão cobradas, sugerindo que a estratégia do governo pode contribuir para a continuidade do processo de convergência do spread bancário para patamares internacionais.
Resumo:
Modelos de predição baseados em estimações não-paramétricas continuam em desenvolvimento e têm permeado a comunidade quantitativa. Sua principal característica é que não consideram a priori distribuições de probabilidade conhecidas, mas permitem que os dados passados sirvam de base para a construção das próprias distribuições. Implementamos para o mercado brasileiro os estimadores agrupados não-paramétricos de Sam e Jiang (2009) para as funções de drift e de difusão do processo estocástico da taxa de juros instantânea, por meio do uso de séries de taxas de juros de diferentes maturidades fornecidas pelos contratos futuros de depósitos interfinanceiros de um dia (DI1). Os estimadores foram construídos sob a perspectiva da estimação por núcleos (kernels), que requer para a sua otimização um formato específico da função-núcleo. Neste trabalho, foi usado o núcleo de Epanechnikov, e um parâmetro de suavizamento (largura de banda), o qual é fundamental para encontrar a função de densidade de probabilidade ótima que forneça a estimação mais eficiente em termos do MISE (Mean Integrated Squared Error - Erro Quadrado Integrado Médio) no momento de testar o modelo com o tradicional método de validação cruzada de k-dobras. Ressalvas são feitas quando as séries não possuem os tamanhos adequados, mas a quebra estrutural do processo de difusão da taxa de juros brasileira, a partir do ano 2006, obriga à redução do tamanho das séries ao custo de reduzir o poder preditivo do modelo. A quebra estrutural representa um processo de amadurecimento do mercado brasileiro que provoca em grande medida o desempenho insatisfatório do estimador proposto.
Resumo:
Neste trabalho, propusemos um modelo DSGE que busca responder algumas questões sobre políticas de afrouxamento monetário (Quantitative Easing - QE) recentemente implementadas em resposta à crise de 2008. Desenvolvemos um modelo DSGE com agentes heterogêneos e preferred-habitat nas compras de títulos do governo. Nosso modelo permite o estudo da otimalidade da compra de portfolio (em termos de duration dos títulos) para os bancos centrais quando estão implementando a política. Além disso, a estrutura heterogênea nos permite olhar para distribuição de renda provocada pelas compras de títulos. Nossos resultados preliminares evidenciam o efeito distributivo do QE. No entanto, nosso modelo expandido apresentou alguns problemas de estabilidade.
Resumo:
As diretrizes de política monetária são definidas com base em resultados dos indicadores macroeconômicos divulgados ao mercado periodicamente. Os agentes deste mercado respondem rapidamente às alterações de cenário, com o objetivo de obter lucro ou evitar perdas financeiras expressivas. Com este motivacional, a proposta deste trabalho é avaliar como reage o mercado futuro de juros diante da divulgação de surpresas em determinados indicadores macroeconômicos, propondo um indicador de surpresa agregado para prever os impactos causados. Através dos dados extraídos da Bloomberg e da BM&F Bovespa, foi construída uma base de dados simplificada pela adoção de premissas para mensuração do impacto das surpresas divulgadas no preço do DI Futuro. A padronização dos parâmetros, a realização dos testes de média e as regressões otimizadas pelo método OLS possibilitaram ponderar os indicadores econômicos de acordo com a oscilação que os mesmos causam a este mercado. Por fim, o teste de comparação mostrou que o indicador de surpresa proposto foi mais eficiente nas previsões da reação do mercado do que um indicador que pondere de forma igualitária todos os indicadores macroeconômicos.
Resumo:
Com base nos dados históricos do bid-ask spread dos ativos do mercado futuro de taxas de juros no Brasil, este estudo analisa se há evidência de presença de investidores com informação superior no período que antecede o COPOM. A partir de testes do Componente de Assimetria de Informação (CAI) medidos às vésperas de 21 reuniões do COPOM, realizadas entre outubro de 2011 e maio de 2014, encontramos evidências que: o CAI apresenta patamar superior para períodos que antecedem reunião cuja decisão não foi bem antecipada pelo mercado, sugerindo a presença de investidores com informação superior nessas circunstâncias. Contudo, não encontramos evidência de que haja qualquer relação entre o comportamento do CAI com o volume de negócios, nem que haja relação entre o comportamento do CAI com o posicionamento de determinados players, especificamente Pessoas Físicas e Pessoas Jurídicas Não Financeiras. Por outro lado, encontramos evidência de expressiva redução na CAI no dia seguinte ao COPOM, sinalizando a eficácia da comunicação do BC na ancoragem de expectativas e reforçando a reunião como evento propício para atuação de players com informação superior. Os resultados se tornam ainda mais relevantes quando se considera o contexto do período analisado, marcado pela presença de intensa volatilidade na SELIC e por uma investigação da CVM sobre insider trading no mercado de juros.
Resumo:
Medimos a validade da paridade descoberta de juros – PDJ - para o mercado brasileiro no período de janeiro de 2010 a julho de 2014. Testamos a equação clássica da PDJ usando o Método dos Mínimos Quadrados Ordinários. Após a estimação dos parâmetros, aplicamos o Teste de Wald e verificamos que a paridade descoberta de juros não foi validada. Estendemos a equação tradicional da PDJ para uma especificação alternativa que captura medidas de risco Brasil e de alteração na liquidez internacional. Especificamente, acrescentamos três variáveis de controle: duas variáveis dummy que capturam condições de liquidez externa e o índice de commoditie CRB, que captura o risco Brasil. Com a especificação alternativa, a hipótese de que os retornos das taxas de juros em Real, dolarizadas, são iguais aos retornos da taxas de juros contratadas em dólares, ambas sujeitas ao risco Brasil, não foi rejeitada. Em complemento à análise das taxas representativas do mercado brasileiro, procurou-se avaliar a predominância da PDJ nas operações de swap cambial realizadas pela Vale S.A.. Para tanto, a série de taxa de juros em dólares do mercado brasileiro foi substituída pela taxa em dólar dos swaps contratados pela Vale. Os resultados encontrados demonstram que, quando comparado ao comportamento do mercado, as taxas em dólares da VALE são mais sensíveis às variações das taxas em Reais.
Resumo:
Este trabalho demonstra como podemos usar opções sobre o Índice de Taxa Média de Depósitos Interfinanceiros de Um Dia (IDI) para extrair a função densidade de probabilidade (FDP) para os próximos passos do Comitê de Política Monetária (COPOM). Como a decisão do COPOM tem uma natureza discreta, podemos estimar a FDP usando Mínimo Quadrados Ordinários (MQO). Esta técnica permite incluir restrições sobre as probabilidades estimadas. As probabilidades calculadas usando opções sobre IDI são então comparadas com as probabilidades encontradas usando o Futuro de DI e as probabilidades calculadas através de pesquisas.
Resumo:
A presente dissertação tem como objetivo apresentar dois importantes modelos usados na análise de risco. Essa análise culmina em uma aplicação empírica para cada um deles. Apresenta-se primeiro o modelo Nelson-Siegel dinâmico, que estima a curva de juros usando um modelo paramétrico exponencial parcimonioso. É citada a referência criadora dessa abordagem, que é Nelson & Siegel (1987), passa-se pela apresentação da mais importante abordagem moderna que é a de Diebold & Li (2006), que é quem cria a abordagem dinâmica do modelo Nelson-Siegel, e que é inspiradora de diversas extensões. Muitas dessas extensões também são apresentadas aqui. Na parte empírica, usando dados da taxa a termo americana de Janeiro de 2004 a Março de 2015, estimam-se os modelos Nelson-Siegel dinâmico e de Svensson e comparam-se os resultados numa janela móvel de 12 meses e comparamos seus desempenhos com aqueles de um passeio aleatório. Em seguida, são apresentados os modelos ARCH e GARCH, citando as obras originais de Engle (1982) e Bolleslev (1986) respectivamente, discutem-se características destes modelos e apresentam-se algumas extensões ao modelo GARCH, incluindo aí alguns modelos GARCH multivariados. Passa-se então por uma rápida apresentação do conceito de VaR (Value at Risk), que será o objetivo da parte empírica. Nesta, usando dados de 02 de Janeiro de 2004 até 25 de Fevereiro de 2015, são feitas uma estimação da variância de um portfólio usando os modelos GARCH, GJR-GARCH e EGARCH e uma previsão do VaR do portfólio a partir da estimação feita anteriormente. Por fim, são apresentados alguns trabalhos que usam os dois modelos conjuntamente, ou seja, que consideram que as taxas ou os fatores que as podem explicam possuem variância variante no tempo.
Resumo:
Neste trabalho, é feita uma análise da política monetária brasileira no período de 2000 a 2008 com o intuito de entender o quão independente ela foi em relação às ações do Federal Reserve. Esse entendimento é importante devido à iminente movimentação de subida de juros nos EUA, ainda sem data precisa para ocorrer, mas que pode trazer consequências no câmbio e nos juros domésticos em um momento em que já há um aperto monetário em curso no país. Além disso, os efeitos de outras variáveis ligadas a situações externas como eventos de crise, câmbio e risco país nos juros brasileiros também são levados em consideração. Os resultados indicam que, no período de estudo, a política monetária nacional foi marcada por uma maior autonomia em relação às flutuações nos juros americanos, fato que pode ter sido auxiliado pela adoção em 1999 do câmbio flutuante.
Resumo:
A situação conhecida como “Zero Lower Bound” ocorre quando a taxa de juros de curto prazo é muito baixa e os bancos centrais perdem seu principal instrumento de política monetária para estimular a atividade econômica. Nestas condições, políticas não convencionais são utilizadas como a expansão monetária (QE) e comunicados ao mercado sobre as intenções do banco central em um horizonte maior de tempo. O Japão enfrenta esta situação desde a década de 90 e tem utilizado largamente ambas. Após uma revisão da literatura a respeito, este trabalho investiga a eficácia dos QEs praticados pelo BOJ com os dados disponíveis através de autoregressão de vetores e conclui que não há evidência estatística sobre os resultados desejados. Dada a inabilidade de melhorar o crescimento econômico com inflação dentro de uma meta, sugere que trabalhos que conclusões robustas estatisticamente devem estar sujeitos à crítica de Lucas