985 resultados para Taxas de juros futuras
Resumo:
We evaluate the forecasting performance of a number of systems models of US shortand long-term interest rates. Non-linearities, induding asymmetries in the adjustment to equilibrium, are shown to result in more accurate short horizon forecasts. We find that both long and short rates respond to disequilibria in the spread in certain circumstances, which would not be evident from linear representations or from single-equation analyses of the short-term interest rate.
Resumo:
A concessão de crédito bancário demanda esforço do agente credor que se dedica de forma ativa na obtenção de informações relativas à firma, até então não disponíveis ao público. Dado o hold up power do banco detentor de informações não públicas, este deveria poder cobrar spreads mais altos do que seria justificado unicamente pelo risco de crédito do tomador ao longo dos ciclos econômicos, sendo tal dinâmica mais acentuada em cenários de crise. Testa-se aqui esta hipótese e para isso são comparadas as variações do spread bancário médio da dívida de empresas brasileiras com diferentes composições de endividamento, levando-se em conta sua dependência do crédito bancário. Foram criadas: i) uma variável dummy identificando o acesso ao crédito direto para que se pudesse avaliar o seu efeito nos spreads; ii) outra dummy identificando cenários de recessão que permite avaliar o impacto do ciclo econômico nos spreads e iii) dummy interação que viabilizou o estudo do efeito combinado das duas variáveis anteriores. Fatores de risco individuais da firma, tais como tamanho, nível de alavancagem e sua natureza em termos de restrição a crédito foram controlados na análise. Os dados foram organizados em painel com os quais foi montada regressão linear valendo-se da técnica Estimated Generalized Least Squares (EGLS), alternativa ao Least Squares (LS) clássico. Encontrou-se evidência estatística de que em cenários de recessão econômica o acesso ao mercado direto de crédito traz efeito benéfico sobre os spreads bancários pagos pelas firmas.
Resumo:
This paper presents a small open economy model with capital accumulation and without commitment to repay debt. The optimal debt contract specifies debt relief following bad shocks and debt increase following good shocks and brings first order benefits if the country's borrowing constraint is binding. Countries with less capital (with higher marginal productivity of capital) have a higher debt-GDP ratio, are more likely to default on uncontingent bonds, require higher debt relief after bad shocks and pay a higher spread over treasury. Debt relief prescribed by the optimal contract following the interest rate hikes of 1980-81 is more than half of the debt forgiveness obtained by the main Latin American countries through the Brady agreements.
Resumo:
Este estudo investiga o poder preditivo fora da amostra, um mês à frente, de um modelo baseado na regra de Taylor para previsão de taxas de câmbio. Revisamos trabalhos relevantes que concluem que modelos macroeconômicos podem explicar a taxa de câmbio de curto prazo. Também apresentamos estudos que são céticos em relação à capacidade de variáveis macroeconômicas preverem as variações cambiais. Para contribuir com o tema, este trabalho apresenta sua própria evidência através da implementação do modelo que demonstrou o melhor resultado preditivo descrito por Molodtsova e Papell (2009), o “symmetric Taylor rule model with heterogeneous coefficients, smoothing, and a constant”. Para isso, utilizamos uma amostra de 14 moedas em relação ao dólar norte-americano que permitiu a geração de previsões mensais fora da amostra de janeiro de 2000 até março de 2014. Assim como o critério adotado por Galimberti e Moura (2012), focamos em países que adotaram o regime de câmbio flutuante e metas de inflação, porém escolhemos moedas de países desenvolvidos e em desenvolvimento. Os resultados da nossa pesquisa corroboram o estudo de Rogoff e Stavrakeva (2008), ao constatar que a conclusão da previsibilidade da taxa de câmbio depende do teste estatístico adotado, sendo necessária a adoção de testes robustos e rigorosos para adequada avaliação do modelo. Após constatar não ser possível afirmar que o modelo implementado provém previsões mais precisas do que as de um passeio aleatório, avaliamos se, pelo menos, o modelo é capaz de gerar previsões “racionais”, ou “consistentes”. Para isso, usamos o arcabouço teórico e instrumental definido e implementado por Cheung e Chinn (1998) e concluímos que as previsões oriundas do modelo de regra de Taylor são “inconsistentes”. Finalmente, realizamos testes de causalidade de Granger com o intuito de verificar se os valores defasados dos retornos previstos pelo modelo estrutural explicam os valores contemporâneos observados. Apuramos que o modelo fundamental é incapaz de antecipar os retornos realizados.
Resumo:
Este trabalho visa comparar, estatisticamente, o desempenho de duas estratégias de imunização de carteiras de renda fixa, que são recalibradas periodicamente. A primeira estratégia, duração, considera alterações no nível da estrutura a termo da taxa de juros brasileira, enquanto a abordagem alternativa tem como objetivo imunizar o portfólio contra oscilações em nível, inclinação e curvatura. Primeiro, estimamos a curva de juros a partir do modelo polinomial de Nelson & Siegel (1987) e Diebold & Li (2006). Segundo, imunizamos a carteira de renda fixa adotando o conceito de construção de hedge de Litterman & Scheinkman (1991), porém assumindo que as taxas de juros não são observadas. O portfólio imunizado pela estratégia alternativa apresenta empiricamente um desempenho estatisticamente superior ao procedimento de duração. Mostramos também que a frequência ótima de recalibragem é mensal na análise empírica.
Resumo:
Utilizando microdados da Sondagem do Consumidor do FGV/IBRE, investigamos se os consumidores brasileiros formam expectativas consistentes sobre a regra de Taylor e se essa consistência se altera de acordo com a condução da política monetária feita pelo Banco Central do Brasil. A partir de uma análise semelhante a de Carvalho e Nechio (2014), encontramos que o público consegue capturar corretamente a relação entre juros e inflação no arcabouço da regra, mas não a relação entre juros e desemprego, provavelmente por causa do regime de política monetária adotado no país e por particularidades dos dados. Além disso, encontramos que a consistência das expectativas sofre quedas significativas nos períodos em que o banco central desvia da regra de Taylor, indicando que uma maior tolerância a choques inflacionários por parte da autoridade monetária pode prejudicar a coordenação das expectativas da sociedade.
Resumo:
A presente dissertação tem como objetivo apresentar dois importantes modelos usados na análise de risco. Essa análise culmina em uma aplicação empírica para cada um deles. Apresenta-se primeiro o modelo Nelson-Siegel dinâmico, que estima a curva de juros usando um modelo paramétrico exponencial parcimonioso. É citada a referência criadora dessa abordagem, que é Nelson & Siegel (1987), passa-se pela apresentação da mais importante abordagem moderna que é a de Diebold & Li (2006), que é quem cria a abordagem dinâmica do modelo Nelson-Siegel, e que é inspiradora de diversas extensões. Muitas dessas extensões também são apresentadas aqui. Na parte empírica, usando dados da taxa a termo americana de Janeiro de 2004 a Março de 2015, estimam-se os modelos Nelson-Siegel dinâmico e de Svensson e comparam-se os resultados numa janela móvel de 12 meses e comparamos seus desempenhos com aqueles de um passeio aleatório. Em seguida, são apresentados os modelos ARCH e GARCH, citando as obras originais de Engle (1982) e Bolleslev (1986) respectivamente, discutem-se características destes modelos e apresentam-se algumas extensões ao modelo GARCH, incluindo aí alguns modelos GARCH multivariados. Passa-se então por uma rápida apresentação do conceito de VaR (Value at Risk), que será o objetivo da parte empírica. Nesta, usando dados de 02 de Janeiro de 2004 até 25 de Fevereiro de 2015, são feitas uma estimação da variância de um portfólio usando os modelos GARCH, GJR-GARCH e EGARCH e uma previsão do VaR do portfólio a partir da estimação feita anteriormente. Por fim, são apresentados alguns trabalhos que usam os dois modelos conjuntamente, ou seja, que consideram que as taxas ou os fatores que as podem explicam possuem variância variante no tempo.
Resumo:
Recentemente as expectativas de inflação de mais longo prazo passaram a ficar desancoradas da meta. A fim de testar a perda de credibilidade no compromisso do Banco Central do Brasil de trazer a inflação para o centro da meta, inicialmente, recriamos indicadores de credibilidade para essa instituição e encontramos que esses índices estão em patamares relativamente baixos em termos históricos. Em seguida, calculamos a função de reação do Banco Central utilizando uma Regra de Taylor em janelas moveis de cinco anos no período 2005-2014 como uma tentativa de justificar essa queda da credibilidade nos últimos anos. Os resultados apontaram uma mudança mais acentuada na função de reação do Banco Central do Brasil a partir de 2013, em que a variável hiato do produto ganhou maior importância e o desvio da inflação em relação à meta perdeu significância. Essa mudança pode ter sido um dos principais geradores para a queda recente de credibilidade.
Resumo:
A alta taxa de litigância judicial envolvendo bancos e clientes afeta o funcionamento do Poder Judiciário bem como a disponibilidade do crédito e as taxas de juros de forma negativa, por contribuir para a insegurança jurídica no mercado de crédito. Este trabalho busca diagnosticar as causas dessa litigância e os seus efeitos, verificar se o ombudsman bancário pode ser um mecanismo adequado à solução de disputas no setor financeiro, contribuindo para diminuir a litigância judicial. Pretende, também, propor mudanças institucionais, por meio da regulação bancária, que estabeleçam o sistema de ombudsman setorial no Brasil, fixando incentivos e desestímulos, para que ele seja eficiente e apresente resultados mais céleres, em face da realidade brasileira.
Resumo:
Brazil is growing around 1% per capita a year from 1981; this means for a country that is supposed to catch up, quasi-stagnation. Four historical new facts explain why growth was so low after the Real Plan: the reduction of public savings, and three facts that reduce private investments: the end of the unlimited supply of labor, a very high interest rate, and the 1990 dismantling of the mechanism that neutralized the Dutch disease, which represented a major competitive disadvantage for the manufacturing industry. New-developmental theory offers an explanation and two solutions for the problem, but does not underestimate the political economy problems involved
Resumo:
This work aims to analyze the interaction and the effects of administered prices in the economy, through a DSGE model and the derivation of optimal monetary policies. The model used is a standard New Keynesian DSGE model of a closed economy with two sectors companies. In the first sector, free prices, there is a continuum of firms, and in the second sector of administered prices, there is a single firm. In addition, the model has positive trend inflation in the steady state. The model results suggest that price movements in any sector will impact on both sectors, for two reasons. Firstly, the price dispersion causes productivity to be lower. As the dispersion of prices is a change in the relative price of any sector, relative to general prices in the economy, when a movement in the price of a sector is not followed by another, their relative weights will change, leading to an impact on productivity in both sectors. Second, the path followed by the administered price sector is considered in future inflation expectations, which is used by companies in the free sector to adjust its optimal price. When this path leads to an expectation of higher inflation, the free sector companies will choose a higher mark-up to accommodate this expectation, thus leading to higher inflation trend when there is imperfect competition in the free sector. Finally, the analysis of optimal policies proved inconclusive, certainly indicating that there is influence of the adjustment model of administered prices in the definition of optimal monetary policy, but a quantitative study is needed to define the degree of impact.
Resumo:
A modelagem da estrutura a termo da taxa juros tem grande relevância para o mercado financeiro, isso se deve ao fato de ser utilizada na precificação de títulos de crédito e derivativos, ser componente fundamental nas políticas econômicas e auxiliar a criação de estratégias trading. A classe de modelos criada por Nelson-Siegel (1987), foi estendida por diversos autores e atualmente é largamente utilizada por diversos bancos centrais ao redor do mundo. Nesse trabalho utilizaremos a extensão proposta por Diebold e Li (2006) aplicada para o mercado brasileiro, os parâmetros serão calibrados através do Filtro de Kalman e do Filtro de Kalman Estendido, sendo que o último método permitirá estimar com dinamismo os quatros parâmetros do modelo. Como mencionado por Durbin e Koopman (2012), as fórmulas envolvidas no filtro de Kalman e em sua versão estendida não impõe condições de dimensão constante do vetor de observações. Partindo desse conceito, a implementação dos filtros foi feita de forma a possibilitar sua aplicação independentemente do número de observações da curva de juros em cada instante de tempo, dispensando a necessidade de interpolar os dados antes da calibração. Isso ajuda a refletir mais fielmente a realidade do mercado e relaxar as hipóteses assumidas ao interpolar previamente para obter vértices fixos. Também será testada uma nova proposta de adaptação do modelo de Nelson-Siegel, nela o parâmetro de nível será condicionado aos títulos terem vencimento antes ou depois da próxima reunião do Copom. O objetivo é comparar qualidade da predição entre os métodos, pontuando quais são as vantagens e desvantagens encontradas em cada um deles.
Resumo:
No Brasil, o mercado de crédito corporativo ainda é sub-aproveitado. A maioria dos participantes não exploram e não operam no mercado secundário, especialmente no caso de debêntures. Apesar disso, há inúmeras ferramentas que poderiam ajudar os participantes do mercado a analisar o risco de crédito e encorajá-los a operar esses riscos no mercado secundário. Essa dissertação introduz um modelo livre de arbitragem que extrai a Perda Esperada Neutra ao Risco Implícita nos preços de mercado. É uma forma reduzida do modelo proposto por Duffie and Singleton (1999) e modela a estrutura a termo das taxas de juros através de uma Função Constante por Partes. Através do modelo, foi possível analisar a Curva de Perda Esperada Neutra ao Risco Implícita através dos diferentes instrumentos de emissores corporativos brasileiros, utilizando Títulos de Dívida, Swaps de Crédito e Debêntures. Foi possível comparar as diferentes curvas e decidir, em cada caso analisado, qual a melhor alternativa para se tomar o risco de crédito da empresa, via Títulos de Dívida, Debêntures ou Swaps de Crédito.