155 resultados para Taxa a termo
Resumo:
Este trabalho é composto por três capítulos que se dedicam a discutir aspectos distintos a respeito do importante mercado de títulos corporativos norte-americano. No primeiro capítulo, “Mercado de Títulos Corporativos Norte-Americano: Evolução e Fatos Estilizados”, mostramos como se deu a evolução do mercado de crédito norte-americano nas últimas décadas no que diz respeito à sua relevância para a economia. Nesse estudo mostramos também as principais mudanças regulatórias que afetaram de forma relevante esse mercado nos últimos anos. Trabalhos recentes encontraram evidências de que mudanças regulatórias no mercado de títulos corporativos provocam redução dos spreads e diminuem a liquidez dos ativos de crédito. Finalmente, ilustramos nesse capítulo as principais correntes teóricas e alguns fatos estilizados a respeito de curvas de juros e de spreads de títulos corporativos. No segundo capítulo, “Fatores Latentes Globais e Idiossincráticos na Estrutura a Termo da Curva de Juros de Títulos Corporativos”, analisamos a maneira como fatores globais e idiossincráticos influenciam a estrutura a termo das curvas de juros de emissores corporativos norte-americanos para diferentes níveis de classificação de risco, setor de atividade e período de análise. Os resultados são inéditos, pois a metodologia utilizada nunca foi aplicada anteriormente para essa classe de ativos, e indicam que a influência dos componentes latentes globais nos fatores de nível é menor quanto pior a classificação de risco. Um segundo resultado importante é que as curvas de setores de atividade distintos como o financeiro e industrial são influenciadas de maneira distinta pelos fatores globais e idiossincráticos no que diz respeito aos componentes de nível e inclinação. No terceiro capítulo, “Estrutura a Termo da Curva de Spreads de Títulos Corporativos”, estudamos as variáveis que influenciaram os fatores de nível e inclinação das curvas de spreads corporativos nos Estados Unidos. O modelo estimado nesse estudo incorpora, ao contrário de estudos anteriores, fatores latentes das curvas de juros do tesouro e de spreads, variáveis macroeconômicas e setoriais. Concluímos que o componente de nível da curva de juros norte-americana afeta positivamente o nível dos spreads. Os resultados diferem da literatura tradicional, mas estão em linha com estudos recentes que controlam períodos de elevada volatilidade de ativos com quebras estruturais. Palavras-chave: Spreads; Classificação de risco; Curva de juros; Títulos corporativos
Resumo:
Este trabalho visa comparar, estatisticamente, o desempenho de duas estratégias de imunização de carteiras de renda fixa, que são recalibradas periodicamente. A primeira estratégia, duração, considera alterações no nível da estrutura a termo da taxa de juros brasileira, enquanto a abordagem alternativa tem como objetivo imunizar o portfólio contra oscilações em nível, inclinação e curvatura. Primeiro, estimamos a curva de juros a partir do modelo polinomial de Nelson & Siegel (1987) e Diebold & Li (2006). Segundo, imunizamos a carteira de renda fixa adotando o conceito de construção de hedge de Litterman & Scheinkman (1991), porém assumindo que as taxas de juros não são observadas. O portfólio imunizado pela estratégia alternativa apresenta empiricamente um desempenho estatisticamente superior ao procedimento de duração. Mostramos também que a frequência ótima de recalibragem é mensal na análise empírica.
Resumo:
Visando estudar as diferenças entre contratos futuros e contratos a termo no mercado cambial brasileiro, este trabalho foca no contrato de Dólar Futuro negociado na BM&FBOVESPA que, para vencimentos sem liquidez, é marcado a mercado pelo preço teórico dos contratos a termo. Uma simulação por Monte Carlo de uma carteira hedgeada contendo contratos de Dólar Futuro, DI Futuro e DDI Futuro mostra claramente que essa metodologia de marcação a mercado deveria ao menos ser revista
Resumo:
Este trabalho demonstra como podemos usar opções sobre o Índice de Taxa Média de Depósitos Interfinanceiros de Um Dia (IDI) para extrair a função densidade de probabilidade (FDP) para os próximos passos do Comitê de Política Monetária (COPOM). Como a decisão do COPOM tem uma natureza discreta, podemos estimar a FDP usando Mínimo Quadrados Ordinários (MQO). Esta técnica permite incluir restrições sobre as probabilidades estimadas. As probabilidades calculadas usando opções sobre IDI são então comparadas com as probabilidades encontradas usando o Futuro de DI e as probabilidades calculadas através de pesquisas.
Resumo:
Esta dissertação baseia-se na criação de uma taxa não inflacionária da capacidade utilizada (NIRCU) para economia brasileira, utilizando microdados da Sondagem da Indústria de Transformação e Índice de Preços ao Produtor Amplo – M (IPA-M), pesquisas desenvolvidas pela FGV/IBRE. Foram criadas três taxas: NIRCU Sondagem, NIRCU Coincidente e NIRCU Antecedente. A primeira utiliza apenas dados da sondagem e a ideia é verificar que não há pressão inflacionária quando as empresas informam para sondagem que não irão variar os seus preços para os próximos três meses e que o número de turnos trabalhado é igual à média do setor. Já as demais, cruzam as informações das empresas que respondem tanto a Sondagem da Indústria de Transformação quanto no IPA-M e verifica se as que informam que não irão alterar os seus preços nos próximos três meses se concretiza quando comparados às variações do índice. A diferença entre as duas últimas abordagens é que a primeira, NIRCU Coincidente, verifica no mesmo período e a outra, NIRCU Antecedente, no trimestre seguinte. A forma encontrada para verificar a eficácia dos indicadores em mensurar a existência de pressão inflacionária foi inserir os diferentes hiatos de produto das NIRCU no modelo de Curva de Phillips, usando a metodologia de Mínimos Quadrados Ordinários (MQO). De acordo com as estimativas, a NIRCU Antecedente foi a única das três que não apresentou um bom desempenho no resultado; as NIRCU Sondagem e Coincidente tiveram uma performance muita boa, principalmente a última. Ou seja, esses dois indicadores tiveram um resultado tão bom quanto as mais tradicionais medidas de hiato de produto.
Resumo:
Estudo da FGV-DAPP mostra que, com 90% do orçamento comprometido com aposentadorias, encargos financeiros e gastos obrigatórios, o governo tem um espaço limitado para cortes.
Resumo:
Este trabalho visa sistematizar um modelo para previsão e explicação dos movimentos de curto prazo da estrutura a termo de taxas de juros pré-fixada em reais do Brasil, baseado na relação dos movimentos em questão com os níveis e alterações que se processam nas variáveis macroeconômicas relevantes. A metodologia usada foi dividir o procedimento em duas etapas: Na primeira etapa, o modelo de Svensson (1994) é usado para ajustar a Estrutura a Termo de Taxas de Juros de cada data específica para obter os parâmetros daquela data. Isso é conseguido através da maximização da estatística R2 na regressão de mínimos quadrados, como sugerido no artigo original de Nelson e Siegel (1987). Então, as medianas dos dois parâmetros de decaimento utilizados são calculadas e mantidas arbitrariamente constantes para facilitar os cálculos da segunda etapa. Na segunda etapa, uma vez que os estimadores que melhor se ajustam às curvas de juros foram obtidos, outra regressão de MQO é realizada considerando os betas de Svensson dependentes de variáveis macroeconômicas de estado.
Resumo:
A taxa de desemprego no Brasil sofreu redução significativa do começo do século XXI até o fim do ano de 2014. No entanto, esta redução significativa não foi acompanhada do esperado crescimento econômico disposto na teoria. Desta forma, constata-se que embora a taxa de desemprego tenha se reduzido, não necessariamente as pessoas estavam trabalhando e produzindo. Procurará se entender os fatores que influenciaram esta trajetória de redução da taxa de desemprego por meio de influência na PEA e no número de admissões de empregados, que aproximaremos à oferta e à demanda por mão de obra. Ou seja, pretende-se verificar as variáveis que influenciaram uma possível redução da oferta de trabalho, assim como uma maior demanda por trabalho, resultantes em uma redução da taxa de desemprego. Serão consideradas variáveis de renda, de transferência de renda, de educação e de crescimento econômico na análise das influências da baixa taxa de desemprego. Com base em um modelo vetor de correção de erros (VEC) pretende-se identificar quais variáveis efetivamente afetaram o panorama do desemprego.
Resumo:
Dentro de um cenário de recessão econômica é razoável existir uma preocupação maior com o risco de crédito. Algumas variáveis macroeconômicas, como taxa de desemprego, taxa de juros e inflação, são apontadas como responsáveis por choques no sistema financeiro. Esses choques podem provocar efeitos adversos como aumento da inadimplência, provisionamentos de crédito e, num caso extremo, quebra de instituições financeiras. Este trabalho contribuiu na linha da economia comportamental e do risco de crédito, analisando uma possível reação da taxa de inadimplência sob um efeito de variações da taxa de desemprego brasileira. Os dados utilizados foram de inadimplência e taxa de desemprego de pessoas físicas de seis regiões metropolitanas do Brasil. Construímos modelos estatísticos em painel utilizando efeitos fixos. Realizamos também uma breve análise dos dados utilizando conceitos de séries temporais, aplicando funções de impulso resposta. E, no intuito de tornar o estudo mais robusto, analisamos também o efeito do choque da taxa de desemprego nas variáveis de inadimplência e atraso curto prazo do BACEN de forma comparativa. Nas metodologias aplicadas, os resultados nos mostraram uma baixa significância estatística ao utilizarmos a taxa de desemprego para responder a inadimplência. Já para explicar o atraso curto prazo, encontramos significância estatística.
Resumo:
Utilizando dados de mercado obtidos na BM&F Bovespa, este trabalho propõe uma possível variação do modelo Heath, Jarrow e Morton em sua forma discreta e multifatorial, com a introdução de jumps como forma de considerar o efeito das reuniões realizadas pelo Cômite de Políticas Monetárias (Copom). Através do uso da análise de componentes principais (PCA), é feita a calibração dos parâmetros do modelo, possibilitando a simulação da evolução da estrutura a termo de taxa de juros (ETTJ) da curva prefixada em reais via simulação de Monte Carlo (MCS). Com os cenários da curva simulada em vértices fixos (sintéticos), os resultados são comparados aos dados observados no mercado.
Resumo:
A modelagem da estrutura a termo da taxa juros tem grande relevância para o mercado financeiro, isso se deve ao fato de ser utilizada na precificação de títulos de crédito e derivativos, ser componente fundamental nas políticas econômicas e auxiliar a criação de estratégias trading. A classe de modelos criada por Nelson-Siegel (1987), foi estendida por diversos autores e atualmente é largamente utilizada por diversos bancos centrais ao redor do mundo. Nesse trabalho utilizaremos a extensão proposta por Diebold e Li (2006) aplicada para o mercado brasileiro, os parâmetros serão calibrados através do Filtro de Kalman e do Filtro de Kalman Estendido, sendo que o último método permitirá estimar com dinamismo os quatros parâmetros do modelo. Como mencionado por Durbin e Koopman (2012), as fórmulas envolvidas no filtro de Kalman e em sua versão estendida não impõe condições de dimensão constante do vetor de observações. Partindo desse conceito, a implementação dos filtros foi feita de forma a possibilitar sua aplicação independentemente do número de observações da curva de juros em cada instante de tempo, dispensando a necessidade de interpolar os dados antes da calibração. Isso ajuda a refletir mais fielmente a realidade do mercado e relaxar as hipóteses assumidas ao interpolar previamente para obter vértices fixos. Também será testada uma nova proposta de adaptação do modelo de Nelson-Siegel, nela o parâmetro de nível será condicionado aos títulos terem vencimento antes ou depois da próxima reunião do Copom. O objetivo é comparar qualidade da predição entre os métodos, pontuando quais são as vantagens e desvantagens encontradas em cada um deles.
Resumo:
Este trabalho procura identificar quais variáveis são as mais relevantes para previsão da taxa de câmbio real do Brasil e analisar a robustez dessas previsões. Para isso foram realizados testes de cointegração de Johansen em 13 variáveis macroeconômicas. O banco de dados utilizado são séries trimestrais e compreende o período de 1970 a 2014 e os testes foram realizados sobre as séries combinadas dois a dois, três a três e quatro a quatro. Por meio desse método, encontramos nove grupos que cointegram entre si. Utilizando esses grupos, são feitas previsões fora da amostra com a partir das últimas 60 observações. A qualidade das previsões foi avaliada por meio dos testes de Erro Quadrático Médio, teste de Diebold-Mariano e, além disso, foi utilizado um modelo de passeio aleatório do câmbio real como benchmark para o procedimento de Hansen. Todos os testes mostram que, à medida que se aumenta o horizonte de projeção, o passeio aleatório perde poder preditivo e a maioria dos modelos são mais informativos sobre o futuro da o câmbio real efetivo. O horizonte é de três a quatro anos à frente. No caso do teste de Hansen, o passeio aleatório é completamente eliminado do grupo final de modelos, mostrando que é possível fazer previsões superiores ao passeio aleatório.
Resumo:
Este trabalho procura identificar quais variáveis são as mais relevantes para previsão da taxa de câmbio real do Brasil e analisar a robustez dessas previsões. Para isso foram realizados testes de cointegração de Johansen em 13 variáveis macroeconômicas. O banco de dados utilizado são séries trimestrais e compreende o período de 1970 a 2014 e os testes foram realizados sobre as séries combinadas dois a dois, três a três e quatro a quatro. Por meio desse método, encontramos nove grupos que cointegram entre si. Utilizando esses grupos, são feitas previsões fora da amostra com a partir das últimas 60 observações. A qualidade das previsões foi avaliada por meio dos testes de Erro Quadrático Médio, teste de Diebold-Mariano e, além disso, foi utilizado um modelo de passeio aleatório do câmbio real como benchmark para o procedimento de Hansen. Todos os testes mostram que, à medida que se aumenta o horizonte de projeção, o passeio aleatório perde poder preditivo e a maioria dos modelos são mais informativos sobre o futuro da o câmbio real efetivo. O horizonte é de três a quatro anos à frente. No caso do teste de Hansen, o passeio aleatório é completamente eliminado do grupo final de modelos, mostrando que é possível fazer previsões superiores ao passeio aleatório.
Resumo:
A partir dos dados do Tribunal de Contas da União (TCU) que apontaram que, entre os anos de 2009 e 2013, a Agência Nacional de Energia Elétrica (ANEEL) arrecadou apenas 32,7% do total de multas administrativas aplicadas, passamos a questionar quais seriam as possíveis hipóteses que poderiam, de certa forma, ter influenciado nesse percentual. O próprio TCU chegou a apontar algumas hipóteses, entre elas, destacamos: recursos administrativos pendentes de julgamento, recursos pendentes no Poder Judiciário, falha no sistema de inscrição de inadimplentes no Cadastro Informativo de Créditos Não Quitados do Setor Público Federal (CADIN) e a celebração de Termos de Ajustamento de Conduta (TAC). O presente trabalho concentrou a análise apenas nessa última hipótese levantada, em razão da importância que esse instituto vem ganhando ao longo dos últimos anos. Visando testar a hipótese acima mencionada, realizamos uma pesquisa na Biblioteca Virtual da ANEEL e analisamos as decisões da diretoria da agência que julgaram os pedidos de celebração dos TACs entre os anos de 2011 e abril de 2015, tendo como objetivo identificar em que medida esses acordos celebrados com a agência impactaram na redução do valor das multas aplicadas.