980 resultados para Taxa de juros de equilíbrio
Resumo:
Este estudo investiga o poder preditivo fora da amostra, um mês à frente, de um modelo baseado na regra de Taylor para previsão de taxas de câmbio. Revisamos trabalhos relevantes que concluem que modelos macroeconômicos podem explicar a taxa de câmbio de curto prazo. Também apresentamos estudos que são céticos em relação à capacidade de variáveis macroeconômicas preverem as variações cambiais. Para contribuir com o tema, este trabalho apresenta sua própria evidência através da implementação do modelo que demonstrou o melhor resultado preditivo descrito por Molodtsova e Papell (2009), o “symmetric Taylor rule model with heterogeneous coefficients, smoothing, and a constant”. Para isso, utilizamos uma amostra de 14 moedas em relação ao dólar norte-americano que permitiu a geração de previsões mensais fora da amostra de janeiro de 2000 até março de 2014. Assim como o critério adotado por Galimberti e Moura (2012), focamos em países que adotaram o regime de câmbio flutuante e metas de inflação, porém escolhemos moedas de países desenvolvidos e em desenvolvimento. Os resultados da nossa pesquisa corroboram o estudo de Rogoff e Stavrakeva (2008), ao constatar que a conclusão da previsibilidade da taxa de câmbio depende do teste estatístico adotado, sendo necessária a adoção de testes robustos e rigorosos para adequada avaliação do modelo. Após constatar não ser possível afirmar que o modelo implementado provém previsões mais precisas do que as de um passeio aleatório, avaliamos se, pelo menos, o modelo é capaz de gerar previsões “racionais”, ou “consistentes”. Para isso, usamos o arcabouço teórico e instrumental definido e implementado por Cheung e Chinn (1998) e concluímos que as previsões oriundas do modelo de regra de Taylor são “inconsistentes”. Finalmente, realizamos testes de causalidade de Granger com o intuito de verificar se os valores defasados dos retornos previstos pelo modelo estrutural explicam os valores contemporâneos observados. Apuramos que o modelo fundamental é incapaz de antecipar os retornos realizados.
Resumo:
Neste texto é apresentado o relatório final do projeto 561/06, “Análise Econômica da Reforma Fiscal do PIS-COFINS: Integrando um modelo de micro-simulação com um Modelo de Equilíbrio Geral Computável”. Essencialmente trata-se de uma extensão metodológica do projeto 461/04, visando um aprimoramento da quantificação dos impactos sobre indicadores de bem estar, particularmente pobreza e desigualdade. Além do modelo de Equilíbrio Geral, busca-se uma integração com um modelo de micro-simulação, baseado nas pesquisas domiciliares com o intuito de aprofundar e identificar o impacto que a reforma fiscal teve sobre indivíduos e famílias brasileiras, fazendo com estes sejam identificados com uma precisão muito maior, na medida em que a pesquisa anterior permitia apenas a identificação de um agrupamento representativo da população brasileira, enquanto esta permite a integração no modelo das amostras individuais presentes na PNAD. Os resultados apresentados são sensíveis a nova metodologia utilizada.
Resumo:
Neste artigo é apresentada uma avaliação dos impacto da reforma tributária do PIS/PASEP e da COFINS, que passaram a ser coletados através de dois regimes associados aos fluxos domésticos (cumulativo e não cumulativo - misto) e a incidir sobre importações de bens e serviços. A metodologia adotada utiliza um modelo de Equilíbrio Geral Computável (CGE), adaptado para as novas características do sistema fiscal e especificado para simular os impactos sobre indicadores de bem-estar no Brasil. Estes impactos foram avaliados em duas etapas: a mudança do regime cumulativo para o novo regime tributário e a reforma completa. Os resultados mostram que esta reforma teria provocado deterioração dos indicadores macroeconômicos, de mercado de trabalho e de bem-estar.
Resumo:
A crise financeira iniciada em 2007 gerou uma grande recessão nos Estados Unidos e abalou a economia global com consequências nefastas para o crescimento e a taxa de desemprego em vários países. Os principais Bancos Centrais do mundo passaram a dar maior importância para políticas que garantam a estabilidade financeira. É consensual a necessidade de avanços regulatórios e de medidas prudenciais capazes de reduzir os riscos financeiros, mas existem divergências quanto ao uso da taxa básica de juros, não só como um instrumento necessário para garantir a estabilidade de preços, como também para garantir a estabilidade financeira e evitar a formação de bolhas. O Brasil viveu nos últimos vinte anos um período de grande expansão do mercado de crédito, fruto das estabilidades econômica e financeira. O Banco Central do Brasil teve atuação exitosa durante a crise e demonstrou habilidade em utilizar instrumentos de política monetária e medidas macroprudenciais de forma complementar. Nos últimos quatro anos, as condições macroeconômicas se deterioraram e o Brasil atravessou um período de crescimento baixo, inflação próxima ao teto da meta e aumento do endividamento. Enquanto as políticas macroprudenciais foram capazes de evitar a formação de bolhas, as políticas fiscal e monetária foram demasiadamente expansionistas. Neste período houve um enfraquecimento na função-reação do Banco Central, que deixou de respeitar o princípio de Taylor.
Resumo:
Esta dissertação baseia-se na criação de uma taxa não inflacionária da capacidade utilizada (NIRCU) para economia brasileira, utilizando microdados da Sondagem da Indústria de Transformação e Índice de Preços ao Produtor Amplo – M (IPA-M), pesquisas desenvolvidas pela FGV/IBRE. Foram criadas três taxas: NIRCU Sondagem, NIRCU Coincidente e NIRCU Antecedente. A primeira utiliza apenas dados da sondagem e a ideia é verificar que não há pressão inflacionária quando as empresas informam para sondagem que não irão variar os seus preços para os próximos três meses e que o número de turnos trabalhado é igual à média do setor. Já as demais, cruzam as informações das empresas que respondem tanto a Sondagem da Indústria de Transformação quanto no IPA-M e verifica se as que informam que não irão alterar os seus preços nos próximos três meses se concretiza quando comparados às variações do índice. A diferença entre as duas últimas abordagens é que a primeira, NIRCU Coincidente, verifica no mesmo período e a outra, NIRCU Antecedente, no trimestre seguinte. A forma encontrada para verificar a eficácia dos indicadores em mensurar a existência de pressão inflacionária foi inserir os diferentes hiatos de produto das NIRCU no modelo de Curva de Phillips, usando a metodologia de Mínimos Quadrados Ordinários (MQO). De acordo com as estimativas, a NIRCU Antecedente foi a única das três que não apresentou um bom desempenho no resultado; as NIRCU Sondagem e Coincidente tiveram uma performance muita boa, principalmente a última. Ou seja, esses dois indicadores tiveram um resultado tão bom quanto as mais tradicionais medidas de hiato de produto.
Resumo:
Estudo da FGV-DAPP mostra que, com 90% do orçamento comprometido com aposentadorias, encargos financeiros e gastos obrigatórios, o governo tem um espaço limitado para cortes.
Resumo:
A presente dissertação tem como objetivo apresentar dois importantes modelos usados na análise de risco. Essa análise culmina em uma aplicação empírica para cada um deles. Apresenta-se primeiro o modelo Nelson-Siegel dinâmico, que estima a curva de juros usando um modelo paramétrico exponencial parcimonioso. É citada a referência criadora dessa abordagem, que é Nelson & Siegel (1987), passa-se pela apresentação da mais importante abordagem moderna que é a de Diebold & Li (2006), que é quem cria a abordagem dinâmica do modelo Nelson-Siegel, e que é inspiradora de diversas extensões. Muitas dessas extensões também são apresentadas aqui. Na parte empírica, usando dados da taxa a termo americana de Janeiro de 2004 a Março de 2015, estimam-se os modelos Nelson-Siegel dinâmico e de Svensson e comparam-se os resultados numa janela móvel de 12 meses e comparamos seus desempenhos com aqueles de um passeio aleatório. Em seguida, são apresentados os modelos ARCH e GARCH, citando as obras originais de Engle (1982) e Bolleslev (1986) respectivamente, discutem-se características destes modelos e apresentam-se algumas extensões ao modelo GARCH, incluindo aí alguns modelos GARCH multivariados. Passa-se então por uma rápida apresentação do conceito de VaR (Value at Risk), que será o objetivo da parte empírica. Nesta, usando dados de 02 de Janeiro de 2004 até 25 de Fevereiro de 2015, são feitas uma estimação da variância de um portfólio usando os modelos GARCH, GJR-GARCH e EGARCH e uma previsão do VaR do portfólio a partir da estimação feita anteriormente. Por fim, são apresentados alguns trabalhos que usam os dois modelos conjuntamente, ou seja, que consideram que as taxas ou os fatores que as podem explicam possuem variância variante no tempo.
Resumo:
A alta taxa de litigância judicial envolvendo bancos e clientes afeta o funcionamento do Poder Judiciário bem como a disponibilidade do crédito e as taxas de juros de forma negativa, por contribuir para a insegurança jurídica no mercado de crédito. Este trabalho busca diagnosticar as causas dessa litigância e os seus efeitos, verificar se o ombudsman bancário pode ser um mecanismo adequado à solução de disputas no setor financeiro, contribuindo para diminuir a litigância judicial. Pretende, também, propor mudanças institucionais, por meio da regulação bancária, que estabeleçam o sistema de ombudsman setorial no Brasil, fixando incentivos e desestímulos, para que ele seja eficiente e apresente resultados mais céleres, em face da realidade brasileira.
Resumo:
Este trabalho visa sistematizar um modelo para previsão e explicação dos movimentos de curto prazo da estrutura a termo de taxas de juros pré-fixada em reais do Brasil, baseado na relação dos movimentos em questão com os níveis e alterações que se processam nas variáveis macroeconômicas relevantes. A metodologia usada foi dividir o procedimento em duas etapas: Na primeira etapa, o modelo de Svensson (1994) é usado para ajustar a Estrutura a Termo de Taxas de Juros de cada data específica para obter os parâmetros daquela data. Isso é conseguido através da maximização da estatística R2 na regressão de mínimos quadrados, como sugerido no artigo original de Nelson e Siegel (1987). Então, as medianas dos dois parâmetros de decaimento utilizados são calculadas e mantidas arbitrariamente constantes para facilitar os cálculos da segunda etapa. Na segunda etapa, uma vez que os estimadores que melhor se ajustam às curvas de juros foram obtidos, outra regressão de MQO é realizada considerando os betas de Svensson dependentes de variáveis macroeconômicas de estado.
Resumo:
A taxa de desemprego no Brasil sofreu redução significativa do começo do século XXI até o fim do ano de 2014. No entanto, esta redução significativa não foi acompanhada do esperado crescimento econômico disposto na teoria. Desta forma, constata-se que embora a taxa de desemprego tenha se reduzido, não necessariamente as pessoas estavam trabalhando e produzindo. Procurará se entender os fatores que influenciaram esta trajetória de redução da taxa de desemprego por meio de influência na PEA e no número de admissões de empregados, que aproximaremos à oferta e à demanda por mão de obra. Ou seja, pretende-se verificar as variáveis que influenciaram uma possível redução da oferta de trabalho, assim como uma maior demanda por trabalho, resultantes em uma redução da taxa de desemprego. Serão consideradas variáveis de renda, de transferência de renda, de educação e de crescimento econômico na análise das influências da baixa taxa de desemprego. Com base em um modelo vetor de correção de erros (VEC) pretende-se identificar quais variáveis efetivamente afetaram o panorama do desemprego.
Resumo:
Neste trabalho, é feita uma análise da política monetária brasileira no período de 2000 a 2008 com o intuito de entender o quão independente ela foi em relação às ações do Federal Reserve. Esse entendimento é importante devido à iminente movimentação de subida de juros nos EUA, ainda sem data precisa para ocorrer, mas que pode trazer consequências no câmbio e nos juros domésticos em um momento em que já há um aperto monetário em curso no país. Além disso, os efeitos de outras variáveis ligadas a situações externas como eventos de crise, câmbio e risco país nos juros brasileiros também são levados em consideração. Os resultados indicam que, no período de estudo, a política monetária nacional foi marcada por uma maior autonomia em relação às flutuações nos juros americanos, fato que pode ter sido auxiliado pela adoção em 1999 do câmbio flutuante.
Resumo:
O prêmio de inflação é calculado pela diferença entre a inflação implícita (diferença entre a taxa de juro nominal e a taxa de juro real encontrada nos títulos públicos) e a projeção de inflação dos agentes econômicos. A mediana do prêmio de inflação no Brasil varia entre 0.2% e 0.5% ao ano. O presente artigo encontra evidência empírica de que um aumento na incerteza dos agentes sobre a expectativa de inflação impacta positivamente o prêmio de inflação. O grau de incerteza dos agentes é medido neste trabalho pelo desvio padrão das projeções de inflação no relatório Focus do Banco Central. O primeiro modelo VAR foi testado com o desvio padrão e os prêmios de inflação para os horizontes de 3, 6, 9, 12, 24 e 36 meses, e apresentou resposta estatisticamente significativa positiva a um impulso no desvio padrão para todos os prêmios exceto os de horizontes de 3 e 6 meses. As respostas ao impulso são semelhantes para os diferentes horizontes. Um segundo modelo VAR foi testado com o desvio padrão, o prêmio de inflação com horizonte de 12 meses, a inclinação entre os prêmios de horizonte de 6 e 24 meses e uma borboleta entre os prêmios de horizonte de 3, 12 e 36 meses para verificar se a incerteza impacta também a forma da curva de prêmio de inflação. Esse não apresentou resposta estatisticamente significativa a um impulso no desvio padrão. Concluiu-se que a incerteza dos agentes impacta a curva de prêmio de inflação em nível, porém sem efeitos significativos no formato da curva.
Resumo:
This work aims to analyze the interaction and the effects of administered prices in the economy, through a DSGE model and the derivation of optimal monetary policies. The model used is a standard New Keynesian DSGE model of a closed economy with two sectors companies. In the first sector, free prices, there is a continuum of firms, and in the second sector of administered prices, there is a single firm. In addition, the model has positive trend inflation in the steady state. The model results suggest that price movements in any sector will impact on both sectors, for two reasons. Firstly, the price dispersion causes productivity to be lower. As the dispersion of prices is a change in the relative price of any sector, relative to general prices in the economy, when a movement in the price of a sector is not followed by another, their relative weights will change, leading to an impact on productivity in both sectors. Second, the path followed by the administered price sector is considered in future inflation expectations, which is used by companies in the free sector to adjust its optimal price. When this path leads to an expectation of higher inflation, the free sector companies will choose a higher mark-up to accommodate this expectation, thus leading to higher inflation trend when there is imperfect competition in the free sector. Finally, the analysis of optimal policies proved inconclusive, certainly indicating that there is influence of the adjustment model of administered prices in the definition of optimal monetary policy, but a quantitative study is needed to define the degree of impact.
Resumo:
A modelagem da estrutura a termo da taxa juros tem grande relevância para o mercado financeiro, isso se deve ao fato de ser utilizada na precificação de títulos de crédito e derivativos, ser componente fundamental nas políticas econômicas e auxiliar a criação de estratégias trading. A classe de modelos criada por Nelson-Siegel (1987), foi estendida por diversos autores e atualmente é largamente utilizada por diversos bancos centrais ao redor do mundo. Nesse trabalho utilizaremos a extensão proposta por Diebold e Li (2006) aplicada para o mercado brasileiro, os parâmetros serão calibrados através do Filtro de Kalman e do Filtro de Kalman Estendido, sendo que o último método permitirá estimar com dinamismo os quatros parâmetros do modelo. Como mencionado por Durbin e Koopman (2012), as fórmulas envolvidas no filtro de Kalman e em sua versão estendida não impõe condições de dimensão constante do vetor de observações. Partindo desse conceito, a implementação dos filtros foi feita de forma a possibilitar sua aplicação independentemente do número de observações da curva de juros em cada instante de tempo, dispensando a necessidade de interpolar os dados antes da calibração. Isso ajuda a refletir mais fielmente a realidade do mercado e relaxar as hipóteses assumidas ao interpolar previamente para obter vértices fixos. Também será testada uma nova proposta de adaptação do modelo de Nelson-Siegel, nela o parâmetro de nível será condicionado aos títulos terem vencimento antes ou depois da próxima reunião do Copom. O objetivo é comparar qualidade da predição entre os métodos, pontuando quais são as vantagens e desvantagens encontradas em cada um deles.