985 resultados para Taxa de secagem


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho tem o objetivo de testar a qualidade preditiva do Modelo Vasicek de dois fatores acoplado ao Filtro de Kalman. Aplicado a uma estratégia de investimento, incluímos um critério de Stop Loss nos períodos que o modelo não responde de forma satisfatória ao movimento das taxas de juros. Utilizando contratos futuros de DI disponíveis na BMFBovespa entre 01 de março de 2007 a 30 de maio de 2014, as simulações foram realizadas em diferentes momentos de mercado, verificando qual a melhor janela para obtenção dos parâmetros dos modelos, e por quanto tempo esses parâmetros estimam de maneira ótima o comportamento das taxas de juros. Os resultados foram comparados com os obtidos pelo Modelo Vetor-auto regressivo de ordem 1, e constatou-se que o Filtro de Kalman aplicado ao Modelo Vasicek de dois fatores não é o mais indicado para estudos relacionados a previsão das taxas de juros. As limitações desse modelo o restringe em conseguir estimar toda a curva de juros de uma só vez denegrindo seus resultados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A tradicional representação da estrutura a termo das taxas de juros em três fatores latentes (nível, inclinação e curvatura) teve sua formulação original desenvolvida por Charles R. Nelson e Andrew F. Siegel em 1987. Desde então, diversas aplicações vêm sendo desenvolvidas por acadêmicos e profissionais de mercado tendo como base esta classe de modelos, sobretudo com a intenção de antecipar movimentos nas curvas de juros. Ao mesmo tempo, estudos recentes como os de Diebold, Piazzesi e Rudebusch (2010), Diebold, Rudebusch e Aruoba (2006), Pooter, Ravazallo e van Dijk (2010) e Li, Niu e Zeng (2012) sugerem que a incorporação de informação macroeconômica aos modelos da ETTJ pode proporcionar um maior poder preditivo. Neste trabalho, a versão dinâmica do modelo Nelson-Siegel, conforme proposta por Diebold e Li (2006), foi comparada a um modelo análogo, em que são incluídas variáveis exógenas macroeconômicas. Em paralelo, foram testados dois métodos diferentes para a estimação dos parâmetros: a tradicional abordagem em dois passos (Two-Step DNS), e a estimação com o Filtro de Kalman Estendido, que permite que os parâmetros sejam estimados recursivamente, a cada vez que uma nova informação é adicionada ao sistema. Em relação aos modelos testados, os resultados encontrados mostram-se pouco conclusivos, apontando uma melhora apenas marginal nas estimativas dentro e fora da amostra quando as variáveis exógenas são incluídas. Já a utilização do Filtro de Kalman Estendido mostrou resultados mais consistentes quando comparados ao método em dois passos para praticamente todos os horizontes de tempo estudados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A principal explicação sugerida pela literatura para o viés do preço futuro em relação à taxa de câmbio que prevalecerá no futuro é a existência de um prêmio de risco. Aplicamos aqui os principais modelos teóricos e técnicas econométricas para identificação e mensuração do prêmio de risco aos dados brasileiros do mercado futuro de câmbio posteriores ao Plano Real. Identifica-se um prêmio de risco que varia ao longo do tempo, o qual correlaciona-se com os fundamentos macroeconômicos da economia. A partir de 1999, coerentemente com a introdução da livre flutuação cambial, observou-se uma diminuição da importância do prêmio de risco relativamente aos erros de previsão na composição do forward discount. As técnicas empregadas permitem-nos avaliar importantes questões de política econômica, como o quanto podem cair as taxas de juros reais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Com base nos dados históricos do bid-ask spread dos ativos do mercado futuro de taxas de juros no Brasil, este estudo analisa se há evidência de presença de investidores com informação superior no período que antecede o COPOM. A partir de testes do Componente de Assimetria de Informação (CAI) medidos às vésperas de 21 reuniões do COPOM, realizadas entre outubro de 2011 e maio de 2014, encontramos evidências que: o CAI apresenta patamar superior para períodos que antecedem reunião cuja decisão não foi bem antecipada pelo mercado, sugerindo a presença de investidores com informação superior nessas circunstâncias. Contudo, não encontramos evidência de que haja qualquer relação entre o comportamento do CAI com o volume de negócios, nem que haja relação entre o comportamento do CAI com o posicionamento de determinados players, especificamente Pessoas Físicas e Pessoas Jurídicas Não Financeiras. Por outro lado, encontramos evidência de expressiva redução na CAI no dia seguinte ao COPOM, sinalizando a eficácia da comunicação do BC na ancoragem de expectativas e reforçando a reunião como evento propício para atuação de players com informação superior. Os resultados se tornam ainda mais relevantes quando se considera o contexto do período analisado, marcado pela presença de intensa volatilidade na SELIC e por uma investigação da CVM sobre insider trading no mercado de juros.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho demonstra como podemos usar opções sobre o Índice de Taxa Média de Depósitos Interfinanceiros de Um Dia (IDI) para extrair a função densidade de probabilidade (FDP) para os próximos passos do Comitê de Política Monetária (COPOM). Como a decisão do COPOM tem uma natureza discreta, podemos estimar a FDP usando Mínimo Quadrados Ordinários (MQO). Esta técnica permite incluir restrições sobre as probabilidades estimadas. As probabilidades calculadas usando opções sobre IDI são então comparadas com as probabilidades encontradas usando o Futuro de DI e as probabilidades calculadas através de pesquisas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação baseia-se na criação de uma taxa não inflacionária da capacidade utilizada (NIRCU) para economia brasileira, utilizando microdados da Sondagem da Indústria de Transformação e Índice de Preços ao Produtor Amplo – M (IPA-M), pesquisas desenvolvidas pela FGV/IBRE. Foram criadas três taxas: NIRCU Sondagem, NIRCU Coincidente e NIRCU Antecedente. A primeira utiliza apenas dados da sondagem e a ideia é verificar que não há pressão inflacionária quando as empresas informam para sondagem que não irão variar os seus preços para os próximos três meses e que o número de turnos trabalhado é igual à média do setor. Já as demais, cruzam as informações das empresas que respondem tanto a Sondagem da Indústria de Transformação quanto no IPA-M e verifica se as que informam que não irão alterar os seus preços nos próximos três meses se concretiza quando comparados às variações do índice. A diferença entre as duas últimas abordagens é que a primeira, NIRCU Coincidente, verifica no mesmo período e a outra, NIRCU Antecedente, no trimestre seguinte. A forma encontrada para verificar a eficácia dos indicadores em mensurar a existência de pressão inflacionária foi inserir os diferentes hiatos de produto das NIRCU no modelo de Curva de Phillips, usando a metodologia de Mínimos Quadrados Ordinários (MQO). De acordo com as estimativas, a NIRCU Antecedente foi a única das três que não apresentou um bom desempenho no resultado; as NIRCU Sondagem e Coincidente tiveram uma performance muita boa, principalmente a última. Ou seja, esses dois indicadores tiveram um resultado tão bom quanto as mais tradicionais medidas de hiato de produto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Estudo da FGV-DAPP mostra que, com 90% do orçamento comprometido com aposentadorias, encargos financeiros e gastos obrigatórios, o governo tem um espaço limitado para cortes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A taxa de desemprego no Brasil sofreu redução significativa do começo do século XXI até o fim do ano de 2014. No entanto, esta redução significativa não foi acompanhada do esperado crescimento econômico disposto na teoria. Desta forma, constata-se que embora a taxa de desemprego tenha se reduzido, não necessariamente as pessoas estavam trabalhando e produzindo. Procurará se entender os fatores que influenciaram esta trajetória de redução da taxa de desemprego por meio de influência na PEA e no número de admissões de empregados, que aproximaremos à oferta e à demanda por mão de obra. Ou seja, pretende-se verificar as variáveis que influenciaram uma possível redução da oferta de trabalho, assim como uma maior demanda por trabalho, resultantes em uma redução da taxa de desemprego. Serão consideradas variáveis de renda, de transferência de renda, de educação e de crescimento econômico na análise das influências da baixa taxa de desemprego. Com base em um modelo vetor de correção de erros (VEC) pretende-se identificar quais variáveis efetivamente afetaram o panorama do desemprego.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dentro de um cenário de recessão econômica é razoável existir uma preocupação maior com o risco de crédito. Algumas variáveis macroeconômicas, como taxa de desemprego, taxa de juros e inflação, são apontadas como responsáveis por choques no sistema financeiro. Esses choques podem provocar efeitos adversos como aumento da inadimplência, provisionamentos de crédito e, num caso extremo, quebra de instituições financeiras. Este trabalho contribuiu na linha da economia comportamental e do risco de crédito, analisando uma possível reação da taxa de inadimplência sob um efeito de variações da taxa de desemprego brasileira. Os dados utilizados foram de inadimplência e taxa de desemprego de pessoas físicas de seis regiões metropolitanas do Brasil. Construímos modelos estatísticos em painel utilizando efeitos fixos. Realizamos também uma breve análise dos dados utilizando conceitos de séries temporais, aplicando funções de impulso resposta. E, no intuito de tornar o estudo mais robusto, analisamos também o efeito do choque da taxa de desemprego nas variáveis de inadimplência e atraso curto prazo do BACEN de forma comparativa. Nas metodologias aplicadas, os resultados nos mostraram uma baixa significância estatística ao utilizarmos a taxa de desemprego para responder a inadimplência. Já para explicar o atraso curto prazo, encontramos significância estatística.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho procura identificar quais variáveis são as mais relevantes para previsão da taxa de câmbio real do Brasil e analisar a robustez dessas previsões. Para isso foram realizados testes de cointegração de Johansen em 13 variáveis macroeconômicas. O banco de dados utilizado são séries trimestrais e compreende o período de 1970 a 2014 e os testes foram realizados sobre as séries combinadas dois a dois, três a três e quatro a quatro. Por meio desse método, encontramos nove grupos que cointegram entre si. Utilizando esses grupos, são feitas previsões fora da amostra com a partir das últimas 60 observações. A qualidade das previsões foi avaliada por meio dos testes de Erro Quadrático Médio, teste de Diebold-Mariano e, além disso, foi utilizado um modelo de passeio aleatório do câmbio real como benchmark para o procedimento de Hansen. Todos os testes mostram que, à medida que se aumenta o horizonte de projeção, o passeio aleatório perde poder preditivo e a maioria dos modelos são mais informativos sobre o futuro da o câmbio real efetivo. O horizonte é de três a quatro anos à frente. No caso do teste de Hansen, o passeio aleatório é completamente eliminado do grupo final de modelos, mostrando que é possível fazer previsões superiores ao passeio aleatório.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho procura identificar quais variáveis são as mais relevantes para previsão da taxa de câmbio real do Brasil e analisar a robustez dessas previsões. Para isso foram realizados testes de cointegração de Johansen em 13 variáveis macroeconômicas. O banco de dados utilizado são séries trimestrais e compreende o período de 1970 a 2014 e os testes foram realizados sobre as séries combinadas dois a dois, três a três e quatro a quatro. Por meio desse método, encontramos nove grupos que cointegram entre si. Utilizando esses grupos, são feitas previsões fora da amostra com a partir das últimas 60 observações. A qualidade das previsões foi avaliada por meio dos testes de Erro Quadrático Médio, teste de Diebold-Mariano e, além disso, foi utilizado um modelo de passeio aleatório do câmbio real como benchmark para o procedimento de Hansen. Todos os testes mostram que, à medida que se aumenta o horizonte de projeção, o passeio aleatório perde poder preditivo e a maioria dos modelos são mais informativos sobre o futuro da o câmbio real efetivo. O horizonte é de três a quatro anos à frente. No caso do teste de Hansen, o passeio aleatório é completamente eliminado do grupo final de modelos, mostrando que é possível fazer previsões superiores ao passeio aleatório.