292 resultados para Dívida externa - Brasil - Modelos matemáticos
Resumo:
O presente artigo tem por objetivo testar a hipótese de contágio entre os índices dos mercados nanceiros dos Estados Unidos, Brasil, Japão e Inglaterra para o período de 2000 a 2009. Cópulas variantes no tempo foram usadas para captar o impacto da crise do Subprime na dependência entre mercados. O modelo implementado foi um modelo ARMA(1,0) st-GARCH(1,2) para as distribuições marginais e cópulas gaussiana (Normal) e Joe-Clayton (SJC) para a distribuição conjunta. Os resultados obtidos permitem concluir que tanto para a cópula gaussiana quanto para a cópula SJC há evidências de contágio entre o mercado americano e o mercado brasileiro. Para os outros dois mercados londrino e japonês, as evidências da presença de contágio entre estes mercados e o americano não mostraram-se suficientemente claras em ambas as cópulas.
Resumo:
O Brasil é o segundo produtor mundial de soja [Glycine max (L.) Merr.] e o sétimo de óleo vegetal. A produção brasileira desta oleaginosa alcançou 61 milhões de toneladas na safra 2007/08 e projeta-se, para 2020, produção de 105 milhões de toneladas. O consumo de biodiesel em 2008 representou um milhão de toneladas e a demanda por este biocombustível deverá atingir 3,1 milhões de toneladas em 2020. Para atender esta demanda haverá ampliação da área plantada principalmente na região Centro-Oeste, mas também exigirá esforços no aumento de produtividade. Visando melhor conhecimento das inferências das variáveis climáticas temperatura e radiação global sobre o desenvolvimento da soja e sua produtividade de grãos e óleo, foi proposto um modelo estocástico com distribuição normal truncada para os dados de temperatura máxima, mínima e média. Também foi incluído neste modelo distribuição triangular assimétrica para determinação da produtividade de óleo mais provável. Foram estipuladas oito datas de semeadura para a localidade de Piracicaba/SP onde está localizada a estação meteorológica da ESALQ/USP, fornecedora dos dados climáticos utilizados neste estudo. Conclui-se que: (i) ao longo das datas de semeadura houve redução do ciclo com o aumento da temperatura média; (ii) a redução do ciclo da cultura de soja interferiu nas produtividades de grãos e de óleo; (iii) a radiação global média nos trinta dias após a antese refletiram-se na partição de fotoassimilados e na produtividade de grãos e óleo; (iv) os modelos estocásticos podem ser utilizados para a previsão das produtividades de soja e óleo.
Resumo:
Nos últimos anos, o mercado brasileiro de opções apresentou um forte crescimento, principalmente com o aparecimento da figura dos High Frequency Traders (HFT) em busca de oportunidades de arbitragem, de modo que a escolha adequada do modelo de estimação de volatilidade pode tornar-se um diferencial competitivo entre esses participantes. Este trabalho apresenta as vantagens da adoção do modelo de volatilidade estocástica de Heston (1993) na construção de superfície de volatilidade para o mercado brasileiro de opções de dólar, bem como a facilidade e o ganho computacional da utilização da técnica da Transformada Rápida de Fourier na resolução das equações diferenciais do modelo. Além disso, a partir da calibração dos parâmetros do modelo com os dados de mercado, consegue-se trazer a propriedade de não-arbitragem para a superfície de volatilidade. Os resultados, portanto, são positivos e motivam estudos futuros sobre o tema.
Resumo:
O trabalho tem como objetivo analisar a relação entre consumo e renda agregados das famílias no Brasil para os últimos 60 anos. Para realizar esta análise, foi utilizado a metodologia econométrica construída por Bierens e Martins (2010), que consiste na estimação de Vetor Autoregressivo com Mecanismo de Correção de Erros (VECM) similar ao modelo proposto por Johansen (1988), porém permitindo que o vetor de cointegração varie ao longo do tempo. Este modelo estimado mostrou-se melhor comparado a análise tradicional de Johansen (1988). Os resultados obtidos neste trabalho sugerem que a dinâmica do consumo e da renda variou ao longo do período amostral e que o consumo brasileiro parece não ser bem descrito por um passeio aleatório.
Resumo:
Este trabalho, com base na literatura teórica e empírica que trata da taxa de câmbio real, tem como objetivo investigar, por meio da estimação de um modelo de correção de erros, as principais variáveis que afetaram a taxa de câmbio real no período 1999/2010. A amostra utilizada começa com a implementação do regime de metas de inflação pelo Banco Central do Brasil (BCB) e pela adoção do câmbio flexível. O modelo de correção dos erros (VECM) foi estimado para duas taxas de câmbio reais efetivas, uma deflacionada pelo IPCA (Índice de Preço ao Consumidor Amplo) e outra pelo IPA (Índice de Preço no Atacado). Os resultados apontam que as principais variáveis que afetaram a taxa de câmbio real de equilíbrio no longo prazo foram: diferencial de juros, gastos do governo, produtividade, termos de troca, transações correntes e dívida externa total.
Resumo:
Este trabalho busca melhorar a solução de dois modelos distintos através da aplicação conjunta dos mesmos. Por um lado, sofistica os parâmetros de risco em um modelo de alocação dinâmica por utilizar definições e restrições do modelo de preferências em ciclo de vida de Campbell e Viceira (2002). Por outro, aumenta a maximização de utilidade no modelo de ciclo de vida por utilizar a alocação dinâmica ao invés de um ativo de risco ou carteira estática. Boa parte dos modelos recentes de alocação dinâmica necessitam de ferramentas computacionais e métodos numéricos avançados, o que os impede de ser utilizados de forma mais abrangente no dia a dia. Este trabalho utiliza uma técnica desenvolvida por Brandt e Santa-Clara (2004) que não é mais difícil do que a resolução tradicional de Markowitz. Esta técnica é aplicada, em seguida, no modelo de ciclo de vida para que o risco seja ajustado a partir de variáveis mais realistas para o investidor comum do que o nível de aversão a risco relativo. Os resultados empíricos demonstram que há um importante ganho de eficiência da alocação dinâmica em comparação com carteiras estáticas, tanto em termos de índice de Sharpe quanto no emprego no modelo de ciclo de vida. Apesar de os modelos terem sido desenvolvidos para a realidade dos Estados Unidos, o emprego dos mesmos no Brasil também demonstrou os mesmos ganhos de eficiência.
Resumo:
O objetivo dessa pesquisa foi testar a relação entre a volatilidade da variação real de índices de ações e eventos raros (positivos e negativos) no PIB real e, adicionalmente, a relação entre a volatilidade das taxas de juros reais e da variação das taxas de câmbio real efetiva e a ocorrência de tais eventos. Para testar essas relações foi utilizado o modelo GARCH, com o objetivo de modelar a volatilidade das variáveis consideradas (índices de ações, taxas de câmbio real efetiva e taxas de juros), inclusive regredindo a volatilidade contra variáveis dummy que indicassem a ocorrência de eventos raros. O teste foi realizado para os seguintes países: Estados Unidos, Canadá, Reino Unido, Coréia do Sul, Japão e Brasil. Foram encontradas evidências de que a ocorrência de eventos raros negativos (desastres raros) impacta positivamente a volatilidade tanto da variação real de índices de ações quanto da variação da taxa de câmbio real efetiva. Entretanto, os resultados não indicaram que existe um impacto de eventos raros positivos na volatilidade dessas variáveis. Para a volatilidade da taxa de juros real, os testes não indicaram a existência de relação com eventos raros, porém esses resultados podem ter sido influenciados pelo fato da amostra ser pequena.
Resumo:
The thesis introduces a system dynamics Taylor rule model of new Keynesian nature for monetary policy feedback in Brazil. The nonlinear Taylor rule for interest rate changes con-siders gaps and dynamics of GDP growth and inflation. The model closely tracks the 2004 to 2011 business cycle and outlines the endogenous feedback between the real interest rate, GDP growth and inflation. The model identifies a high degree of endogenous feedback for monetary policy and inflation, while GDP growth remains highly exposed to exogenous eco-nomic conditions. The results also show that the majority of the monetary policy moves during the sample period was related to GDP growth, despite higher coefficients of inflation parameters in the Taylor rule. This observation challenges the intuition that inflation target-ing leads to a dominance of monetary policy moves with respect to inflation. Furthermore, the results suggest that backward looking price-setting with respect to GDP growth has been the dominant driver of inflation. Moreover, simulation exercises highlight the effects of the new BCB strategy initiated in August 2011 and also consider recession and inflation avoid-ance versions of the Taylor rule. In methodological terms, the Taylor rule model highlights the advantages of system dynamics with respect to nonlinear policies and to the stock-and-flow approach. In total, the strong historical fit and some counterintuitive observations of the Taylor rule model call for an application of the model to other economies.
Resumo:
O conceito de paridade coberta de juros sugere que, na ausência de barreiras para arbitragem entre mercados, o diferencial de juros entre dois ativos, idênticos em todos os pontos relevantes, com exceção da moeda de denominação, na ausência de risco de variação cambial deve ser igual a zero. Porém, uma vez que existam riscos não diversificáveis, representados pelo risco país, inerentes a economias emergentes, os investidores exigirão uma taxa de juros maior que a simples diferença entre as taxas de juros doméstica e externa. Este estudo tem por objetivo avaliar se o ajustamento das condições de paridade coberta de juros por prêmios de risco é suficiente para a validação da relação de não-arbitragem para o mercado brasileiro, durante o período de 2007 a 2010. O risco país contamina todos os ativos financeiros emitidos em uma determinada economia e pode ser descrito como a somatória do risco de default (ou risco soberano) e do risco de conversibilidade percebidos pelo mercado. Para a estimação da equação de não arbitragem foram utilizadas regressões por Mínimos Quadrados Ordinários, parâmetros variantes no tempo (TVP) e Mínimos Quadrados Recursivos, e os resultados obtidos não são conclusivos sobre a validação da relação de paridade coberta de juros, mesmo ajustando para prêmio de risco. Erros de medidas de dados, custo de transação e intervenções e políticas restritivas no mercado de câmbio podem ter contribuído para este resultado.
Resumo:
O objetivo desse trabalho é obter um conjunto de evidências empíricas a respeito da dinâmica econômica de curto-prazo das regiões brasileiras para avaliar se as diferenças regionais resultam em ausência de sincronia econômica. Foi construida uma séries de evidências acerca do comportamento cíclico das regiões brasileiras, sendo uma parte delas por datação via o algoritmo de Bry Boschan e outra parte por meio da construção de um indicador do nível de atividade, pela metodologia de Stock e Watson de fatores dinâmicos. Em decorrência à dificuldade de disponibilidade de dados, só foi possível analisar dez estados brasileiros. Apesar das evidências geradas pelo algoritmo de Bry Boschan terem diferenças em relação as evidências geradas pelo modelo de Stock Watson, foi possível constatar que os ciclos regionais são bastante diferentes se comparados com os ciclos nacionais, sendo São Paulo o Estado que possui a maior sincronia e os Estados de Pernambuco e Rio Grande do Sul as menores. No entanto, duas recessões foram captadas na maioria dos estados, a de 2002 e a de 2008, sugerindo o quanto esses períodos foram abrangentes sendo que boa parte dos estados foi afetada.
Resumo:
A incipiente alta nas expectativas de inflação futura combinada com a busca do governo por juros nominais mais baixos e o maior intervencionismo via medidas convencionais e não convencionais na gestão da política econômica, pode ter deteriorado a percepção dos agentes de mercado quanto à credibilidade da Autoridade Monetária, mesmo que indicadores tradicionais de credibilidade ainda não mostrem isso. Este trabalho intui que a resposta de ativos à divulgação de dados macroeconômicos apresenta informações sobre a percepção do mercado da credibilidade do Banco Central, utilizando, então, uma base de dados de alta frequência para medir as respostas dos ativos e empregando o teste econométrico quasi-local level (QLL), busca avaliar se houve alguma instabilidade nos coeficientes de respostas que indique uma variação na percepção ao longo do tempo. A série de dados analisada compreende o período de 2006 a 2011 e o trabalho conclui que não houve variação nos coeficientes e, portanto, se houve alguma mudança positiva ou negativa na percepção de credibilidade, esta não pode ser inferida pelo método proposto.
Resumo:
O objetivo central desta tese é colaborar com a literatura de finanças internacionais, abordando a discussão sobre os limites “toleráveis” de endividamento aos quais os governos estão submetidos, bem como, sobre os fatores que afetam a forma como os países denominam suas dívidas no mercado internacional. A análise dos limites de endividamento é baseada num modelo onde crises de dívida auto-realizáveis podem ocorrer quando o nível de endividamento encontra-se em determinado intervalo. Uma vez nesta região, a dívida pode (ou não) ser rolada e, caso os credores não concedam novos empréstimos, a crise torna-se, de fato, uma profecia auto-realizável. Os resultados encontrados indicam que o limite de endividamento, além de bastante persistente, é muito dependente da razão dívida/PIB, bem como, dos históricos de inflação, crises bancárias e de defaults (ou reestruturações) de dívida soberana. Posteriormente, é feita uma aplicação do modelo estimado aos países da periferia do euro, na qual os resultados sugerem que países como Portugal e Grécia, mesmo após a adoção da moeda única, apresentam dificuldades em administrar os seus níveis de endividamento. Em conjunto, os resultados apresentados sugerem que quanto pior o histórico macroeconômico, menor será a capacidade do país “tolerar” dívidas. Em relação à denominação da dívida, o estudo procura identificar em que medida a volatilidade da taxa de câmbio real efetiva, controlada por diversos fatores, impacta a forma como países se endividam no mercado internacional. Os resultados indicam que a baixa volatilidade cambial é condição fundamental para que a moeda doméstica seja utilizada em transações internacionais. Além disso, porte econômico, estabilidade de regras, respeito aos contratos e ampla liquidez dos mercados financeiros domésticos, são fatores que contribuem para a aceitação de uma moeda nos contratos de dívida internacional. Evidências adicionais do estudo sugerem que a ampla liquidez internacional, observada principalmente nos anos 2000, foi incapaz de ampliar de maneira significativa o número de moedas utilizadas no mercado internacional de dívidas. Ainda em relação a este tema, a tese analisa os primeiros passos da economia brasileira no sentido de alongar o perfil da dívida pública interna, por intermédio da emissão de títulos denominados em reais no mercado internacional.
Resumo:
O trabalho tem como objetivo comparar a eficácia das diferentes metodologias de projeção de inflação aplicadas ao Brasil. Serão comparados modelos de projeção que utilizam os dados agregados e desagregados do IPCA em um horizonte de até doze meses à frente. Foi utilizado o IPCA na base mensal, com início em janeiro de 1996 e fim em março de 2012. A análise fora da amostra foi feita para o período entre janeiro de 2008 e março de 2012. Os modelos desagregados serão estimados por SARIMA, pelo software X-12 ARIMA disponibilizado pelo US Census Bureau, e terão as aberturas do IPCA de grupos (9) e itens (52), assim como aberturas com sentido mais econômico utilizadas pelo Banco Central do Brasil como: serviços, administrados, alimentos e industrializados; duráveis, não duráveis, semiduráveis, serviços e administrados. Os modelos agregados serão estimados por técnicas como SARIMA, modelos estruturais em espaço-estado (Filtro de Kalman) e Markov-switching. Os modelos serão comparados pela técnica de seleção de modelo Model Confidence Set, introduzida por Hansen, Lunde e Nason (2010), e Dielbod e Mariano (1995), no qual encontramos evidências de ganhos de desempenho nas projeções dos modelos mais desagregados em relação aos modelos agregados.
Resumo:
O objetivo do presente trabalho é verificar se o modelo que combina correção de erros e fatores extraídos de grandes conjuntos de dados macroeconômicos produz previsões mais precisas das taxas de juros do Brasil em relação aos modelos VAR, VECM e FAVAR. Para realizar esta análise, foi utilizado o modelo sugerido por Banerjee e Marcellino (2009), o FAVECM, que consiste em agregar o mecanismo de correção de erros ao modelo proposto por Bernanke, Boivin e Eliasz (2005), o FAVAR. A hipótese é que o FAVECM possuiu uma formulação teórica mais geral. Os resultados mostram que para o mercado brasileiro o FAVECM apresentou ganhos significativos de previsão para as taxas mais longas e horizontes de previsão maiores.
Resumo:
Este estudo compara previsões de volatilidade de sete ações negociadas na Bovespa usando 02 diferentes modelos de volatilidade realizada e 03 de volatilidade condicional. A intenção é encontrar evidências empíricas quanto à diferença de resultados que são alcançados quando se usa modelos de volatilidade realizada e de volatilidade condicional para prever a volatilidade de ações no Brasil. O período analisado vai de 01 de Novembro de 2007 a 30 de Março de 2011. A amostra inclui dados intradiários de 5 minutos. Os estimadores de volatilidade realizada que serão considerados neste estudo são o Bi-Power Variation (BPVar), desenvolvido por Barndorff-Nielsen e Shephard (2004b), e o Realized Outlyingness Weighted Variation (ROWVar), proposto por Boudt, Croux e Laurent (2008a). Ambos são estimadores não paramétricos, e são robustos a jumps. As previsões de volatilidade realizada foram feitas através de modelos autoregressivos estimados para cada ação sobre as séries de volatilidade estimadas. Os modelos de variância condicional considerados aqui serão o GARCH(1,1), o GJR (1,1), que tem assimetrias em sua construção, e o FIGARCH-CHUNG (1,d,1), que tem memória longa. A amostra foi divida em duas; uma para o período de estimação de 01 de Novembro de 2007 a 30 de Dezembro de 2010 (779 dias de negociação) e uma para o período de validação de 03 de Janeiro de 2011 a 31 de Março de 2011 (61 dias de negociação). As previsões fora da amostra foram feitas para 1 dia a frente, e os modelos foram reestimados a cada passo, incluindo uma variável a mais na amostra depois de cada previsão. As previsões serão comparadas através do teste Diebold-Mariano e através de regressões da variância ex-post contra uma constante e a previsão. Além disto, o estudo também apresentará algumas estatísticas descritivas sobre as séries de volatilidade estimadas e sobre os erros de previsão.