323 resultados para Elasticidade (Economia) - Modelos econométricos
Resumo:
A presente tese é composta por três ensaios. O primeiro ensaio estuda os ciclos de negócios brasileiro no período dos anos 1900 até 2012. Uma série trimestral do PIB real é elaborada, utilizando um modelo estrutural de séries de tempo. A partir disso, um modelo com mudança Markoviana é proposto para que seja construída uma cronologia de ciclo de negócios. O modelo selecionado possui dois regimes distintos, cenários de expansão e de recessão, a datação obtida é comparada com outros estudos sobre o tema e são propostas caracterizações das fases de crescimento que podem apoiar estudos sobre a história econômica do Brasil. O segundo ensaio estuda o comportamento da velocidade da moeda no ciclo de negócios brasileiro de 1900 até 2013. Os resultados a partir das estimativas dos modelos de séries temporais, MS e GARCH, são utilizados para suportar esse estudo. Em termos gerais a velocidade da moeda no Brasil apresentou queda até a segunda Guerra Mundial, cresceu até meados dos anos 1990 e a partir disso segue em tendência de queda. A experiência inflacionária brasileira é capítulo importante de nossa história econômica. O objetivo do terceiro ensaio é estudar a volatilidade da inflação brasileira ao longo do tempo no período de 1939 até 2013, buscando descrever sua relação com a taxa de inflação, adotando como referência uma datação de ciclos de negócios. Para realizar essa descrição serão utilizados os resultados obtidos nas estimações de modelos econométricos das classes GARCH, BSM e MS. No caso brasileiro a indicação é que a taxa de inflação impacta positivamente sua volatilidade.
Resumo:
The onset of the financial crisis in 2008 and the European sovereign crisis in 2010 renewed the interest of macroeconomists on the role played by credit in business cycle fluctuations. The purpose of the present work is to present empirical evidence on the monetary policy transmission mechanism in Brazil with a special eye on the role played by the credit channel, using different econometric techniques. It is comprised by three articles. The first one presents a review of the literature of financial frictions, with a focus on the overlaps between credit activity and the monetary policy. It highlights how the sharp disruptions in the financial markets spurred central banks in developed and emerging nations to deploy of a broad set of non conventional tools to overcome the damage on financial intermediation. A chapter is dedicated to the challenge face by the policymaking in emerging markets and Brazil in particular in the highly integrated global capital market. This second article investigates the implications of the credit channel of the monetary policy transmission mechanism in the case of Brazil, using a structural FAVAR (SFAVAR) approach. The term “structural” comes from the estimation strategy, which generates factors that have a clear economic interpretation. The results show that unexpected shocks in the proxies for the external finance premium and the credit volume produce large and persistent fluctuations in inflation and economic activity – accounting for more than 30% of the error forecast variance of the latter in a three-year horizon. Counterfactual simulations demonstrate that the credit channel amplified the economic contraction in Brazil during the acute phase of the global financial crisis in the last quarter of 2008, thus gave an important impulse to the recovery period that followed. In the third articles, I make use of Bayesian estimation of a classical neo-Keynesian DSGE model, incorporating the financial accelerator channel developed by Bernanke, Gertler and Gilchrist (1999). The results present evidences in line to those already seen in the previous article: disturbances on the external finance premium – represented here by credit spreads – trigger significant responses on the aggregate demand and inflation and monetary policy shocks are amplified by the financial accelerator mechanism. Keywords: Macroeconomics, Monetary Policy, Credit Channel, Financial Accelerator, FAVAR, DSGE, Bayesian Econometrics
Resumo:
Este trabalho analisa a importância dos fatores comuns na evolução recente dos preços dos metais no período entre 1995 e 2013. Para isso, estimam-se modelos cointegrados de VAR e também um modelo de fator dinâmico bayesiano. Dado o efeito da financeirização das commodities, DFM pode capturar efeitos dinâmicos comuns a todas as commodities. Além disso, os dados em painel são aplicados para usar toda a heterogeneidade entre as commodities durante o período de análise. Nossos resultados mostram que a taxa de juros, taxa efetiva do dólar americano e também os dados de consumo têm efeito permanente nos preços das commodities. Observa-se ainda a existência de um fator dinâmico comum significativo para a maioria dos preços das commodities metálicas, que tornou-se recentemente mais importante na evolução dos preços das commodities.
Resumo:
Mandelbrot (1971) demonstrou a importância de considerar dependências de longo prazo na precificação de ativos - o método tradicional para mensurá-las, encontrado em Hurst (1951), faz uso da estatística R/S. Paralelamente a isso, Box e Jenkins (1976; edição original de 1970) apresentaram sua famosa metodologia para determinação da ordem dos parâmetros de modelos desenvolvidos no contexto de processos com memória de curto prazo, conhecidos por ARIMA (acrônimo do inglês Autoregressive Integrated Moving Average). Estimulados pela percepção de que um modelo que pretenda representar fielmente o processo gerador de dados deva explicar tanto a dinâmica de curto prazo quanto a de longo prazo, Granger e Joyeux (1980) e Hosking (1981) introduziram os modelos ARFIMA (de onde o F adicionado vem de Fractionally), uma generalização da classe ARIMA, nos quais a dependência de longo prazo estimada é relacionada ao valor do parâmetro de integração. Pode-se dizer que a partir de então processos com alto grau de persistência passaram a atrair cada vez mais o interesse de pesquisadores, o que resultou no desenvolvimento de outros métodos para estimá-la, porém sem que algum tenha se sobressaído claramente – e é neste ponto que o presente trabalho se insere. Por meio de simulações, buscou-se: (1) classificar diversos estimadores quanto a sua precisão, o que nos obrigou a; (2) determinar parametrizações razoáveis desses, entendidas aqui como aquelas que minimizam o viés, o erro quadrático médio e o desvio-padrão. Após rever a literatura sobre o tema, abordar estes pontos se mostrou necessário para o objetivo principal: elaborar estratégias de negociação baseadas em projeções feitas a partir da caracterização de dependências em dados intradiários, minuto a minuto, de ações e índices de ações. Foram analisadas as séries de retornos da ação Petrobras PN e do Índice Bovespa, com dados de 01/04/2013 a 31/03/2014. Os softwares usados foram o S-Plus e o R.
Resumo:
This paper tests the optimality of consumption decisions at the aggregate level taking into account popular deviations from the canonical constant-relative-risk-aversion (CRRA) utility function model-rule of thumb and habit. First, based on the critique in Carroll (2001) and Weber (2002) of the linearization and testing strategies using euler equations for consumption, we provide extensive empirical evidence of their inappropriateness - a drawback for standard rule- of-thumb tests. Second, we propose a novel approach to test for consumption optimality in this context: nonlinear estimation coupled with return aggregation, where rule-of-thumb behavior and habit are special cases of an all encompassing model. We estimated 48 euler equations using GMM. At the 5% level, we only rejected optimality twice out of 48 times. Moreover, out of 24 regressions, we found the rule-of-thumb parameter to be statistically significant only twice. Hence, lack of optimality in consumption decisions represent the exception, not the rule. Finally, we found the habit parameter to be statistically significant on four occasions out of 24.
Resumo:
This paper estimates the elasticity of substitution of an aggregate production function. The estimating equation is derived from the steady state of a neoclassical growth model. The data comes from the PWT in which different countries face different relative prices of the investment good and exhibit different investment-output ratios. Then, using this variation we estimate the elasticity of substitution. The novelty of our approach is that we use dynamic panel data techniques, which allow us to distinguish between the short and the long run elasticity and handle a host of econometric and substantive issues. In particular we accommodate the possibility that different countries have different total factor productivities and other country specific effects and that such effects are correlated with the regressors. We also accommodate the possibility that the regressors are correlated with the error terms and that shocks to regressors are manifested in future periods. Taking all this into account our estimation resuIts suggest that the Iong run eIasticity of substitution is 0.7, which is Iower than the eIasticity that had been used in previous macro-deveIopment exercises. We show that this lower eIasticity reinforces the power of the neoclassical mo deI to expIain income differences across countries as coming from differential distortions.
Resumo:
We define a subgame perfect Nash equilibrium under Knightian uncertainty for two players, by means of a recursive backward induction procedure. We prove an extension of the Zermelo-von Neumann-Kuhn Theorem for games of perfect information, i. e., that the recursive procedure generates a Nash equilibrium under uncertainty (Dow and Werlang(1994)) of the whole game. We apply the notion for two well known games: the chain store and the centipede. On the one hand, we show that subgame perfection under Knightian uncertainty explains the chain store paradox in a one shot version. On the other hand, we show that subgame perfection under uncertainty does not account for the leaving behavior observed in the centipede game. This is in contrast to Dow, Orioli and Werlang(1996) where we explain by means of Nash equilibria under uncertainty (but not subgame perfect) the experiments of McKelvey and Palfrey(1992). Finally, we show that there may be nontrivial subgame perfect equilibria under uncertainty in more complex extensive form games, as in the case of the finitely repeated prisoner's dilemma, which accounts for cooperation in early stages of the game .
Resumo:
O presente estudo - até onde se sabe inédito no Brasil – possui como principal objetivo avaliar alguns determinantes das necessidades de capital de giro comumente estudados na literatura e analisar de que forma as empresas se movimentam em direção a uma meta (target) de Net Trade Cycle (similar ao Ciclo de Caixa - CCC). Sabemos que o tema capital de giro ainda carece de teorias mais robustas dentro da área de finanças, e poucos estudos ainda são encontrados na literatura. Aqueles que decidem estudá-lo, observam que dado o seu atual estágio, ele tem sido pesquisado com o suporte de bases teóricas mais consolidadas, como por exemplo estrutura de capitais. Esses estudos têm se utilizado muito do conceito de meta para determinar a estrutura ótima de capitais, e com qual velocidade de ajuste procura-se adequar essa estrutura como forma de otimizar seus recursos. O fato de ainda não existir definições e/ou teorias mais definidas sobre o tema foi o grande motivador para a realização desse estudo, que emprega a velocidade de ajuste em direção a uma meta de capital de giro, utilizando como técnica para suporte a esse objetivo o Modelo de Ajustamento Parcial (MAP) e o Generalized Method of Moments (GMM). Com essa combinação inédita no mercado brasileiro quando o assunto é capital de giro, esperamos trazer novas contribuições para as comunidades acadêmicas e empresariais. Para a obtenção dos dados que compõem esse estudo de caráter quantitativo, utilizamos informações existentes na Economatica® e BCB – Banco Central do Brasil. Nessas bases de dados utilizamos os demonstrativos financeiros trimestrais entre os períodos de 31/Dez./2007 a 30/Jun./2014 (ajustados por inflação – IPCA) das empresas listadas na BM&FBovespa que possuíssem pelos menos 15 períodos (trimestres) consecutivos de dados, com isso chegamos a um total de um pouco mais de 2 mil observações e 105 empresas. Quanto ao método, utilizamos Painel de Dados Dinâmico (desbalanceado) e as seguintes técnicas foram empregadas como forma de atender ao principal objetivo do estudo (“Qual é a velocidade de ajuste das Necessidades de Capital de Giro?”): Modelo de Ajustamento Parcial para a análise dos determinantes das necessidades de capital de giro e movimentação em direção a uma meta e; Generalized Method of Moments (GMM) como técnica de controle aos possíveis efeitos de endogeneidade (BLUNDELL e BOND, 1998) e solução para o problema de autocorrelação residual (PIRES, ZANI e NAKAMURA, 2013, p. 19).
Resumo:
Este estudo investiga o poder preditivo fora da amostra, um mês à frente, de um modelo baseado na regra de Taylor para previsão de taxas de câmbio. Revisamos trabalhos relevantes que concluem que modelos macroeconômicos podem explicar a taxa de câmbio de curto prazo. Também apresentamos estudos que são céticos em relação à capacidade de variáveis macroeconômicas preverem as variações cambiais. Para contribuir com o tema, este trabalho apresenta sua própria evidência através da implementação do modelo que demonstrou o melhor resultado preditivo descrito por Molodtsova e Papell (2009), o “symmetric Taylor rule model with heterogeneous coefficients, smoothing, and a constant”. Para isso, utilizamos uma amostra de 14 moedas em relação ao dólar norte-americano que permitiu a geração de previsões mensais fora da amostra de janeiro de 2000 até março de 2014. Assim como o critério adotado por Galimberti e Moura (2012), focamos em países que adotaram o regime de câmbio flutuante e metas de inflação, porém escolhemos moedas de países desenvolvidos e em desenvolvimento. Os resultados da nossa pesquisa corroboram o estudo de Rogoff e Stavrakeva (2008), ao constatar que a conclusão da previsibilidade da taxa de câmbio depende do teste estatístico adotado, sendo necessária a adoção de testes robustos e rigorosos para adequada avaliação do modelo. Após constatar não ser possível afirmar que o modelo implementado provém previsões mais precisas do que as de um passeio aleatório, avaliamos se, pelo menos, o modelo é capaz de gerar previsões “racionais”, ou “consistentes”. Para isso, usamos o arcabouço teórico e instrumental definido e implementado por Cheung e Chinn (1998) e concluímos que as previsões oriundas do modelo de regra de Taylor são “inconsistentes”. Finalmente, realizamos testes de causalidade de Granger com o intuito de verificar se os valores defasados dos retornos previstos pelo modelo estrutural explicam os valores contemporâneos observados. Apuramos que o modelo fundamental é incapaz de antecipar os retornos realizados.
Resumo:
O presente estudo tem como objetivo comparar e combinar diferentes técnicas de projeção para o PIB trimestral brasileiro de 1991 ao segundo trimestre de 2014, utilizando dados agregados, e dados desagregados com pesos fixos e estocásticos. Os modelos desagregados univariados e multivariados, assim como os pesos estocásticos, foram estimados pelo algoritmo Autometrics criado por Doornik (2009), através dos níveis de desagregação disponibilizados pelo IBGE no Sistema de Contas Nacionais. Os modelos agregados foram estimados pelo Autometrics, por Markov-Switching e por modelos estruturais de espaço-estado. A metodologia de comparação de projeções utilizada foi o Model Confidence Set, desenvolvida por Hanse, Lunde e Nason (2011). Foram realizadas duas simulações, sendo a primeira com a análise fora da amostra a partir de 2008, e a segunda a partir de 2000, com horizonte de projeção de até 6 passos à frente. Os resultados sugerem que os modelos desagregados com pesos fixos desempenham melhor nos dois primeiros passos, enquanto nos períodos restantes os modelos da série agregada geram melhores previsões.
Resumo:
Esse trabalho tem como objetivo investigar a relação entre três múltiplos específicos (Preço/Lucro, Preço/Valor Patrimonial e Preço/Vendas) e seus determinantes (crescimento, payout ratio, risco, ROE e margem líquida), de acordo com a teoria apresentada por Aswath Damodaran. Para verificar essas relações, foram utilizadas duas metodologias econométricas distintas: A Regressão Linear Múltipla e o Modelo de Dados em Painel. Os dados coletados são referentes às empresas listadas no índice de ações da Bolsa de Valores de São Paulo – iBOVESPA. Os resultados apurados por ambos os métodos não foram os mesmos verificados na teoria, pois alguns dos determinantes não apresentaram o comportamento esperado, e também não foram estatisticamente significantes. A principal contribuição desse trabalho é a utilização da metodologia de Dados em Painel para obter os resultados.
Resumo:
O presente trabalho busca ir além da decisão, capital próprio ou terceiro, e verificar a decisão de qual tipo de recurso terceiro angariar, portanto, analisa a composição do endividamento da empresa com relação à fonte de financiamento: recursos privados ou públicos. Logo, foram construídos modelos econométricos com o intuito de investigar quais características, por parte da empresa, são relevantes na escolha de qual fonte recorrer para financiar suas atividades. Foram utilizados dados em painel de empresas brasileiras não pertencentes ao setor de Finanças e Seguros, cujas ações são negociadas na Bolsa de Valores de São Paulo (BOVESPA). Neste trabalho foram investigadas variáveis das empresas referentes à qualidade e credibilidade das informações contábeis, total de ativos imobilizados, lucratividade, alavancagem, setor de atuação, tamanho da empresa e internacionalização. Os resultados indicaram que fatores como total de ativos imobilizados, alavancagem, lucratividade e alguns setores de atuação são relevantes para determinar a estratégia de financiamento da firma. A variável nível de disclosure, responsável por diferenciar a empresa que possui qualidade da informação contábil superior às demais, não apresentou ser significante, embora, com o sinal esperado. Portanto, os resultados sugerem que as empresas estudadas tendem a seguir a teoria da liquidação ineficiente quando tomam as suas decisões de financiamento.
Resumo:
Os Fundos de Investimento Imobiliários – FIIs – vem ganhando destaque como alternativas de investimento no Brasil. Segundo dados da BM&FBovespa, a média diária de volume negociado aumentou de R$600 mil em 2009 para R$27 milhões em 2014. No entanto, após o IFIX – Indíce de FIIs - atingir seu maior patamar histórico em Janeiro de 2013, este passou apresentar performance negativa, ao mesmo tempo que se observou um processo de elevação da curva de juros. O presente trabalho visa analisar o impacto de movimentos da curva de juros no desempenho dos FIIs. De forma a limitar as divergências encontradas na literatura internacional quanto à taxa de juros utilizada como proxy para a avaliação, utiliza-se da Análise de Componentes Principais para reduzir o número de variáveis, restringindo-se a uma variável de nível e uma de inclinação. Os resultados indicam que aumento no nível da curva de juros tem um impacto negativo no desempenho dos FIIs, ao passo que aumenta na inclinação também tem impacto negativo, mas não de forma relevante.
Resumo:
Este trabalho apresenta metodologia de mensuração e gestão de risco para empresas do ramo frigorífico. A ferramenta utilizada é conhecida como Earnings at Risk (EaR), e se adota uma visão top-down, que mostra a variação do resultado da empresa de acordo com variáveis explicativas de mercado e variáveis idiossincráticas. Através da eliminação de multicolinearidade entre essas variáveis com o uso da métrica de Análise de Componentes Principais (ACP), busca-se analisar como o novo EaR se comportaria frente ao enfoque usual, construído com um modelo de regressão linear múltipla. Variáveis dummy fazem parte do modelo de estimação do resultado futuro das empresas frigoríficas, relacionadas à ocorrência ou não de doenças que afetam o gado bovino, e à retirada de embargos econômicos de países importadores durante o período de análise. Ao fim do trabalho é verificado que as variáveis dummy não possuem relevância para a determinação de EaR, e que não se chega a conclusão de que o modelo de EaR com ACP se mostra melhor com menos variáveis, mantendo a mesma variância e significância estatística originais.