17 resultados para Beveridge-Nelson decomposition
em Repositório digital da Fundação Getúlio Vargas - FGV
Resumo:
Lucas (1987) has shown the surprising result that the welfare cost of business cycles is quite small. Using standard assumptions on preferences and a fully-áedged econometric model we computed the welfare costs of macroeconomic uncertainty for the post-WWII era using the multivariate Beveridge-Nelson decomposition for trends and cycles, which considers not only business-cycle uncertainty but also uncertainty from the stochastic trend in consumption. The post-WWII period is relatively quiet, with the welfare costs of uncertainty being about 0:9% of per-capita consumption. Although changing the decomposition method changed substantially initial results, the welfare cost of uncertainty is qualitatively small in the post-WWII era - about $175.00 a year per-capita in the U.S. We also computed the marginal welfare cost of macroeconomic uncertainty using this same technique. It is about twice as large as the welfare cost ñ$350.00 a year per-capita.
Resumo:
With standard assumptions on preferences and a fully-fledged econometric model we computed the welfare costs of macroeconomic uncertainty for post-war U.S. using the BeveridgeNelson decomposition. Welfare costs are about 0.9% per-capita consumption ($175.00) and marginal welfare costs are about twice as large.
Resumo:
The main objective of this paper is to propose a novel setup that allows estimating separately the welfare costs of the uncertainty stemming from business-cycle uctuations and from economic-growth variation, when the two types of shocks associated with them (respectively,transitory and permanent shocks) hit consumption simultaneously. Separating these welfare costs requires dealing with degenerate bivariate distributions. Levis Continuity Theorem and the Disintegration Theorem allow us to adequately de ne the one-dimensional limiting marginal distributions. Under Normality, we show that the parameters of the original marginal distributions are not afected, providing the means for calculating separately the welfare costs of business-cycle uctuations and of economic-growth variation. Our empirical results show that, if we consider only transitory shocks, the welfare cost of business cycles is much smaller than previously thought. Indeed, we found it to be negative - -0:03% of per-capita consumption! On the other hand, we found that the welfare cost of economic-growth variation is relatively large. Our estimate for reasonable preference-parameter values shows that it is 0:71% of consumption US$ 208:98 per person, per year.
Resumo:
Lucas (1987) has shown a surprising result in business-cycle research, that the welfare cost of business cycles are relatively small. Using standard assumptions on preferences and a reasonable reduced form for consumption, we computed these welfare costs for the pre- and post-WWII era, using three alternative trend-cycle decomposition methods. The post-WWII period is very era this basic result is dramatically altered. For the Beveridge and Nelson decomposition, and reasonable preference parameter and discount values, we get a compensation of about 5% of consumption, which is by all means a sizable welfare cost (about US$ 1,000.00 a year).
Resumo:
Esta tese de doutorado está composta por quatro ensaios em macroeconometria e finanças com aplicações nas áreas de abertura comercial, custo de bem estar do ciclo de negócios e taxas de juros. No primeiro ensaio analisamos o comportamento da indústria de transformação após as reformas implantadas na década de noventa. Verificamos se o processo de abertura gerou aumentos da produtividade média da indústria de transformação. Adicionalmente, estimamos o mark-up de diferentes setores industriais e testamos se este se modifica após a abertura comercial. Os resultados das estimações indicam a existência de um significativo aumento na produtividade industrial na maior parte dos setores estudados. O canal para este aumento de produtividade, aparentemente, não é o aumento da concorrência, já que não há evidência estatística de redução de mark-up. Este é talvez o resultado mais surpreendente do artigo, o fato de que o mark-up não se modificar significativamente após a abertura comercial. Os setores estimados como não concorrenciais antes da abertura continuaram a ser depois dela. Acesso a insumo importados e uso de novas tecnologias podem ser possíveis canais de aumento de produtividade. Este resultado está em desacordo com Moreira (1999) que constrói diretamente dos dados medidas de mark-up. No segundo ensaio testamos a Hipótese das Expectativas Racionais (HER) para a estrutura a termo brasileira. Examinamos várias combinações de prazos entre 1 dia e 1 ano, seguindo a metodologia adotada pelo Banco Central do Brasil, para o período de Julho de 1996 a Dezembro de 2001. Mostramos que: (i) os coeficientes estimados dos diferenciais de rendimento entre as taxas longa e curta (yield spreads) nas equações de mudança de curto prazo da taxa longa e nas equações de mudança de longo prazo da taxa curta são imprecisos e incapazes de rejeitarem a HER; e (ii) diferenciais de rendimento altamente correlacionados com as previsões de expectativas racionais das futuras mudanças das taxas curtas, mas significativamente mais voláteis que estas últimas, sugerem a rejeição da HER. A hipótese alternativa de reação exagerada (overreaction) do diferencial de rendimento em relação à expectativa das futuras variações da taxa curta parece uma explicação razoável para as evidências, com implicações para a política monetária e para a gestão de investimentos. No terceiro ensaio estudamos o custo de bem-estar dos ciclos de negócios. Robert Lucas (1987) mostrou um resultado surpreendente para a literatura de ciclos de negócios, o custo de bem-estar, por ele calculado, é muito pequeno (US$ 8,50 por ano). Modelamos as preferências por funções com elasticidade de substituição constante e uma forma reduzida para o consumo razoável. Construímos dados seculares para a economia americana e computamos o custo de bem-estar para dois períodos distintos, pré e pós-segunda guerra mundial, usando três formas alternativas de decomposição tendência-ciclo, com foco na decomposição de Beveridge-Nelson. O período pós-guerra foi calmo, com um custo de bem-estar que raramente ultrapassa 1% do consumo per-capita (US$ 200,00 por ano). Para o período pré-guerra há uma alteração drástica nos resultados, se utilizamos a decomposição de Beveridge-Nelson encontramos uma compensação de 5% do consumo per-capita (US$ 1.000,00 por ano) com parâmetros de preferências e desconto intertemporal razoáveis. Mesmo para métodos alternativos, como o modelo com tendência linear, encontramos um custo de bem estar de 2% do consumo per-capita (US$ 400,00 por ano). Deste estudo podemos concluir: (i) olhando para dados pós-guerra, o custo de bem-estar dos ciclos de negócios marginal é pequeno, o que depõe contra a intensificação de políticas anticíclicas, sendo que do ponto de vista do consumidor pré-segunda guerra este custo é considerável; e (ii) o custo de bem-estar dos ciclos de negócios caiu de 5% para 0.3% do consumo per-capita, do período pré para o período pós-guerra, se esta redução é resultado de políticas anticíclicas, estas políticas foram muito bem sucedidas. Por último, no quarto ensaio analisamos o comportamento da taxa de juros livre de risco - cupom cambial - na economia brasileira para o período de 20 de janeiro de 1999 a 30 de julho de 2003. Identificamos os componentes de curto e longo prazo de três medidas de taxa de retorno, as quais foram submetidas aos tratamentos econométricos propostos em Vahid e Engle (1993) e Proietti (1997). Os resultados sugerem a convergência das taxas de retorno para um equilíbrio de longo prazo. Identificamos a dominância do componente de longo prazo na determinação da trajetória do Prêmio do C-BOND e do componente de curto prazo no caso do Prêmio do Swap Cambial. Já para o Prêmio Descoberto de Juros não conseguimos identificar o domínio de qualquer componente. Associando o componente de longo prazo aos fundamentos da economia e os componentes de curto prazo a choques nominais, poderíamos dizer que, em termos relativos, o Prêmio do C-BOND estaria mais fortemente ligado aos fundamentos e o Prêmio do Swap Cambial a choques nominais.
Resumo:
It is well known that cointegration between the level of two variables (labeled Yt and yt in this paper) is a necessary condition to assess the empirical validity of a present-value model (PV and PVM, respectively, hereafter) linking them. The work on cointegration has been so prevalent that it is often overlooked that another necessary condition for the PVM to hold is that the forecast error entailed by the model is orthogonal to the past. The basis of this result is the use of rational expectations in forecasting future values of variables in the PVM. If this condition fails, the present-value equation will not be valid, since it will contain an additional term capturing the (non-zero) conditional expected value of future error terms. Our article has a few novel contributions, but two stand out. First, in testing for PVMs, we advise to split the restrictions implied by PV relationships into orthogonality conditions (or reduced rank restrictions) before additional tests on the value of parameters. We show that PV relationships entail a weak-form common feature relationship as in Hecq, Palm, and Urbain (2006) and in Athanasopoulos, Guillén, Issler and Vahid (2011) and also a polynomial serial-correlation common feature relationship as in Cubadda and Hecq (2001), which represent restrictions on dynamic models which allow several tests for the existence of PV relationships to be used. Because these relationships occur mostly with nancial data, we propose tests based on generalized method of moment (GMM) estimates, where it is straightforward to propose robust tests in the presence of heteroskedasticity. We also propose a robust Wald test developed to investigate the presence of reduced rank models. Their performance is evaluated in a Monte-Carlo exercise. Second, in the context of asset pricing, we propose applying a permanent-transitory (PT) decomposition based on Beveridge and Nelson (1981), which focus on extracting the long-run component of asset prices, a key concept in modern nancial theory as discussed in Alvarez and Jermann (2005), Hansen and Scheinkman (2009), and Nieuwerburgh, Lustig, Verdelhan (2010). Here again we can exploit the results developed in the common cycle literature to easily extract permament and transitory components under both long and also short-run restrictions. The techniques discussed herein are applied to long span annual data on long- and short-term interest rates and on price and dividend for the U.S. economy. In both applications we do not reject the existence of a common cyclical feature vector linking these two series. Extracting the long-run component shows the usefulness of our approach and highlights the presence of asset-pricing bubbles.
Resumo:
Este artigo analisa a série de consumo agregado do Brasil. Como usual, investigamos, primeiramente, a aplicabilidade da hipótese do passeio aleatório do consumo, derivada teoricamente a partir das hipóteses de ciclo de vida/renda permanente e expectativas racionais (TRP). Utilizando a decomposição de Beveridge e Nelson (1981) verificamos que o consumo apresenta, além de uma tendência estocástica, uma parte cíclica estacionária, o que não é compatível com a TRP. Este resultado está em conformidade com o resultado de Reis et alii (1998) de que grande parte da população brasileira está restrita a consumir sua renda corrente, existindo um ciclo comum entre consumo e renda. Em uma tentativa de gerar um processo estocástico para o consumo compatível com a evidência empírica introduzimos formação de hábito nas preferências de um consumidor representativo. No entanto, o processo daí derivado não se mostrou significativo diante da possibilidade dos consumidores serem restritos à liquidez.
Resumo:
This Paper Tackles the Problem of Aggregate Tfp Measurement Using Stochastic Frontier Analysis (Sfa). Data From Penn World Table 6.1 are Used to Estimate a World Production Frontier For a Sample of 75 Countries Over a Long Period (1950-2000) Taking Advantage of the Model Offered By Battese and Coelli (1992). We Also Apply the Decomposition of Tfp Suggested By Bauer (1990) and Kumbhakar (2000) to a Smaller Sample of 36 Countries Over the Period 1970-2000 in Order to Evaluate the Effects of Changes in Efficiency (Technical and Allocative), Scale Effects and Technical Change. This Allows Us to Analyze the Role of Productivity and Its Components in Economic Growth of Developed and Developing Nations in Addition to the Importance of Factor Accumulation. Although not Much Explored in the Study of Economic Growth, Frontier Techniques Seem to Be of Particular Interest For That Purpose Since the Separation of Efficiency Effects and Technical Change Has a Direct Interpretation in Terms of the Catch-Up Debate. The Estimated Technical Efficiency Scores Reveal the Efficiency of Nations in the Production of Non Tradable Goods Since the Gdp Series Used is Ppp-Adjusted. We Also Provide a Second Set of Efficiency Scores Corrected in Order to Reveal Efficiency in the Production of Tradable Goods and Rank Them. When Compared to the Rankings of Productivity Indexes Offered By Non-Frontier Studies of Hall and Jones (1996) and Islam (1995) Our Ranking Shows a Somewhat More Intuitive Order of Countries. Rankings of the Technical Change and Scale Effects Components of Tfp Change are Also Very Intuitive. We Also Show That Productivity is Responsible For Virtually All the Differences of Performance Between Developed and Developing Countries in Terms of Rates of Growth of Income Per Worker. More Important, We Find That Changes in Allocative Efficiency Play a Crucial Role in Explaining Differences in the Productivity of Developed and Developing Nations, Even Larger Than the One Played By the Technology Gap
Resumo:
Esse trabalho é uma aplicação do modelo intertemporal de apreçamento de ativos desenvolvido por Campbell (1993) e Campbell e Vuolteenaho (2004) para as carteiras de Fama-French 2x3 brasileiras no period de janeiro de 2003 a abril de 2012 e para as carteiras de Fama-French 5x5 americanas em diferentes períodos. As varíaveis sugeridas por Campbell e Vuolteenaho (2004) para prever os excessos de retorno do mercado acionário americano no period de 1929 a 2001 mostraram-se também bons preditores de excesso de retorno para o mercado brasileiro no período recente, com exceção da inclinação da estrutura a termo das taxas de juros. Entretanto, mostramos que um aumento no small stock value spread indica maior excesso de retorno no futuro, comportamento que não é coerente com a explicação para o prêmio de valor sugerida pelo modelo intertemporal. Ainda, utilizando os resíduos do VAR preditivo para definir o risco de choques de fluxo de caixa e de choques nas taxas de desconto das carteiras de teste, verificamos que o modelo intertemporal resultante não explica adequadamente os retornos observados. Para o mercado norte-americano, concluímos que a abilidade das variáveis propostas para explicar os excessos de retorno do mercado varia no tempo. O sucesso de Campbell e Vuolteenaho (2004) em explicar o prêmio de valor para o mercado norte-americano na amostra de 1963 a 2001 é resultado da especificação do VAR na amostra completa, pois mostramos que nenhuma das varíaveis é um preditor de retorno estatisticamente significante nessa sub-amostra.
Resumo:
Esta pesquisa busca testar a eficácia de uma estratégia de arbitragem de taxas de juros no Brasil baseada na utilização do modelo de Nelson-Siegel dinâmico aplicada à curva de contratos futuros de taxa de juros de 1 dia da BM&FBovespa para o período compreendido entre 02 de janeiro de 2008 e 03 de dezembro de 2012. O trabalho adapta para o mercado brasileiro o modelo original proposto por Nelson e Siegel (1987), e algumas de suas extensões e interpretações, chegando a um dos modelos propostos por Diebold, Rudebusch e Aruoba (2006), no qual estimam os parâmetros do modelo de Nelson-Siegel em uma única etapa, colocando-o em formato de espaço de estados e utilizando o Filtro de Kalman para realizar a previsão dos fatores, assumindo que o comportamento dos mesmos é um VAR de ordem 1. Desta maneira, o modelo possui a vantagem de que todos os parâmetros são estimados simultaneamente, e os autores mostraram que este modelo possui bom poder preditivo. Os resultados da estratégia adotada foram animadores quando considerados para negociação apenas os 7 primeiros vencimentos abertos para negociação na BM&FBovespa, que possuem maturidade máxima próxima a 1 ano.
Resumo:
A tradicional representação da estrutura a termo das taxas de juros em três fatores latentes (nível, inclinação e curvatura) teve sua formulação original desenvolvida por Charles R. Nelson e Andrew F. Siegel em 1987. Desde então, diversas aplicações vêm sendo desenvolvidas por acadêmicos e profissionais de mercado tendo como base esta classe de modelos, sobretudo com a intenção de antecipar movimentos nas curvas de juros. Ao mesmo tempo, estudos recentes como os de Diebold, Piazzesi e Rudebusch (2010), Diebold, Rudebusch e Aruoba (2006), Pooter, Ravazallo e van Dijk (2010) e Li, Niu e Zeng (2012) sugerem que a incorporação de informação macroeconômica aos modelos da ETTJ pode proporcionar um maior poder preditivo. Neste trabalho, a versão dinâmica do modelo Nelson-Siegel, conforme proposta por Diebold e Li (2006), foi comparada a um modelo análogo, em que são incluídas variáveis exógenas macroeconômicas. Em paralelo, foram testados dois métodos diferentes para a estimação dos parâmetros: a tradicional abordagem em dois passos (Two-Step DNS), e a estimação com o Filtro de Kalman Estendido, que permite que os parâmetros sejam estimados recursivamente, a cada vez que uma nova informação é adicionada ao sistema. Em relação aos modelos testados, os resultados encontrados mostram-se pouco conclusivos, apontando uma melhora apenas marginal nas estimativas dentro e fora da amostra quando as variáveis exógenas são incluídas. Já a utilização do Filtro de Kalman Estendido mostrou resultados mais consistentes quando comparados ao método em dois passos para praticamente todos os horizontes de tempo estudados.
Resumo:
A presente dissertação tem como objetivo apresentar dois importantes modelos usados na análise de risco. Essa análise culmina em uma aplicação empírica para cada um deles. Apresenta-se primeiro o modelo Nelson-Siegel dinâmico, que estima a curva de juros usando um modelo paramétrico exponencial parcimonioso. É citada a referência criadora dessa abordagem, que é Nelson & Siegel (1987), passa-se pela apresentação da mais importante abordagem moderna que é a de Diebold & Li (2006), que é quem cria a abordagem dinâmica do modelo Nelson-Siegel, e que é inspiradora de diversas extensões. Muitas dessas extensões também são apresentadas aqui. Na parte empírica, usando dados da taxa a termo americana de Janeiro de 2004 a Março de 2015, estimam-se os modelos Nelson-Siegel dinâmico e de Svensson e comparam-se os resultados numa janela móvel de 12 meses e comparamos seus desempenhos com aqueles de um passeio aleatório. Em seguida, são apresentados os modelos ARCH e GARCH, citando as obras originais de Engle (1982) e Bolleslev (1986) respectivamente, discutem-se características destes modelos e apresentam-se algumas extensões ao modelo GARCH, incluindo aí alguns modelos GARCH multivariados. Passa-se então por uma rápida apresentação do conceito de VaR (Value at Risk), que será o objetivo da parte empírica. Nesta, usando dados de 02 de Janeiro de 2004 até 25 de Fevereiro de 2015, são feitas uma estimação da variância de um portfólio usando os modelos GARCH, GJR-GARCH e EGARCH e uma previsão do VaR do portfólio a partir da estimação feita anteriormente. Por fim, são apresentados alguns trabalhos que usam os dois modelos conjuntamente, ou seja, que consideram que as taxas ou os fatores que as podem explicam possuem variância variante no tempo.
Resumo:
A modelagem da estrutura a termo da taxa juros tem grande relevância para o mercado financeiro, isso se deve ao fato de ser utilizada na precificação de títulos de crédito e derivativos, ser componente fundamental nas políticas econômicas e auxiliar a criação de estratégias trading. A classe de modelos criada por Nelson-Siegel (1987), foi estendida por diversos autores e atualmente é largamente utilizada por diversos bancos centrais ao redor do mundo. Nesse trabalho utilizaremos a extensão proposta por Diebold e Li (2006) aplicada para o mercado brasileiro, os parâmetros serão calibrados através do Filtro de Kalman e do Filtro de Kalman Estendido, sendo que o último método permitirá estimar com dinamismo os quatros parâmetros do modelo. Como mencionado por Durbin e Koopman (2012), as fórmulas envolvidas no filtro de Kalman e em sua versão estendida não impõe condições de dimensão constante do vetor de observações. Partindo desse conceito, a implementação dos filtros foi feita de forma a possibilitar sua aplicação independentemente do número de observações da curva de juros em cada instante de tempo, dispensando a necessidade de interpolar os dados antes da calibração. Isso ajuda a refletir mais fielmente a realidade do mercado e relaxar as hipóteses assumidas ao interpolar previamente para obter vértices fixos. Também será testada uma nova proposta de adaptação do modelo de Nelson-Siegel, nela o parâmetro de nível será condicionado aos títulos terem vencimento antes ou depois da próxima reunião do Copom. O objetivo é comparar qualidade da predição entre os métodos, pontuando quais são as vantagens e desvantagens encontradas em cada um deles.
Resumo:
Este trabalho se reivindica como um subproduto do projeto de pesquisa “História Oral do Supremo [1988-2013]”, realizado através de uma parceria entre a FGV Direito Rio, FGV Direito SP e CPDOC. Durante minha participação no projeto, diversos temas despertaram interesse, em especial a relação entre o Direito e a Política. A partir desse tema, optamos por realizar um estudo de caso que nos permitisse observar a relação entre as elites jurídicas e políticas. Para isso, escolhemos a entrevista do Ministro Nelson Jobim, concedida ao projeto de pesquisa. O que observamos foi mais do que seu trânsito por essas elites: há uma verdadeira confusão entre as práticas jurídicas e políticas que são narradas. Práticas jurídicas foram utilizadas no espaço político, práticas políticas, no espaço jurídico. Sendo assim, nossos objetivos foram identificar esses momentos na entrevista e concluir de que forma eles explicam o posicionamento de Jobim nessas elites. Assim, concluímos que o seu posicionamento em cada uma das elites, não é explicado somente pelas práticas daquele campo. O capital jurídico não é suficiente para explicar sua posição na elite jurídica, tal como seu capital político não é suficiente para explicar sua posição na elite política, somente o conjunto desses capitais é.
Resumo:
Este volume é parte integrante do projeto “História Oral do Supremo”, uma contribuição da FGV para a história contemporânea do Brasil. Nas páginas a seguir, o leitor encontrará a narrativa do ministro Nelson Jobim sobre sua própria trajetória, marcada notadamente pela atividade de magistrado na nossa mais alta corte.