27 resultados para Box-Jenkins forecasting
em Repositório digital da Fundação Getúlio Vargas - FGV
Resumo:
Este trabalho compara procedimentos de previsão de preços de commodities, utilizados de maneira impírica pelos analistas de mercado, com os procedimentos fornecidos pela Análise de Séries Temporais. Aplicamos os métodos de previsão utilizando as Médias Móveis, os métodos baseados em Alisamentos exponenciais e principalmente os modelos ARIMA de Box-Jenkins. Estes últimos são, em geral, generalizações dos primeiros, com a vantagem de utilizar os instrumentos estatísticos de medidas das incertezas, como o desvio-padrão e os intervalos de confiança para as previsões
Resumo:
Este estudo teve como objetivo analisar a dinâmica da intervenção do Estado na economia através das experiências, em dois séculos de história, das economias capitalistas desenvolvidas do Reino Unido e da França. Sua elaboração foi fundamentada nas visões institucionalistas sobre a relação Estado-economiasociedade, e como método analítico foi empregado o modelo de análise de intervenção - caso especial dos modelos de transferência de BOX & JENKINS (1976). Os resultados decorrentes da aplicação do modelo, assim como, dos principais eventos históricos de cunhos econômico, político e social permitiram concluir que a intervenção do Estado surge como resposta ao princípio catalisador presente no seio dessa instituição, isto é, à transferência dos problemas e divergências (conflitos entre princípios reguladores da ordem social, entre capitais, entre atores sociais, entre países, etc.) de uma dada sociedade para um poder comum reconhecido e legalmente constituído, o Estado. Nesse sentido, por ser uma instituição criada por essa mesma sociedade age de acordo com o grande paradigma organizacional que a orienta, no caso o capitalismo. Destaque-se ainda a negação do pressuposto, presente em algumas teorias sobre o Estado, da autonomia relativa dos administradores do Estado (governo, homens públicos) no processo de tomada de decisão dos mecanismos de intervenção e de regulação adotados.
Resumo:
A previsão de demanda é uma atividade relevante pois influencia na tomada de decisão das organizações públicas e privadas. Este trabalho procura identificar modelos econométricos que apresentem bom poder preditivo para a demanda automotiva brasileira num horizonte de longo prazo, cinco anos, através do uso das séries de vendas mensais de automóveis, veículos comerciais leves e total, o período amostral é de 1970 a 2010. Foram estimados e avaliados os seguintes modelos: Auto-regressivo (Box-Jenkins, 1976), Estrutural (Harvey, 1989) e Mudança de Regime (Hamilton, 1994), incluindo efeitos calendário e dummies além dos testes de raízes unitárias sazonais e não-sazonais para as séries. A definição da acurácia dos modelos baseou-se no Erro Quadrático Médio (EQM) dos resultados apresentados na simulação da previsão de demanda dos últimos quinze anos (1995 a 2010).
Resumo:
Este trabalho compara modelos de séries temporais para a projeção de curto prazo da inflação brasileira, medida pelo Índice de Preços ao Consumidor Amplo (IPCA). Foram considerados modelos SARIMA de Box e Jenkins e modelos estruturais em espaço de estados, estimados pelo filtro de Kalman. Para a estimação dos modelos, foi utilizada a série do IPCA na base mensal, de março de 2003 a março de 2012. Os modelos SARIMA foram estimados no EVIEWS e os modelos estruturais no STAMP. Para a validação dos modelos para fora da amostra, foram consideradas as previsões 1 passo à frente para o período de abril de 2012 a março de 2013, tomando como base os principais critérios de avaliação de capacidade preditiva propostos na literatura. A conclusão do trabalho é que, embora o modelo estrutural permita, decompor a série em componentes com interpretação direta e estudá-las separadamente, além de incorporar variáveis explicativas de forma simples, o desempenho do modelo SARIMA para prever a inflação brasileira foi superior, no período e horizonte considerados. Outro importante aspecto positivo é que a implementação de um modelo SARIMA é imediata, e previsões a partir dele são obtidas de forma simples e direta.
Resumo:
O objetivo desta dissertação foi estimar a demanda de tratores agrícolas para o mercado brasileiro no triênio 2016-2018, utilizando-se para isto de técnicas de econometria de séries temporais, neste caso, modelos univariados da classe ARIMA e SARIMA e ou multivariados SARIMAX. Justifica-se esta pesquisa quando se observa a indústria de máquinas agrícolas no Brasil, dados os ciclos econômicos e outros fatores exógenos aos fundamentos econômicos da demanda, onde esta enfrenta muitos desafios. Dentre estes, a estimação de demanda se destaca, pois exerce forte impacto, por exemplo, no planejamento e custo de produção de curto e médio prazo, níveis de inventários, na relação com fornecedores de materiais e de mão de obra local, e por consequência na geração de valor para o acionista. Durante a fase de revisão bibliográfica foram encontrados vários trabalhos científicos que abordam o agronegócio e suas diversas áreas de atuação, porém, não foram encontrados trabalhos científicos publicados no Brasil que abordassem a previsão da demanda de tratores agrícolas no Brasil, o que serviu de motivação para agregar conhecimento à academia e valor ao mercado através deste. Concluiu-se, após testes realizados com diversos modelos que estão dispostos no texto e apêndices, que o modelo univariado SARIMA (15,1,1) (1,1,1) cumpriu as premissas estabelecidas nos objetivos específicos para escolha do modelo que melhor se ajusta aos dados, e foi escolhido então, como o modelo para estimação da demanda de tratores agrícolas no Brasil. Os resultados desta pesquisa apontam para uma demanda de tratores agrícolas no Brasil oscilando entre 46.000 e 49.000 unidades ano entre os anos de 2016 e 2018.
Resumo:
Using vector autoregressive (VAR) models and Monte-Carlo simulation methods we investigate the potential gains for forecasting accuracy and estimation uncertainty of two commonly used restrictions arising from economic relationships. The Örst reduces parameter space by imposing long-term restrictions on the behavior of economic variables as discussed by the literature on cointegration, and the second reduces parameter space by imposing short-term restrictions as discussed by the literature on serial-correlation common features (SCCF). Our simulations cover three important issues on model building, estimation, and forecasting. First, we examine the performance of standard and modiÖed information criteria in choosing lag length for cointegrated VARs with SCCF restrictions. Second, we provide a comparison of forecasting accuracy of Ötted VARs when only cointegration restrictions are imposed and when cointegration and SCCF restrictions are jointly imposed. Third, we propose a new estimation algorithm where short- and long-term restrictions interact to estimate the cointegrating and the cofeature spaces respectively. We have three basic results. First, ignoring SCCF restrictions has a high cost in terms of model selection, because standard information criteria chooses too frequently inconsistent models, with too small a lag length. Criteria selecting lag and rank simultaneously have a superior performance in this case. Second, this translates into a superior forecasting performance of the restricted VECM over the VECM, with important improvements in forecasting accuracy ñreaching more than 100% in extreme cases. Third, the new algorithm proposed here fares very well in terms of parameter estimation, even when we consider the estimation of long-term parameters, opening up the discussion of joint estimation of short- and long-term parameters in VAR models.
Resumo:
Parametric term structure models have been successfully applied to innumerous problems in fixed income markets, including pricing, hedging, managing risk, as well as studying monetary policy implications. On their turn, dynamic term structure models, equipped with stronger economic structure, have been mainly adopted to price derivatives and explain empirical stylized facts. In this paper, we combine flavors of those two classes of models to test if no-arbitrage affects forecasting. We construct cross section (allowing arbitrages) and arbitrage-free versions of a parametric polynomial model to analyze how well they predict out-of-sample interest rates. Based on U.S. Treasury yield data, we find that no-arbitrage restrictions significantly improve forecasts. Arbitrage-free versions achieve overall smaller biases and Root Mean Square Errors for most maturities and forecasting horizons. Furthermore, a decomposition of forecasts into forward-rates and holding return premia indicates that the superior performance of no-arbitrage versions is due to a better identification of bond risk premium.
Resumo:
In this paper, we propose a novel approach to econometric forecasting of stationary and ergodic time series within a panel-data framework. Our key element is to employ the (feasible) bias-corrected average forecast. Using panel-data sequential asymptotics we show that it is potentially superior to other techniques in several contexts. In particular, it is asymptotically equivalent to the conditional expectation, i.e., has an optimal limiting mean-squared error. We also develop a zeromean test for the average bias and discuss the forecast-combination puzzle in small and large samples. Monte-Carlo simulations are conducted to evaluate the performance of the feasible bias-corrected average forecast in finite samples. An empirical exercise based upon data from a well known survey is also presented. Overall, theoretical and empirical results show promise for the feasible bias-corrected average forecast.
Resumo:
In this paper, we propose a novel approach to econometric forecasting of stationary and ergodic time series within a panel-data framework. Our key element is to employ the bias-corrected average forecast. Using panel-data sequential asymptotics we show that it is potentially superior to other techniques in several contexts. In particular it delivers a zero-limiting mean-squared error if the number of forecasts and the number of post-sample time periods is sufficiently large. We also develop a zero-mean test for the average bias. Monte-Carlo simulations are conducted to evaluate the performance of this new technique in finite samples. An empirical exercise, based upon data from well known surveys is also presented. Overall, these results show promise for the bias-corrected average forecast.
Resumo:
In this paper, we propose a novel approach to econometric forecasting of stationary and ergodic time series within a panel-data framework. Our key element is to employ the (feasible) bias-corrected average forecast. Using panel-data sequential asymptotics we show that it is potentially superior to other techniques in several contexts. In particular, it is asymptotically equivalent to the conditional expectation, i.e., has an optimal limiting mean-squared error. We also develop a zeromean test for the average bias and discuss the forecast-combination puzzle in small and large samples. Monte-Carlo simulations are conducted to evaluate the performance of the feasible bias-corrected average forecast in finite samples. An empirical exercise, based upon data from a well known survey is also presented. Overall, these results show promise for the feasible bias-corrected average forecast.
Resumo:
Trata da nova metodologia de planejamento colaborativo, previsão e reabastecimento, conhecida pela sigla CPFR. Aborda as principais lacunas das metodologias tradicionais, as oportunidades de negócios geradas, o modelo de negócios proposto pelo CPF R e suas etapas de implementação, as implicações sobre a organização, os principais problemas de implementação, metodologias e ferramentas de integração presentes nas empresas que utilizam o CPFR. Aponta oportunidades geradas pelo CPFR e características de integração presentes nas empresas que já utilizam o conceito.
Resumo:
We study the joint determination of the lag length, the dimension of the cointegrating space and the rank of the matrix of short-run parameters of a vector autoregressive (VAR) model using model selection criteria. We consider model selection criteria which have data-dependent penalties for a lack of parsimony, as well as the traditional ones. We suggest a new procedure which is a hybrid of traditional criteria and criteria with data-dependant penalties. In order to compute the fit of each model, we propose an iterative procedure to compute the maximum likelihood estimates of parameters of a VAR model with short-run and long-run restrictions. Our Monte Carlo simulations measure the improvements in forecasting accuracy that can arise from the joint determination of lag-length and rank, relative to the commonly used procedure of selecting the lag-length only and then testing for cointegration.
Resumo:
We study the joint determination of the lag length, the dimension of the cointegrating space and the rank of the matrix of short-run parameters of a vector autoregressive (VAR) model using model selection criteria. We consider model selection criteria which have data-dependent penalties as well as the traditional ones. We suggest a new two-step model selection procedure which is a hybrid of traditional criteria and criteria with data-dependant penalties and we prove its consistency. Our Monte Carlo simulations measure the improvements in forecasting accuracy that can arise from the joint determination of lag-length and rank using our proposed procedure, relative to an unrestricted VAR or a cointegrated VAR estimated by the commonly used procedure of selecting the lag-length only and then testing for cointegration. Two empirical applications forecasting Brazilian inflation and U.S. macroeconomic aggregates growth rates respectively show the usefulness of the model-selection strategy proposed here. The gains in different measures of forecasting accuracy are substantial, especially for short horizons.
Resumo:
This paper studies the electricity hourly load demand in the area covered by a utility situated in the southeast of Brazil. We propose a stochastic model which employs generalized long memory (by means of Gegenbauer processes) to model the seasonal behavior of the load. The model is proposed for sectional data, that is, each hour’s load is studied separately as a single series. This approach avoids modeling the intricate intra-day pattern (load profile) displayed by the load, which varies throughout days of the week and seasons. The forecasting performance of the model is compared with a SARIMA benchmark using the years of 1999 and 2000 as the out-of-sample. The model clearly outperforms the benchmark. We conclude for general long memory in the series.
Resumo:
This paper studies the electricity load demand behavior during the 2001 rationing period, which was implemented because of the Brazilian energetic crisis. The hourly data refers to a utility situated in the southeast of the country. We use the model proposed by Soares and Souza (2003), making use of generalized long memory to model the seasonal behavior of the load. The rationing period is shown to have imposed a structural break in the series, decreasing the load at about 20%. Even so, the forecast accuracy is decreased only marginally, and the forecasts rapidly readapt to the new situation. The forecast errors from this model also permit verifying the public response to pieces of information released regarding the crisis.