185 resultados para Previsión económica - Modelos matemáticos - Tesis doctorales
Previsão da expedição de papelão ondulado a partir de modelos com variáveis agregadas e desagregadas
Resumo:
O presente trabalho visa comparar o poder preditivo das previsões feitas a partir de diferentes metodologias aplicadas para a série de expedição brasileira de papelão ondulado. Os dados de expedição de papelão ondulado serão decompostos pelas categorias industriais de destino das caixas e serão feitos modelos do tipo SARIMA univariados para cada setor. As previsões das séries desagregadas serão então agregadas, para compor a previsão da série total de expedição. A previsão feita a partir da somatória das categorias industriais será comparada com um SARIMA univariado da série agregada, a fim de verificar qual dos dois métodos resulta em um modelo com melhor acurácia. Essa comparação será feita a partir da metodologia desenvolvida por Diebold e Mariano (1995).
Resumo:
A formação de emulsão de água-em-óleo gera um significativo incremento na viscosidade, o que afeta diretamente a produção do poço, pois aumenta a perda de carga ao longo da linha de produção, dificultando o escoamento e diminuindo a produção de óleo. A presença e natureza da emulsão, e seu impacto na reologia do petróleo, podem determinar a viabilidade econômica e técnica dos processos envolvidos. A medida que a fração de água aumenta e a temperatura é reduzida, o comportamento das emulsões se torna cada vez mais não-Newtoniano. A decorrência disso, é que a temperatura e a taxa de cisalhamento passam a ter maior impacto na variação da viscosidade das emulsões. Nesse estudo são propostos novos métodos que levam em conta essas variáveis. Os dados reológicos experimentais de 15 petróleos leves foram utilizados para avaliar o desempenho dos modelos existentes na literatura e compará-los com os novos métodos propostos nesse estudo.
Resumo:
A presente dissertação tem como objetivo apresentar dois importantes modelos usados na análise de risco. Essa análise culmina em uma aplicação empírica para cada um deles. Apresenta-se primeiro o modelo Nelson-Siegel dinâmico, que estima a curva de juros usando um modelo paramétrico exponencial parcimonioso. É citada a referência criadora dessa abordagem, que é Nelson & Siegel (1987), passa-se pela apresentação da mais importante abordagem moderna que é a de Diebold & Li (2006), que é quem cria a abordagem dinâmica do modelo Nelson-Siegel, e que é inspiradora de diversas extensões. Muitas dessas extensões também são apresentadas aqui. Na parte empírica, usando dados da taxa a termo americana de Janeiro de 2004 a Março de 2015, estimam-se os modelos Nelson-Siegel dinâmico e de Svensson e comparam-se os resultados numa janela móvel de 12 meses e comparamos seus desempenhos com aqueles de um passeio aleatório. Em seguida, são apresentados os modelos ARCH e GARCH, citando as obras originais de Engle (1982) e Bolleslev (1986) respectivamente, discutem-se características destes modelos e apresentam-se algumas extensões ao modelo GARCH, incluindo aí alguns modelos GARCH multivariados. Passa-se então por uma rápida apresentação do conceito de VaR (Value at Risk), que será o objetivo da parte empírica. Nesta, usando dados de 02 de Janeiro de 2004 até 25 de Fevereiro de 2015, são feitas uma estimação da variância de um portfólio usando os modelos GARCH, GJR-GARCH e EGARCH e uma previsão do VaR do portfólio a partir da estimação feita anteriormente. Por fim, são apresentados alguns trabalhos que usam os dois modelos conjuntamente, ou seja, que consideram que as taxas ou os fatores que as podem explicam possuem variância variante no tempo.
Resumo:
A partir de Buiter e Miller (1981), Obstfeld (1983), Sachs (1981), Svensson e Razin (1983) e alguns outros, a abordagem intertemporal da conta-corrente passou a receber atenção crescente da literatura. Desde então os estudos empíricos não são unânimes em atestar sua validade e, dessa forma, a evidência empírica tem sido mista. Mais recentemente, Corsetti e Konstantinou (2009) caracterizam empiricamente a dinâmica conjunta da conta-corrente, ativos e passivos externos a valor de mercado e produto líquido para os EUA no período pós Bretton Woods. Ao contrário da maioria das outras publicações, Corsetti e Konstantinou (2009) são pouco restritivos no que diz respeito às premissas. Neste trabalho buscou-se aplicar a mesma metodologia emprega por Corsetti e Konstantinou (2009) para analisar o equilíbrio externo do Brasil entre 1990 e 2014, período no qual diversos choques afetaram a economia brasileira. São identificados os componentes transitórios e permanentes para a dinâmica conjunta das quatro variáveis básicas da restrição intertemporal da economia, ou seja: Consumo, Produto Líquido, Ativos externos e Passivos externos. O presente trabalho sugere que existem evidências da validade da abordagem intertemporal da conta-corrente para o Brasil, mesmo a análise sendo feita em uma amostra em que estão presentes choques significantes que afetaram a economia brasileira.
Resumo:
O presente trabalho tem como objetivo avaliar a capacidade preditiva de modelos econométricos de séries de tempo baseados em indicadores macroeconômicos na previsão da inflação brasileira (IPCA). Os modelos serão ajustados utilizando dados dentro da amostra e suas projeções ex-post serão acumuladas de um a doze meses à frente. As previsões serão comparadas a de modelos univariados como autoregressivo de primeira ordem - AR(1) - que nesse estudo será o benchmark escolhido. O período da amostra vai de janeiro de 2000 até agosto de 2015 para ajuste dos modelos e posterior avaliação. Ao todo foram avaliadas 1170 diferentes variáveis econômicas a cada período a ser projetado, procurando o melhor conjunto preditores para cada ponto no tempo. Utilizou-se o algoritmo Autometrics para a seleção de modelos. A comparação dos modelos foi feita através do Model Confidence Set desenvolvido por Hansen, Lunde e Nason (2010). Os resultados obtidos nesse ensaio apontam evidências de ganhos de desempenho dos modelos multivariados para períodos posteriores a 1 passo à frente.
Resumo:
Market timing performance of mutual funds is usually evaluated with linear models with dummy variables which allow for the beta coefficient of CAPM to vary across two regimes: bullish and bearish market excess returns. Managers, however, use their predictions of the state of nature to deÞne whether to carry low or high beta portfolios instead of the observed ones. Our approach here is to take this into account and model market timing as a switching regime in a way similar to Hamilton s Markov-switching GNP model. We then build a measure of market timing success and apply it to simulated and real world data.
Resumo:
We analize a discrete type version of a common agency model with informed principals of Martimort and Moreira (2005) in the context of lobby games. We begin discussing issues related to the common values nature of the model, i.e.the agent cares directly about the principal’s utility function. With this feature the equilibrium of Martimort and Moreira (2005) is not valid. We argue in favor of one solution, although we are not able to fully characterize the equilibrium in this context. We then turn to an application: a modification of the Grossman and Helpman (1994) model of lobbying for tariff protection to incoporate assimetric information (but disconsidering the problem of common values) in the lobbies objective function. We show that the main results of the original model do not hold and that lobbies may behave less agressively towards the police maker when there is private information in the lobbies valuation for the tariffs.
Resumo:
Este trabalho desenvolve e calibra um modelo de equilíbrio dinâmico de crime. O objetivo É estudar e quantificar os determinantes do comportamento criminal: aparato de polícia, condições do mercado de trabalho, perfil etário da população, composição do capital humano, crescimento econônomico e desigualdade de renda. Diferentemente dos trabalhos anteriores, o modelo considerado aqui leva em conta a decisão individual sobre lazer. Isso permite capturar as diferenças no padrão da oferta de trabalho que há entre criminosos e não criminosos. Uma implicação é que a sensibilidade da taxa de crime aos fatores que afetam comportamento criminal é modificada. Adicionalmente, investiga-se a viabilidade de uma política de redistribuição de renda enquanto alternativa a política de segurança pública.
Resumo:
Using vector autoregressive (VAR) models and Monte-Carlo simulation methods we investigate the potential gains for forecasting accuracy and estimation uncertainty of two commonly used restrictions arising from economic relationships. The Örst reduces parameter space by imposing long-term restrictions on the behavior of economic variables as discussed by the literature on cointegration, and the second reduces parameter space by imposing short-term restrictions as discussed by the literature on serial-correlation common features (SCCF). Our simulations cover three important issues on model building, estimation, and forecasting. First, we examine the performance of standard and modiÖed information criteria in choosing lag length for cointegrated VARs with SCCF restrictions. Second, we provide a comparison of forecasting accuracy of Ötted VARs when only cointegration restrictions are imposed and when cointegration and SCCF restrictions are jointly imposed. Third, we propose a new estimation algorithm where short- and long-term restrictions interact to estimate the cointegrating and the cofeature spaces respectively. We have three basic results. First, ignoring SCCF restrictions has a high cost in terms of model selection, because standard information criteria chooses too frequently inconsistent models, with too small a lag length. Criteria selecting lag and rank simultaneously have a superior performance in this case. Second, this translates into a superior forecasting performance of the restricted VECM over the VECM, with important improvements in forecasting accuracy ñreaching more than 100% in extreme cases. Third, the new algorithm proposed here fares very well in terms of parameter estimation, even when we consider the estimation of long-term parameters, opening up the discussion of joint estimation of short- and long-term parameters in VAR models.
Resumo:
We prove the existence of a competitive equilibrium for exchange economies with a measure space of agents and for which the commodity space is ` p, 1 < p < +∞. A vector x = (xn) in ` p may be interpreted as a security which promises to deliver xn units of numeraire at state (or date) n. Under assumptions imposing uniform bounds on marginal rates of substitution, positive results on core-Walras equivalence were established in Rustichini–Yannelis [21] and Podczeck [20]. In this paper we prove that under similar assumptions on marginal rates of substitution, the set of competitive equilibria (and thus the core) is non-empty.
Resumo:
This paper shows that a competitive equilibrium model, where a representative agent maximizes welfare, expectations are rational and markets are in equilibrium can account for several hyperinflation stylized facts. The theory is built by combining two hypotheses, namely, a fiscal crisis that requires printing money to finance an increasing public deficit and a predicted change in an unsustainable fiscal regime.
Resumo:
Este trabalho utiliza retornos mensais de 10 portfólios de ações negociadas na Bovespa entre 1987 e 1997, a fim de testar a validade empírica do modelo APT. Foram criadas variáveis macroeconômicas como fatores de variância comum aos diversos portfólios. Além destes fatores serem estatisticamente significantes para explicar a relação entre os retornos dos diversos portfólios de uma maneira geral, foram encontradas evidências no sentido de validar o APT.