883 resultados para Previsão econômica - Modelos econométricos
Resumo:
No presente trabalho foram avaliados os benefícios da previsão de vazão afluente de curto e longo prazo, na operação de um reservatório com dois usos conflitantes: geração de energia e controle de cheias. A simulação da operação do reservatório foi realizada com base em dois tipos de modelos para avaliar os benefícios da previsão. Um modelo de operação sem previsão e outro com previsão de vazão afluente, este último desenvolvido no presente trabalho. Regras de operação simples, na forma de curvas-guia lineares, foram utilizadas nos casos de operação com e sem previsão de vazões afluentes. As curvas-guia foram otimizadas através de uma técnica de parametrização, simulação e otimização utilizando um algoritmo evolutivo semelhante a um algoritmo genético. Como base para as análises foram utilizados dados relativos ao reservatório de Três Marias, no Rio São Francisco, principalmente pela disponibilidade de previsões reais de vazão de curto prazo a partir de um trabalho prévio. Essas previsões reais de vazão foram calculadas através de um modelo hidrológico distribuído que utiliza como dados de entrada, previsões de chuva do modelo atmosférico regional ETA. Para avaliar o potencial benefício das previsões de vazão na operação do reservatório, foram realizados testes considerando às vazões afluentes observadas como “previsões perfeitas de vazão”. Os resultados com previsões perfeitas de vazão mostram que pode haver um benefício relativo (incremento na geração de energia) de aproximadamente 8% (cerca de 4,77 milhões de dólares anuais), se forem utilizadas previsões de vazão de longo prazo com dois meses de antecedência, e se a operação for planejada com essa mesma antecedência. A operação baseada em previsões de prazos ou horizontes mais curtos apresenta benefícios inferiores, mas ainda assim significativos. Por exemplo, a previsão perfeita com freqüência semanal e horizonte de 12 dias pode trazer um benefício de aproximadamente 4,45% (cerca de 2,75 milhões de dólares anuais). Esses benefícios foram obtidos com o mesmo desempenho no controle de cheias. Posteriormente, foram realizados testes utilizando as previsões reais de vazão. Os benefícios obtidos com as previsões reais de curto prazo são inferiores aos benefícios obtidos com as previsões perfeitas de curto prazo, como era esperado. Entretanto, com as previsões reais de vazão, foram obtidos benefícios superiores a 50% dos que seriam esperados com a previsão perfeita (vazões observadas). Os resultados obtidos são promissores e mostram que há vantagens evidentes na utilização de previsões de chuva para se obter previsões de vazão na operação de reservatórios com usos múltiplos, quando também é associada à otimização sistêmica de um aproveitamento hidrelétrico.
Resumo:
Este trabalho tem como objetivo comparar diferentes métodos de previsão de necessidades de caixa no overnight, que assegurem que a liquidez de um produto financeiro específico – neste caso, o Call Deposits (Depósito à Vista, em moeda estrangeira) – seja suficiente para cobrir os riscos de liquidez de uma instituição financeira e, em contrapartida, otimizem o lucro oriundo do saldo restante que ultrapasse o valor de saída destes modelos. Para isso, o modelo de Fluxo de Caixa de Schmaltz (2009), que segrega os diferentes componentes do caixa (determinísticos e estocásticos), será utilizado para determinar as necessidades de caixa e, através do método de Monte Carlo para a previsão de diferentes caminhos, chegamos a um valor médio de saldo para ser utilizado no overnight. Como comparativo, será utilizado o modelo determinístico de Ringbom et al (2004), que oferece a “Taxa de Reserva de Maximização de Lucro”, para, enfim, compará-los historicamente, entre Jan/2009 e Dez/2013, a fim de concluirmos qual dos modelos de reservas de caixa se mostra mais satisfatório. A base de dados utilizada replica os saldos e saques de um banco comercial, para o produto financeiro em questão, e, também, é utilizada para a estimação dos parâmetros.
Resumo:
Este trabalho tem o objetivo de testar a qualidade preditiva do Modelo Vasicek de dois fatores acoplado ao Filtro de Kalman. Aplicado a uma estratégia de investimento, incluímos um critério de Stop Loss nos períodos que o modelo não responde de forma satisfatória ao movimento das taxas de juros. Utilizando contratos futuros de DI disponíveis na BMFBovespa entre 01 de março de 2007 a 30 de maio de 2014, as simulações foram realizadas em diferentes momentos de mercado, verificando qual a melhor janela para obtenção dos parâmetros dos modelos, e por quanto tempo esses parâmetros estimam de maneira ótima o comportamento das taxas de juros. Os resultados foram comparados com os obtidos pelo Modelo Vetor-auto regressivo de ordem 1, e constatou-se que o Filtro de Kalman aplicado ao Modelo Vasicek de dois fatores não é o mais indicado para estudos relacionados a previsão das taxas de juros. As limitações desse modelo o restringe em conseguir estimar toda a curva de juros de uma só vez denegrindo seus resultados.
Resumo:
A principal explicação sugerida pela literatura para o viés do preço futuro em relação à taxa de câmbio que prevalecerá no futuro é a existência de um prêmio de risco. Aplicamos aqui os principais modelos teóricos e técnicas econométricas para identificação e mensuração do prêmio de risco aos dados brasileiros do mercado futuro de câmbio posteriores ao Plano Real. Identifica-se um prêmio de risco que varia ao longo do tempo, o qual correlaciona-se com os fundamentos macroeconômicos da economia. A partir de 1999, coerentemente com a introdução da livre flutuação cambial, observou-se uma diminuição da importância do prêmio de risco relativamente aos erros de previsão na composição do forward discount. As técnicas empregadas permitem-nos avaliar importantes questões de política econômica, como o quanto podem cair as taxas de juros reais.
Resumo:
This paper presents new methodology for making Bayesian inference about dy~ o!s for exponential famiIy observations. The approach is simulation-based _~t> use of ~vlarkov chain Monte Carlo techniques. A yletropolis-Hastings i:U~UnLlllll 1::; combined with the Gibbs sampler in repeated use of an adjusted version of normal dynamic linear models. Different alternative schemes are derived and compared. The approach is fully Bayesian in obtaining posterior samples for state parameters and unknown hyperparameters. Illustrations to real data sets with sparse counts and missing values are presented. Extensions to accommodate for general distributions for observations and disturbances. intervention. non-linear models and rnultivariate time series are outlined.
Resumo:
We propose mo deIs to analyze animal growlh data wilh lhe aim of eslimating and predicting quanlities of Liological and economical interest such as the maturing rate and asymptotic weight. lt is also studied lhe effect of environmenlal facLors of relevant influence in the growlh processo The models considered in this paper are based on an extension and specialization of the dynamic hierarchical model (Gamerman " Migon, 1993) lo a non-Iinear growlh curve sdLillg, where some of the growth curve parameters are considered cxchangeable among lhe unils. The inferencc for thcse models are appruximale conjugale analysis Lascd on Taylor series cxpallsiulIs aliei linear Bayes procedures.
Resumo:
Estimar e prever a volatilidade de um ativo é uma tarefa muito importante em mercados financeiros. Nosso objetivo neste trabalho é propor o conceito de deformação temporal neste contexto. A idéia é que o mercado modifica-se com a chegada de novas informações, e não com o decorrer do tempo de calendário. Nós estimamos a volatilidade dos retornos do IBOVESPA, aplicando Modelos de Volatilidade Estocástica sem e com Deformação Temporal.
Resumo:
A presente dissertação tem como objetivo apresentar dois importantes modelos usados na análise de risco. Essa análise culmina em uma aplicação empírica para cada um deles. Apresenta-se primeiro o modelo Nelson-Siegel dinâmico, que estima a curva de juros usando um modelo paramétrico exponencial parcimonioso. É citada a referência criadora dessa abordagem, que é Nelson & Siegel (1987), passa-se pela apresentação da mais importante abordagem moderna que é a de Diebold & Li (2006), que é quem cria a abordagem dinâmica do modelo Nelson-Siegel, e que é inspiradora de diversas extensões. Muitas dessas extensões também são apresentadas aqui. Na parte empírica, usando dados da taxa a termo americana de Janeiro de 2004 a Março de 2015, estimam-se os modelos Nelson-Siegel dinâmico e de Svensson e comparam-se os resultados numa janela móvel de 12 meses e comparamos seus desempenhos com aqueles de um passeio aleatório. Em seguida, são apresentados os modelos ARCH e GARCH, citando as obras originais de Engle (1982) e Bolleslev (1986) respectivamente, discutem-se características destes modelos e apresentam-se algumas extensões ao modelo GARCH, incluindo aí alguns modelos GARCH multivariados. Passa-se então por uma rápida apresentação do conceito de VaR (Value at Risk), que será o objetivo da parte empírica. Nesta, usando dados de 02 de Janeiro de 2004 até 25 de Fevereiro de 2015, são feitas uma estimação da variância de um portfólio usando os modelos GARCH, GJR-GARCH e EGARCH e uma previsão do VaR do portfólio a partir da estimação feita anteriormente. Por fim, são apresentados alguns trabalhos que usam os dois modelos conjuntamente, ou seja, que consideram que as taxas ou os fatores que as podem explicam possuem variância variante no tempo.
Resumo:
Este trabalho procura identificar quais variáveis são as mais relevantes para previsão da taxa de câmbio real do Brasil e analisar a robustez dessas previsões. Para isso foram realizados testes de cointegração de Johansen em 13 variáveis macroeconômicas. O banco de dados utilizado são séries trimestrais e compreende o período de 1970 a 2014 e os testes foram realizados sobre as séries combinadas dois a dois, três a três e quatro a quatro. Por meio desse método, encontramos nove grupos que cointegram entre si. Utilizando esses grupos, são feitas previsões fora da amostra com a partir das últimas 60 observações. A qualidade das previsões foi avaliada por meio dos testes de Erro Quadrático Médio, teste de Diebold-Mariano e, além disso, foi utilizado um modelo de passeio aleatório do câmbio real como benchmark para o procedimento de Hansen. Todos os testes mostram que, à medida que se aumenta o horizonte de projeção, o passeio aleatório perde poder preditivo e a maioria dos modelos são mais informativos sobre o futuro da o câmbio real efetivo. O horizonte é de três a quatro anos à frente. No caso do teste de Hansen, o passeio aleatório é completamente eliminado do grupo final de modelos, mostrando que é possível fazer previsões superiores ao passeio aleatório.
Resumo:
Este trabalho procura identificar quais variáveis são as mais relevantes para previsão da taxa de câmbio real do Brasil e analisar a robustez dessas previsões. Para isso foram realizados testes de cointegração de Johansen em 13 variáveis macroeconômicas. O banco de dados utilizado são séries trimestrais e compreende o período de 1970 a 2014 e os testes foram realizados sobre as séries combinadas dois a dois, três a três e quatro a quatro. Por meio desse método, encontramos nove grupos que cointegram entre si. Utilizando esses grupos, são feitas previsões fora da amostra com a partir das últimas 60 observações. A qualidade das previsões foi avaliada por meio dos testes de Erro Quadrático Médio, teste de Diebold-Mariano e, além disso, foi utilizado um modelo de passeio aleatório do câmbio real como benchmark para o procedimento de Hansen. Todos os testes mostram que, à medida que se aumenta o horizonte de projeção, o passeio aleatório perde poder preditivo e a maioria dos modelos são mais informativos sobre o futuro da o câmbio real efetivo. O horizonte é de três a quatro anos à frente. No caso do teste de Hansen, o passeio aleatório é completamente eliminado do grupo final de modelos, mostrando que é possível fazer previsões superiores ao passeio aleatório.
Resumo:
Passados mais de dez anos do reconhecimento da autonomia administrativa, financeira e orçamentária às Defensorias Públicas Estaduais, o que se deu através da Emenda Constitucional n° 45/2004, ainda é possível encontrar instituições desta espécie que sofrem com interferências diárias nos mais variados aspectos de sua administração, em total desrespeito ao que determina a nossa Lei Fundamental. Entretanto, curiosamente este problema não tem se mostrado de maneira uniforme no cenário nacional, havendo estados onde as Defensorias Públicas gozam de mais autonomia e prestígio, enquanto existem outros onde estas sofrem para ter igual direito reconhecido. Neste sentido, partindo de um referencial teórico básico sobre autonomia da Defensoria Pública, a presente pesquisa teve por objetivo explorar os elementos que compõe tal conceito, buscando posteriormente verificar e descrever as assimetrias existentes entre os modelos de autonomia encontrados nas Defensorias Públicas estaduais ao redor do país. Para tanto, foram coletados dados através de observação direta, pesquisa documental e entrevistas, os quais foram posteriormente tratados e interpretados através da metodologia da análise de conteúdo. Os resultados obtidos através das consolidações efetuadas no âmbito das cincos categorias de análise propostas permitiram a conclusão de que a assimetria entre os modelos existentes é um fato, sendo perceptível principalmente nas áreas de Administração Financeira e Orçamentária, bem como na Formação da Alta Administração da Instituição. Também foram constatadas duas barreiras fundamentais para a implantação do modelo de autonomia preconizado pelo ordenamento, qual seja, a baixa autonomia na previsão de despesas no processo orçamentário e a ausência de limite próprio de pessoal para a Defensoria Pública na Lei de Responsabilidade Fiscal.
Resumo:
O estudo busca identificar quais variáveis são as mais relevantes para previsão da taxa de câmbio real efetiva e analisar a robustez dessas previsões. Foram realizados testes de cointegração de Johansen em 13 variáveis macroeconômicas. O banco de dados utilizado são séries trimestrais e os testes foram realizados sobre as séries combinadas dois a dois, três a três e quatro a quatro. Utilizando esse método, encontramos modelos que cointegravam entre si, para os países analisados. A partir desses modelos, foram feitas previsões fora da amostra a partir das últimas 60 observações. A qualidade das previsões foi avaliada por meio dos testes de Erro Quadrático Médio (EQM) e Modelo do Conjunto de Confiança de Hansen (MCS) utilizando um modelo de passeio aleatório do câmbio real como benchmark. Todos os testes mostram que, à medida que se aumenta o horizonte de projeção, o passeio aleatório perde poder preditivo e a maioria dos modelos são mais informativos sobre o futuro da taxa de câmbio real efetivo.