883 resultados para Previsão econômica - Modelos econométricos
Resumo:
São dois os objetivos deste trabalho. O primeiro é apresentar o resultado da aplicação de dois modelo de preços de commodities (Reversão à média e Short-Term Variations / Long-Term Dynamics) a série de preços de três metais industriais: cobre, alumínio e níquel. Dentre os resultados obtidos no modelo Short-Term Variations / Long-Term Dynamics, obtemos as estimativas das séries históricas de duas variáveis não-observáveis: Preço de equilíbrio e Desvio de curto prazo do preço. Enquanto preço de equilíbrio pode ser relacionado através da teoria econômica a fatores de difícil observação ou não observáveis como, por exemplo, o custo marginal de produção, o desvio de curto prazo do preço pode ser relacionado a pelo menos uma variável com indicador observável: nível de estoques. Dada a relação empírica verificada entre a série de desvios de curto prazo estimada e o nível de estoques observado, o segundo objetivo deste estudo é propor a extensão do modelo Short-Term Variations / Long-Term Dynamics para que considere explicitamente informações referentes a níveis de estoque. Com este trabalho pudemos concluir que a especificação do modelo Short-Term Variations / Long-Term Dynamics traz um ganho de informação para o analista, estimando realisticamente variações no preço de equilíbrio e nível do desvio de curto prazo. Observamos ainda a existência de relação entre o desvio de curto-prazo e níveis de estoque. Através da introdução da informação relativa a estoque no modelo Short-Term / Long-Term pudemos verificar que o prêmio de escassez afeta a formação do preço do cobre e níquel, e potencialmente do alumínio, através de relações semelhantes. Do ponto de vista de previsão, pudemos observar que nenhum dos modelos tem poder de previsão consistentemente superior ao passeio aleatório. O modelo Short-Term / Long-Term apresenta a segunda melhor performance e o modelo proposto perde poder de previsão significativamente em horizontes maiores que um ano.
Resumo:
Com o objetivo de avaliar o uso do consumo de energia elétrica como indicador socioeconômico, esta pesquisa analisa informações em dois níveis de agregação geográfica. No primeiro, sob perspectiva territorial, investiga indicadores de Renda e Consumo de Energia Elétrica agregados por áreas de ponderação (conjunto de setores censitários) do município de São Paulo e utiliza os microdados do Censo Demográfico 2000 em conjunto com a base de domicílios da AES Eletropaulo. Aplica modelos de Spatial Auto-Regression (SAR), Geographically Weighted Regression (GWR), e um modelo inédito combinado (GWR+SAR), desenvolvido neste estudo. Diversas matrizes de vizinhança foram utilizadas na avaliação da influência espacial (com padrão Centro-Periferia) das variáveis em estudo. As variáveis mostraram forte auto-correlação espacial (I de Moran superior a 58% para o Consumo de Energia Elétrica e superior a 75% para a Renda Domiciliar). As relações entre Renda e Consumo de Energia Elétrica mostraram-se muito fortes (os coeficientes de explicação da Renda atingiram valores de 0,93 a 0,98). No segundo nível, domiciliar, utiliza dados coletados na Pesquisa Anual de Satisfação do Cliente Residencial, coordenada pela Associação Brasileira dos Distribuidores de Energia Elétrica (ABRADEE), para os anos de 2004, 2006, 2007, 2008 e 2009. Foram aplicados os modelos Weighted Linear Model (WLM), GWR e SAR para os dados das pesquisas com as entrevistas alocadas no centróide e na sede dos distritos. Para o ano de 2009, foram obtidas as localizações reais dos domicílios entrevistados. Adicionalmente, foram desenvolvidos 6 algoritmos de distribuição de pontos no interior dos polígonos dos distritos. Os resultados dos modelos baseados em centróides e sedes obtiveram um coeficiente de determinação R2 em torno de 0,45 para a técnica GWR, enquanto os modelos baseados no espalhamento de pontos no interior dos polígonos dos distritos reduziram essa explicação para cerca de 0,40. Esses resultados sugerem que os algoritmos de alocação de pontos em polígonos permitem a observação de uma associação mais realística entre os construtos analisados. O uso combinado dos achados demonstra que as informações de faturamento das distribuidoras de energia elétrica têm grande potencial para apoiar decisões estratégicas. Por serem atuais, disponíveis e de atualização mensal, os indicadores socioeconômicos baseados em consumo de energia elétrica podem ser de grande utilidade como subsídio a processos de classificação, concentração e previsão da renda domiciliar.
Resumo:
Usando dados intradiários dos ativos mais negociados do Bovespa, este trabalho considerou dois modelos recentemente desenvolvidos na literatura de estimação e previsão de volatilidade realizada. São eles; Heterogeneous Autorregresive Model of Realized Volatility (HAR-RV), desenvolvido por Corsi (2009)e o Mixed Data Sampling (MIDAS-RV) desenvolvido por Ghysels et. al (2004). Através de medidas de comparação de previsão dentro e fora da amostra, constatou-se resultados superiores do modelo MIDAS-RV apenas para previsões dentro da amostra. Para previsões fora da amostra, no entanto, não houve diferença estatisticamente significativa entre os modelos. Também encontram-se evidências que a utilização da volatilidade realizada induz distribuições dos retornos padronizados mais próximas da normal.
Resumo:
Neste trabalho buscamos evidências, para o caso brasileiro, da Hipótese da Renda Permanente. Primeiro, investigamos a existência de tendências e ciclos comuns entre as séries de consumo e renda per capita. Então, usando o resultado de co-movimentos entre as variáveis decompomos cada série em tendência e ciclo, através dos modelos de componentes não observados de Harvey (1989). Por fim, usando os modelos de vetores autorregressivos, decompomos a variância dos erros de previsão, seguindo a metodologia de Blanchard e Quah (1989), com o objetivo de avaliarmos a importância relativa dos choques permanentes e transitórios para as variações do consumo. Os resultados apontam que as inovações permanentes são responsáveis pela maior parte das variações no consumo. Este resultado embora rejeite a Hipótese da Renda Permanente, indica que o consumo responde pouco a variações transitórias na renda, ou seja, os choques temporários têm pouca importância para o consumo.
Resumo:
Este trabalho tem por objetivo analisar se a capacidade de resposta de política econômica foi fator relevante para minimizar a severidade da crise financeira de 2008, no primeiro ano do episódio. A hipótese da pesquisa é que países com um maior espaço para políticas expansionistas – maiores taxas de juros maiores e melhores resultados do governo central – tenham registrado uma crise menos severa, tudo mais constante. Os resultados econométricos corroboram com a hipótese em relação à política monetária. No que diz respeito à política fiscal, o sinal dos parâmetros encontrado é oposto ao esperado, sinalizando que, possivelmente, mesmo países com bons resultados fiscais possam ter limitações a estímulos keynesianos em função da tolerância ao seu nível de endividamento. Entretanto, a interação entre o resultado do governo central e o endividamento está em linha com a hipótese da pesquisa, uma vez que uma melhor gestão tanto do fluxo fiscal, quanto do estoque da dívida no ano anterior ao evento mostrou-se relevante. A adição da variável de investment grade às especificações ressaltou uma crise mais severa nas economias desenvolvidas.
Resumo:
Este trabalho testa a existência de relações de codependência de ordem zero em spreads formados a partir da estrutura a termo da taxa de juros no Brasil. O objetivo é verificar se existem combinações lineares dos spreads que geram um processo ruído branco contemporâneo. Essas combinações lineares poderiam ser utilizadas para a previsão de taxas de juros futuras dado que desvios destas relações estáveis implicariam em um movimento futuro das taxas de juros no sentido de restabelecer o equilíbrio. O modelo de Nelson e Siegel (1987) serve de base teórica para os testes empíricos. Ao verificar a hipótese de codependência de ordem zero é possível também analisar premissas quanto aos parâmetros do modelo em relação à estrutura a termo da taxa de juros no Brasil. As evidências obtidas a partir dos resultados empíricos apontam na rejeição da hipótese de codependência de ordem zero e, consequentemente, na impossibilidade de definir as combinações lineares mencionadas. Esta constatação pode estar relacionada aos períodos de instabilidade presentes na amostra ou na existência de codependência de ordem superior a zero.
Resumo:
Este trabalho estuda a previsão da taxa de juros com foco em uma estratégia de investimento. Inicialmente é feita a parametrização da taxa de juros com o modelo de Vasicek para posterior aplicação do modelo autorregressivo tanto na taxa de juros quanto nos parâmetros do Vasicek. O instrumento financeiro escolhido para verificar a eficácia da metodologia proposta foi o constant matutity swap aplicado em alguns vértices. Os resultados variaram significativamente para os diferentes horizontes de calibragem e períodos de amostragem sem um padrão de desempenho.
Resumo:
O estudo trata dos riscos e incertezas que cercam as avaliações econômicas de empresas, tomando por base a exagerada alta das cotações das ações das empresas de Internet, verificada na NASDAQ entre 1998 e 2000. Expõem-se os principais métodos de avaliação econômica, incorporando conceitos de custo do capital e do risco a ele associado, as características econômicas das empresas de Internet, as peculiaridades e barreiras à avaliação destas e, ainda, um panorama da bolha da NASDAQ, ocorrida no período mencionado. Finalmente, é trazido à análise o comportamento do investidor diante da incerteza e os modelos de cascatas de informação, sugerindo-se que a corrida às ações das empresas de Internet tenha sido desencadeada ou influenciada pelas chamadas extemalidades de manada.
Resumo:
Com origem no setor imobiliário americano, a crise de crédito de 2008 gerou grandes perdas nos mercados ao redor do mundo. O mês de outubro do mesmo ano concentrou a maior parte da turbulência, apresentando também uma explosão na volatilidade. Em meados de 2006 e 2007, o VIX, um índice de volatilidade implícita das opções do S&P500, registrou uma elevação de patamar, sinalizando o possível desequilíbrio existente no mercado americano. Esta dissertação analisa se o consenso de que a volatilidade implícita é a melhor previsora da volatilidade futura permanece durante o período de crise. Os resultados indicam que o VIX perde poder explicativo ao se passar do período sem crise para o de crise, sendo ultrapassado pela volatilidade realizada.
Resumo:
A evapotranspiração (ET) abrange todos os processos que envolvem a mudança de fase líquida ou sólida para vapor de água. Globalmente, suas principais componentes são a evaporação nos oceanos, corpos d’água e solo e a transpiração pela cobertura vegetal. O conhecimento da ET da superfície terrestre para a atmosfera é muito importante para a resolução de inúmeras questões relacionadas aos recursos hídricos. Dentre essas questões, destacam-se planejamento de bacias hidrográficas e, em especial, o manejo da irrigação. Esse tipo de informação é igualmente relevante para estudos climáticos uma vez que, por meio da ET, ocorre redistribuição de umidade e calor da superfície para a atmosfera.As metodologias convencionais de estimativa da ET, em geral, apresentam muitas incertezas. Essas incertezas aumentam muito quando o interesse é o comportamento espacial da mesma. A única tecnologia que permite acessar esse tipo de informação, de forma eficiente e econômica, é o sensoriamento remoto. Por meio de dados derivados de imagens de satélite é possível calcular o balanço de energia de uma região e acessar as reais taxas de ET. A literatura internacional apresenta alguns modelos para estimar a ET por meio de sensoriamento remoto. A verificação dessas estimativas é feita por medidas dos termos do balanço de energia realizadas por sensores colocados em torres meteorológicas. Esse tipo de informação, no entanto, é de alto custo e de difícil aquisição. Após revisão de literatura, foram escolhidos os algoritmos SEBAL (Surface Energy Balance Algorithm for Land) e SSEBI (Simplified Surface Energy Balance Index). O primeiro foi adotado por ser um dos mais utilizados e o segundo pela sua simplicidade.Dessa maneira, a partir de 44 imagens de satélite, praticamente livres de cobertura de nuvens, do sensor AVHRR (Advanced Very High Resolution Radiometer), a bordo do satélite NOAA-14, e dados climatológicos de algumas estações, foram geradas séries de coberturas de ET real para o Estado do Rio Grande do Sul em nível diário, durante o ano de 1998. Para efeito de simplificação, na análise dos resultados foram escolhidas algumas áreas representativas das principais classes de cobertura do Estado: área cultivada, campo, área urbana, banhado, lagoa e floresta. Os resultados demonstraram que, para o SEBAL, asperdas médias anuais (mm ano-1) ocorrem, em ordem decrescente nas classes banhado (827), lagoa (732), floresta (686), área cultivada (458), campo (453) e área urbana (276). Para o S-SEBI, esta ordem é a seguinte: floresta (918), banhado (870), lagoa (669), área cultivada (425), campo (403) e área urbana (363). Ficou evidente que as classes com as menores influências antrópicas apresentaram as maiores taxas de ET. Outra observação feita é que, em média, as estimativas do S-SEBI superestimam a ET em relação ao SEBAL, na porção leste do Estado, e o oposto na porção oeste. Foi verificado, ainda, um eixo de decréscimo da ET na primeira metade do ano da porção noroeste para sudeste, e posterior crescimento na segunda metade do ano, em sentido oposto.As verificações foram feitas de forma indireta por meio de um balanço hídrico anual simplificado em algumas bacias hidrográficas do Estado, por meio de valores de ET real para a cultura do milho em algumas localidades do Estado e medidas de evaporação de tanque do tipo Classe A. Em geral, os resultados foram considerados coerentes, o que confere à metodologia utilizada um grande potencial de uso, uma vez que possibilita acessar a distribuição espacial da ET.
Resumo:
Usando dados intradiários dos ativos mais negociados do BOVESPA, este trabalho considerou dois modelos recentemente desenvolvidos na literatura de estimação e previsão de volatilidade realizada. São eles; Heterogeneous Autorregressive Model of Realized Volatility (HAR-RV), desenvolvido por Corsi (2009) e o Mixed Data Sampling (MIDAS-RV), desenvolvido por Ghysels et al. (2004). Através de medidas de comparação de previsão dentro e fora da amostra, constatou-se resultados superiores do modelo MIDAS-RV apenas para previsões dentro da amostra. Para previsões fora da amostra, no entanto, não houve diferença estatisticamente significativa entre os modelos. Também encontram-se evidências que a utilização da volatilidade realizada induz distribuições dos retornos padronizados mais próximas da normal
Resumo:
Com o objetivo de contribuir com a literatura sobre a regulação dos setores de infraestrutura, este trabalho apresenta uma análise do modelo regulatório utilizado para viabilizar a expansão de capacidade do setor de transmissão de energia elétrica no Brasil. Neste país, de dimensões continentais, o setor de transmissão tem um papel de fundamental importância para garantir o suprimento de energia elétrica e, consequentemente, para viabilizar uma trajetória de crescimento sustentável da atividade econômica. Grandes quantidades de energia são transportadas entre as unidades geradoras, principalmente hidroelétricas que, em muitos casos, estão localizadas em regiões bem distantes dos grandes centros de consumo. Devido à similaridade entre as dimensões continentais e os volumes de energia produzidos e consumidos, são comparados os modelos regulatórios utilizados para a expansão da transmissão no Brasil e Argentina. Aspectos institucionais e dos sistemas políticos nos dois países são ressaltados para explicar as diferenças entre os dois modelos e os resultados alcançados em cada um dos países. Neste caso destacam-se os desafios para expansão da infraestrutura de transmissão de elevada tensão e grande extensão no caso argentino e os benefícios do modelo brasileiro que combina a realização de leilões com um mecanismo de planejamento centralizado. As especificidades do modelo regulatório brasileiro, principalmente do modelo híbrido de leilões de contratos de concessões de transmissão, acompanhado de revisões periódicas da receita dos investidores têm especial atenção. Através de uma análise dos lances apresentados nos leilões realizados no Brasil entre 2002 e 2008, testa-se a reação dos participantes com relação à mudança no modelo regulatório introduzida em 2006, ano em que foi introduzida a revisão tarifária periódica nos contratos de concessão para serviços de transmissão. Evidencia-se que, com esta mudança, os participantes não diminuíram os deságios praticados nos leilões, indicando que não houve aumento da percepção de risco do negócio para os investidores devido a esta mudança na regulação. As informações utilizadas pelos participantes para formulação dos lances, no modelo de leilões para a expansão da transmissão no Brasil, são analisadas através de uma amostra ampliada dos lances apresentados no período 1999-2011. Encontram-se evidências empíricas de que os lances dos participantes são correlacionados, indicando que estes levam em consideração os lances dos seus competidores para formulação de seus próprios lances.
Resumo:
Este trabalho procura fazer uma revisão crítica dentro da realidade brasileira, da utilização dos modelos teóricos para análise de alternativas de investimento, ou seja, a Engenharia Econômica. Estuda os diversos métodos de analise de investimento dentro da Engenharia Econômica. Apresenta problemas de otimização para escolha de alternativas múltiplas de capital, analisa casos típicos de substituição de equipamento e leasing, e conceitua a análise teórica e praticamente os problemas de inflação dentro da realidade brasileira. Apresenta modelos práticos de avaliação de empresa como um todo, determinação de taxa de retorno interna e modelo para determinação da inflação real da empresa
Resumo:
Para a pesquisa, utilizou-se um concreto asfáltico com ligante modificado com borracha ensaiado nas dependências do LAPAV-UFRGS, sob compressão diametral de cargas cíclicas, cujo procedimento é brevemente descrito, associando-se os seus procedimentos com as hipóteses assumidas na modelagem, o que é importante na concepção do modelo empregado. Apresenta-se e discute-se o manuseio dos dados experimentais para o modelo, bem como a escolha do modelo constitutivo adotado, no qual se optou por um modelo viscoelástico linear anisotrópico simplificado, cujas equações base e métodos para calibração são apresentados, discutidos e comparados, bem como os resultados das calibrações dos três primeiros ciclos de carga-descanso, no qual se obteve uma excelente descrição do comportamento do material, o que foi comprovado nas previsões dos dois ciclos seguintes. As previsões de resultados a ensaios sob diferentes condições aos das calibrações mostraram resultados qualitativamente bons às freqüências de ciclo de 1 Hz, comprovados na comparação das curvas de deslocamentos normalizadas. Para a pesquisa, utilizou-se um concreto asfáltico com ligante modificado com borracha ensaiado nas dependências do LAPAV-UFRGS, sob compressão diametral de cargas cíclicas, cujo procedimento é brevemente descrito, associando-se os seus procedimentos com as hipóteses assumidas na modelagem, o que é importante na concepção do modelo empregado. Apresenta-se e discute-se o manuseio dos dados experimentais para o modelo, bem como a escolha do modelo constitutivo adotado, no qual se optou por um modelo viscoelástico linear anisotrópico simplificado, cujas equações base e métodos para calibração são apresentados, discutidos e comparados, bem como os resultados das calibrações dos três primeiros ciclos de carga-descanso, no qual se obteve uma excelente descrição do comportamento do material, o que foi comprovado nas previsões dos dois ciclos seguintes. Para a pesquisa, utilizou-se um concreto asfáltico com ligante modificado com borracha ensaiado nas dependências do LAPAV-UFRGS, sob compressão diametral de cargas cíclicas, cujo procedimento é brevemente descrito, associando-se os seus procedimentos com as hipóteses assumidas na modelagem, o que é importante na concepção do modelo empregado. Apresenta-se e discute-se o manuseio dos dados experimentais para o modelo, bem como a escolha do modelo constitutivo adotado, no qual se optou por um modelo viscoelástico linear anisotrópico simplificado, cujas equações base e métodos para calibração são apresentados, discutidos e comparados, bem como os resultados das calibrações dos três primeiros ciclos de carga-descanso, no qual se obteve uma excelente descrição do comportamento do material, o que foi comprovado nas previsões dos dois ciclos seguintes.
Resumo:
As técnicas qualitativas disponiveis para a modelagem de cenários têm sido reconhecidas pela extrema limitação, evidenciada no principio das atividades do processo, como a fase inicial de concepção. As principais restrições têm sido: • inexistência de uma ferramenta que teste a consistência estrutural interna do modelo, ou pela utilização de relações econômicas com fundamentação teórica mas sem interface perfeita com o ambiente, ou pela adoção de variações binárias para testes de validação; • fixação "a priori" dos possíveis cenários, geralmente classificados sob três adjetivos - otimista, mais provável e pessimista - enviesados exatamente pelos atributos das pessoas que fornecem esta informação. o trabalho trata da utilização de uma ferramenta para a interação entre uma técnica que auxilia a geração de modelos, suportada pela lógica relacional com variações a quatro valores e expectativas fundamentadas no conhecimento do decisor acerca do mundo real. Tem em vista a construção de um sistema qualitativo de previsão exploratória, no qual os cenários são obtidos por procedimento essencialmente intuitivo e descritivos, para a demanda regional por eletricidade. Este tipo de abordagem - apresentada por J. Gershuny - visa principalmente ao fornecimento de suporte metodológico para a consistência dos cenários gerados qualitativamente. Desenvolvimento e estruturação do modelo são realizados em etapas, partindo-se de uma relação simples e prosseguindo com a inclusão de variáveis e efeitos que melhoram a explicação do modelo. o trabalho apresenta um conjunto de relações para a demanda regional de eletricidade nos principais setores de consumo residencial, comercial e industrial bem como os cenários resultantes das variações mais prováveis das suas componentes exógenas. Ao final conclui-se que esta técnica é útil em modelos que: • incluem variáveis sociais relevantes e de dificil mensuração; • acreditam na importância da consistência externa entre os resultados gerados pelo modelo e aqueles esperados para a tomada de decisões; • atribuem ao decisor a responsabilidade de compreender a fundamentação da estrutura conceitual do modelo. Adotado este procedimento, o autor aqui recomenda que o modelo seja validado através de um procedimento iterativo de ajustes com a participação do decisor. As técnicas quantitativas poderão ser adotadas em seguida, tendo o modelo como elemento de consistência.