936 resultados para Combinações de Previsões


Relevância:

10.00% 10.00%

Publicador:

Resumo:

No presente trabalho foram avaliados os benefícios da previsão de vazão afluente de curto e longo prazo, na operação de um reservatório com dois usos conflitantes: geração de energia e controle de cheias. A simulação da operação do reservatório foi realizada com base em dois tipos de modelos para avaliar os benefícios da previsão. Um modelo de operação sem previsão e outro com previsão de vazão afluente, este último desenvolvido no presente trabalho. Regras de operação simples, na forma de curvas-guia lineares, foram utilizadas nos casos de operação com e sem previsão de vazões afluentes. As curvas-guia foram otimizadas através de uma técnica de parametrização, simulação e otimização utilizando um algoritmo evolutivo semelhante a um algoritmo genético. Como base para as análises foram utilizados dados relativos ao reservatório de Três Marias, no Rio São Francisco, principalmente pela disponibilidade de previsões reais de vazão de curto prazo a partir de um trabalho prévio. Essas previsões reais de vazão foram calculadas através de um modelo hidrológico distribuído que utiliza como dados de entrada, previsões de chuva do modelo atmosférico regional ETA. Para avaliar o potencial benefício das previsões de vazão na operação do reservatório, foram realizados testes considerando às vazões afluentes observadas como “previsões perfeitas de vazão”. Os resultados com previsões perfeitas de vazão mostram que pode haver um benefício relativo (incremento na geração de energia) de aproximadamente 8% (cerca de 4,77 milhões de dólares anuais), se forem utilizadas previsões de vazão de longo prazo com dois meses de antecedência, e se a operação for planejada com essa mesma antecedência. A operação baseada em previsões de prazos ou horizontes mais curtos apresenta benefícios inferiores, mas ainda assim significativos. Por exemplo, a previsão perfeita com freqüência semanal e horizonte de 12 dias pode trazer um benefício de aproximadamente 4,45% (cerca de 2,75 milhões de dólares anuais). Esses benefícios foram obtidos com o mesmo desempenho no controle de cheias. Posteriormente, foram realizados testes utilizando as previsões reais de vazão. Os benefícios obtidos com as previsões reais de curto prazo são inferiores aos benefícios obtidos com as previsões perfeitas de curto prazo, como era esperado. Entretanto, com as previsões reais de vazão, foram obtidos benefícios superiores a 50% dos que seriam esperados com a previsão perfeita (vazões observadas). Os resultados obtidos são promissores e mostram que há vantagens evidentes na utilização de previsões de chuva para se obter previsões de vazão na operação de reservatórios com usos múltiplos, quando também é associada à otimização sistêmica de um aproveitamento hidrelétrico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese é composta de três artigos que analisam a estrutura a termo das taxas de juros usando diferentes bases de dados e modelos. O capítulo 1 propõe um modelo paramétrico de taxas de juros que permite a segmentação e choques locais na estrutura a termo. Adotando dados do tesouro americano, duas versões desse modelo segmentado são implementadas. Baseado em uma sequência de 142 experimentos de previsão, os modelos propostos são comparados à benchmarks e concluí-se que eles performam melhor nos resultados das previsões fora da amostra, especialmente para as maturidades curtas e para o horizonte de previsão de 12 meses. O capítulo 2 acrescenta restrições de não arbitragem ao estimar um modelo polinomial gaussiano dinâmico de estrutura a termo para o mercado de taxas de juros brasileiro. Esse artigo propõe uma importante aproximação para a série temporal dos fatores de risco da estrutura a termo, que permite a extração do prêmio de risco das taxas de juros sem a necessidade de otimização de um modelo dinâmico completo. Essa metodologia tem a vantagem de ser facilmente implementada e obtém uma boa aproximação para o prêmio de risco da estrutura a termo, que pode ser usada em diferentes aplicações. O capítulo 3 modela a dinâmica conjunta das taxas nominais e reais usando um modelo afim de não arbitagem com variáveis macroeconômicas para a estrutura a termo, afim de decompor a diferença entre as taxas nominais e reais em prêmio de risco de inflação e expectativa de inflação no mercado americano. Uma versão sem variáveis macroeconômicas e uma versão com essas variáveis são implementadas e os prêmios de risco de inflação obtidos são pequenos e estáveis no período analisado, porém possuem diferenças na comparação dos dois modelos analisados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Um dos produtos mais consumidos do mundo vem passando por grandes transformações, e a cerveja que conhecemos como tipo Pilsen (Light Lager) deixou de ser opção única nas prateleiras. Dado o potencial de crescimento do setor no Brasil, o objetivo deste trabalho é mapear as preferências do consumidor de cerveja artesanal, usando técnicas de preferência declarada, a partir da aplicação de questionários que convidam o entrevistado a elencar suas preferências diante das combinações dos atributos Cor, Paladar, Aroma e Álcool. A partir da estratificação da amostra em Idade e Experiência, os resultados indicam que Paladar, seguido da Cor e, por último, o Aroma são os atributos mais relevantes para o entrevistado Experiente, enquanto o Não Experiente atribui maior peso à Cor, seguida do Paladar, sendo o Aroma um atributo irrelevante em suas escolhas. O atributo Álcool revelou-se insignificante em todas as estratificações realizadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Aiming at empirical findings, this work focuses on applying the HEAVY model for daily volatility with financial data from the Brazilian market. Quite similar to GARCH, this model seeks to harness high frequency data in order to achieve its objectives. Four variations of it were then implemented and their fit compared to GARCH equivalents, using metrics present in the literature. Results suggest that, in such a market, HEAVY does seem to specify daily volatility better, but not necessarily produces better predictions for it, what is, normally, the ultimate goal. The dataset used in this work consists of intraday trades of U.S. Dollar and Ibovespa future contracts from BM&FBovespa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho é realizar procedimento de back-test da Magic Formula na Bovespa, reunindo evidências sobre violações da Hipótese do Mercado Eficiente no mercado brasileiro. Desenvolvida por Joel Greenblatt, a Magic Formula é uma metodologia de formação de carteiras que consiste em escolher ações com altos ROICs e Earnings Yields, seguindo a filosofia de Value Investing. Diversas carteiras foram montadas no período de dezembro de 2002 a maio de 2014 utilizando diferentes combinações de número de ativos por carteira e períodos de permanência. Todas as carteiras, independentemente do número de ativos ou período de permanência, apresentaram retornos superiores ao Ibovespa. As diferenças entre os CAGRs das carteiras e o do Ibovespa foram significativas, sendo que a carteira com pior desempenho apresentou CAGR de 27,7% contra 14,1% do Ibovespa. As carteiras também obtiveram resultados positivos após serem ajustadas pelo risco. A pior razão retorno-volatilidade foi de 1,2, comparado a 0,6 do Ibovespa. As carteiras com pior pontuação também apresentaram bons resultados na maioria dos cenários, contrariando as expectativas iniciais e os resultados observados em outros trabalhos. Adicionalmente foram realizadas simulações para diversos períodos de 5 anos com objetivo de analisar a robustez dos resultados. Todas as carteiras apresentaram CAGR maior que o do Ibovespa em todos os períodos simulados, independentemente do número de ativos incluídos ou dos períodos de permanência. Estes resultados indicam ser possível alcançar retornos acima do mercado no Brasil utilizando apenas dados públicos históricos. Esta é uma violação da forma fraca da Hipótese do Mercado Eficiente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As diretrizes de política monetária são definidas com base em resultados dos indicadores macroeconômicos divulgados ao mercado periodicamente. Os agentes deste mercado respondem rapidamente às alterações de cenário, com o objetivo de obter lucro ou evitar perdas financeiras expressivas. Com este motivacional, a proposta deste trabalho é avaliar como reage o mercado futuro de juros diante da divulgação de surpresas em determinados indicadores macroeconômicos, propondo um indicador de surpresa agregado para prever os impactos causados. Através dos dados extraídos da Bloomberg e da BM&F Bovespa, foi construída uma base de dados simplificada pela adoção de premissas para mensuração do impacto das surpresas divulgadas no preço do DI Futuro. A padronização dos parâmetros, a realização dos testes de média e as regressões otimizadas pelo método OLS possibilitaram ponderar os indicadores econômicos de acordo com a oscilação que os mesmos causam a este mercado. Por fim, o teste de comparação mostrou que o indicador de surpresa proposto foi mais eficiente nas previsões da reação do mercado do que um indicador que pondere de forma igualitária todos os indicadores macroeconômicos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho investiga e analisa as diferenças das taxas anuais de inflação realizadas com relação às previsões dos agentes econômicos do mercado para um ano à frente. Os índices analisados foram o IPCA, IPA-M, IGP-M e o IGP-DI. Referente à previsão dos agentes para cada índice, foi feito uma análise estatística e uma análise de séries temporais através do modelo ARIMA. Este último explicou o erro de previsão dos agentes econômicos através de valores passados, ou defasados, do próprio erro de previsão, além dos termos estocásticos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O enfoque da Nova Economia Institucional é utilizado no estudo de sistemas agroindustriais brasileiros, mas ainda há poucos trabalhos sobre as relações entre produtores rurais e indústrias processadoras. O objetivo deste estudo é aferir o alinhamento das características das transações com os modos de governança adotados na comercialização de borracha natural entre produtores rurais e indústrias de beneficiamento primário. Busca-se confrontar os resultados com as previsões da teoria da Economia dos Custos de Transação, que prevê a adoção da governança mais eficiente, contingenciada ao ambiente transacional. Esta pesquisa utiliza um enfoque pioneiro para o setor. A primeira parte consiste na exploração qualitativa das transações entre produtores rurais e usinas beneficiadoras e na descrição dos elementos que compõe o sistema agroindustrial da borracha natural no Estado de São Paulo. Os resultados desta etapa são utilizados para refinar as hipóteses da etapa quantitativa, que relacionam os modos de governança adotados aos investimentos em ativos específicos, como o plantio de seringueiras, à frequência, à incerteza e à assistência técnica associadas à transação. Os resultados, apesar das limitações devido ao tamanho pequeno da amostra, sugerem que a quantidade de borracha comercializada influi positivamente na adoção de modos de governança mais coordenados e que a recorrência das transações provavelmente está associada a contratos relacionais. A hipótese da endogeneidade é rejeitada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A natureza (em geral) não dá saltos. O mesmo ocorre com a análise de curto prazo das perspectivas econômicas: em especial, estas dificilmente mudam significativamente de um mês para outro. Mas há exceções, como ocorre quando há mudanças de rumo da política econômica. É o que se constata atualmente, especialmente a partir das novas medidas governamentais anunciadas desde o imediato pós-eleições, que vêm mexendo bastante com as previsões dos economistas. O mesmo se observa a partir da percepção de que as dificuldades que o Brasil possivelmente enfrentará neste ano são maiores do que se imaginava há até não muito tempo atrás.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo investiga o poder preditivo fora da amostra, um mês à frente, de um modelo baseado na regra de Taylor para previsão de taxas de câmbio. Revisamos trabalhos relevantes que concluem que modelos macroeconômicos podem explicar a taxa de câmbio de curto prazo. Também apresentamos estudos que são céticos em relação à capacidade de variáveis macroeconômicas preverem as variações cambiais. Para contribuir com o tema, este trabalho apresenta sua própria evidência através da implementação do modelo que demonstrou o melhor resultado preditivo descrito por Molodtsova e Papell (2009), o “symmetric Taylor rule model with heterogeneous coefficients, smoothing, and a constant”. Para isso, utilizamos uma amostra de 14 moedas em relação ao dólar norte-americano que permitiu a geração de previsões mensais fora da amostra de janeiro de 2000 até março de 2014. Assim como o critério adotado por Galimberti e Moura (2012), focamos em países que adotaram o regime de câmbio flutuante e metas de inflação, porém escolhemos moedas de países desenvolvidos e em desenvolvimento. Os resultados da nossa pesquisa corroboram o estudo de Rogoff e Stavrakeva (2008), ao constatar que a conclusão da previsibilidade da taxa de câmbio depende do teste estatístico adotado, sendo necessária a adoção de testes robustos e rigorosos para adequada avaliação do modelo. Após constatar não ser possível afirmar que o modelo implementado provém previsões mais precisas do que as de um passeio aleatório, avaliamos se, pelo menos, o modelo é capaz de gerar previsões “racionais”, ou “consistentes”. Para isso, usamos o arcabouço teórico e instrumental definido e implementado por Cheung e Chinn (1998) e concluímos que as previsões oriundas do modelo de regra de Taylor são “inconsistentes”. Finalmente, realizamos testes de causalidade de Granger com o intuito de verificar se os valores defasados dos retornos previstos pelo modelo estrutural explicam os valores contemporâneos observados. Apuramos que o modelo fundamental é incapaz de antecipar os retornos realizados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente estudo tem como objetivo comparar e combinar diferentes técnicas de projeção para o PIB trimestral brasileiro de 1991 ao segundo trimestre de 2014, utilizando dados agregados, e dados desagregados com pesos fixos e estocásticos. Os modelos desagregados univariados e multivariados, assim como os pesos estocásticos, foram estimados pelo algoritmo Autometrics criado por Doornik (2009), através dos níveis de desagregação disponibilizados pelo IBGE no Sistema de Contas Nacionais. Os modelos agregados foram estimados pelo Autometrics, por Markov-Switching e por modelos estruturais de espaço-estado. A metodologia de comparação de projeções utilizada foi o Model Confidence Set, desenvolvida por Hanse, Lunde e Nason (2011). Foram realizadas duas simulações, sendo a primeira com a análise fora da amostra a partir de 2008, e a segunda a partir de 2000, com horizonte de projeção de até 6 passos à frente. Os resultados sugerem que os modelos desagregados com pesos fixos desempenham melhor nos dois primeiros passos, enquanto nos períodos restantes os modelos da série agregada geram melhores previsões.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho visa comparar o poder preditivo das previsões feitas a partir de diferentes metodologias aplicadas para a série de expedição brasileira de papelão ondulado. Os dados de expedição de papelão ondulado serão decompostos pelas categorias industriais de destino das caixas e serão feitos modelos do tipo SARIMA univariados para cada setor. As previsões das séries desagregadas serão então agregadas, para compor a previsão da série total de expedição. A previsão feita a partir da somatória das categorias industriais será comparada com um SARIMA univariado da série agregada, a fim de verificar qual dos dois métodos resulta em um modelo com melhor acurácia. Essa comparação será feita a partir da metodologia desenvolvida por Diebold e Mariano (1995).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho avalia as previsões de três métodos não lineares — Markov Switching Autoregressive Model, Logistic Smooth Transition Autoregressive Model e Autometrics com Dummy Saturation — para a produção industrial mensal brasileira e testa se elas são mais precisas que aquelas de preditores naive, como o modelo autorregressivo de ordem p e o mecanismo de double differencing. Os resultados mostram que a saturação com dummies de degrau e o Logistic Smooth Transition Autoregressive Model podem ser superiores ao mecanismo de double differencing, mas o modelo linear autoregressivo é mais preciso que todos os outros métodos analisados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As decisões de financiamento com dívida têm impacto na estrutura de capital através da alteração da alavancagem, da titularidade e da maturidade da dívida. As teorias mais populares sobre a composição da dívida, preveem um efeito negativo nas ações quando uma empresa emite debêntures. Os meus resultados não confirmam esse efeito, pelo menos diretamente. Contudo os determinantes da emissão são consistentes com as previsões, com algumas particularidades da economia Brasileira.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho procura identificar quais variáveis são as mais relevantes para previsão da taxa de câmbio real do Brasil e analisar a robustez dessas previsões. Para isso foram realizados testes de cointegração de Johansen em 13 variáveis macroeconômicas. O banco de dados utilizado são séries trimestrais e compreende o período de 1970 a 2014 e os testes foram realizados sobre as séries combinadas dois a dois, três a três e quatro a quatro. Por meio desse método, encontramos nove grupos que cointegram entre si. Utilizando esses grupos, são feitas previsões fora da amostra com a partir das últimas 60 observações. A qualidade das previsões foi avaliada por meio dos testes de Erro Quadrático Médio, teste de Diebold-Mariano e, além disso, foi utilizado um modelo de passeio aleatório do câmbio real como benchmark para o procedimento de Hansen. Todos os testes mostram que, à medida que se aumenta o horizonte de projeção, o passeio aleatório perde poder preditivo e a maioria dos modelos são mais informativos sobre o futuro da o câmbio real efetivo. O horizonte é de três a quatro anos à frente. No caso do teste de Hansen, o passeio aleatório é completamente eliminado do grupo final de modelos, mostrando que é possível fazer previsões superiores ao passeio aleatório.