64 resultados para Previsão Estatística
em Repositório digital da Fundação Getúlio Vargas - FGV
Resumo:
Com origem no setor imobiliário americano, a crise de crédito de 2008 gerou grandes perdas nos mercados ao redor do mundo. O mês de outubro do mesmo ano concentrou a maior parte da turbulência, apresentando também uma explosão na volatilidade. Em meados de 2006 e 2007, o VIX, um índice de volatilidade implícita das opções do S&P500, registrou uma elevação de patamar, sinalizando o possível desequilíbrio existente no mercado americano. Esta dissertação analisa se o consenso de que a volatilidade implícita é a melhor previsora da volatilidade futura permanece durante o período de crise. Os resultados indicam que o VIX perde poder explicativo ao se passar do período sem crise para o de crise, sendo ultrapassado pela volatilidade realizada.
Resumo:
Esta tese apresenta o desenvolvimento conceitual, estimação de parâmetros e aplicação empírica de um Modelo de Risco de Portfólio cujo objetivo é realizar previsões da distribuição estatística da perda de crédito em carteiras de crédito ao consumidor. O modelo proposto é adaptado às características do crédito ao consumidor e ao mercado brasileiro, podendo ser aplicado com dados atualmente disponíveis para as Instituições Financeiras no mercado brasileiro. São realizados testes de avaliação da performance de previsão do modelo e uma comparação empírica com resultados da aplicação do Modelo CreditRisk+.
Resumo:
A presente dissertação analisa o erro de projeção dos analistas de investimentos do sell side, definido como a diferença entre o consenso das projeções dos analistas e o resultado reportado pela empresa. O tamanho do erro de projeção é uma medida da qualidade das projeções dos analistas de um determinado mercado de capitais. Uma vasta literatura acadêmica mostra que uma melhora na qualidade das projeções dos analistas, medida através de uma diminuição do tamanho do erro de projeção, está relacionada com a redução da assimetria de informação e com um aumento do valor de mercado das empresas. São testadas duas regressões, nas quais características das empresas, como setor, tamanho, endividamento e variabilidade do lucro, e características do ambiente de informação da empresa, como listagem de ADR, número de analistas que acompanham a empresa e convergência das projeções, são testadas contra duas métricas do erro de projeção, acurácia e viés. Nossas hipóteses são que existem fatores que influenciam de maneira significativa o tamanho do erro de projeção (acurácia) e o viés das projeções (viés). Estas hipóteses foram confirmadas, isto é, nossas regressões apresentaram pelo menos um fator que se mostrou significativo estatisticamente para influenciar o tamanho do erro de projeção (hipóteses H1 e H2) ou o seu viés (hipótese H3). Entretanto, os resultados mostram que vários fatores que se mostram significativos em testes conduzidos em mercados desenvolvidos – tais como tamanho, endividamento e variabilidade do lucro – não se mostraram significativos no mercado brasileiro. Por outro lado, os fatores relacionados com o resultado do ano projetado ou do ano anterior se mostraram fortemente significativos. Acreditamos que os resultados podem ser explicados de três maneiras: 1) ou a capacidade de adicionar valor dos analistas em relação a modelos estatísticos de projeção é muito pequena, devido à sua falta de habilidade; ou 2) a instabilidade macroeconômica é tão grande domina todos os outros fatores que poderiam influenciar o tamanho do erro de projeção; ou 3) os resultados das empresas nos mercados desenvolvidos são tão administrados, isto é, tão estáveis, que permitem que fatores mais sutis como o tamanho, o nível de endividamento e a variabilidade do lucro se tornem significativos. Esta dissertação não permite distinguir qual das explicações é a correta. Uma de suas limitações é não incluir variáveis referentes à habilidade e experiência dos analistas e, também, variáveis relacionadas a fatores como governança corporativa e disclosure de informações. Em uma linha de pesquisa muito extensa nos países desenvolvidos, mas praticamente inexistente no Brasil, esperamos que estudos futuros supram estas lacunas e nos permitam entender melhor a questão da qualidade das projeções de resultados no contexto brasileiro.
Resumo:
Aparentemente existe uma anomalia no mercado de ações, onde é possível prever excessos de retomo das ações baseando-se em dados passados de divulgação de lucro. Este fenômeno é estatisticamente significante e parece não ser um artefato de amostragem ou metodologia, mas de uma ineficiência de mercado. Estudos mostram uma tendência dos excessos de retornos acumulados das ações se movimentarem na direção da surpresa de lucro, e este movimento se estende por meses após a data de divulgação de lucro trimestral. Neste trabalho mostro que este fenômeno ocorre também no Brasil, mesmo utilizando uma amostra com especificidades do mercado brasileiro e utilizando dados de expectativas de lucro de analistas financeiros no lugar de previsão estatística.
Resumo:
Este estudo compara previsões de volatilidade de sete ações negociadas na Bovespa usando 02 diferentes modelos de volatilidade realizada e 03 de volatilidade condicional. A intenção é encontrar evidências empíricas quanto à diferença de resultados que são alcançados quando se usa modelos de volatilidade realizada e de volatilidade condicional para prever a volatilidade de ações no Brasil. O período analisado vai de 01 de Novembro de 2007 a 30 de Março de 2011. A amostra inclui dados intradiários de 5 minutos. Os estimadores de volatilidade realizada que serão considerados neste estudo são o Bi-Power Variation (BPVar), desenvolvido por Barndorff-Nielsen e Shephard (2004b), e o Realized Outlyingness Weighted Variation (ROWVar), proposto por Boudt, Croux e Laurent (2008a). Ambos são estimadores não paramétricos, e são robustos a jumps. As previsões de volatilidade realizada foram feitas através de modelos autoregressivos estimados para cada ação sobre as séries de volatilidade estimadas. Os modelos de variância condicional considerados aqui serão o GARCH(1,1), o GJR (1,1), que tem assimetrias em sua construção, e o FIGARCH-CHUNG (1,d,1), que tem memória longa. A amostra foi divida em duas; uma para o período de estimação de 01 de Novembro de 2007 a 30 de Dezembro de 2010 (779 dias de negociação) e uma para o período de validação de 03 de Janeiro de 2011 a 31 de Março de 2011 (61 dias de negociação). As previsões fora da amostra foram feitas para 1 dia a frente, e os modelos foram reestimados a cada passo, incluindo uma variável a mais na amostra depois de cada previsão. As previsões serão comparadas através do teste Diebold-Mariano e através de regressões da variância ex-post contra uma constante e a previsão. Além disto, o estudo também apresentará algumas estatísticas descritivas sobre as séries de volatilidade estimadas e sobre os erros de previsão.
Resumo:
Este trabalho tem por objetivo avaliar para o caso brasileiro uma das mais importantes propriedades esperadas de um núcleo: ser um bom previsor da inflação plena futura. Para tanto, foram utilizados como referência para comparação dois modelos construídos a partir das informações mensais do IPCA e seis modelos VAR referentes a cada uma das medidas de núcleo calculadas pelo Banco Central do Brasil. O desempenho das previsões foi avaliado pela comparação dos resultados do erro quadrático médio e pela aplicação da metodologia de Diebold-Mariano (1995) de comparação de modelos. Os resultados encontrados indicam que o atual conjunto de medidas de núcleos calculado pelo Banco Central não atende pelos critérios utilizados neste trabalho a essa característica desejada.
Resumo:
Analisa-se as técnicas de previsão mais utilizadas pelos analistas técnicos, procurando verificar se existe base estatística que corrobore a elevada popularidade que estes métodos possuem nos mercados financeiros. A evidência estatística mostra que estes métodos funcionam durante determinados períodos de tempo, não existindo evidência de que o mesmo método funcione durante longos períodos de tempo.
Resumo:
Redes Bayesianas podem ser ferramentas poderosas para construção de modelos econômico-financeiros utilizados para auxílio à tomada de decisão em situações que envolvam grau elevado de incerteza. Relações não-lineares entre variáveis não são capturadas em modelos econométricos lineares. Especialmente em momentos de crise ou de ruptura, relações lineares, em geral, não mais representam boa aproximação da realidade, contribuindo para aumentar a distância entre os modelos teóricos de previsão e dados reais. Neste trabalho, é apresentada uma metodologia para levantamento de dados e aplicação de Redes Bayesianas na obtenção de modelos de crescimento de fluxos de caixa de empresas brasileiras. Os resultados são comparados a modelos econométricos de regressão múltipla e finalmente comparados aos dados reais observados no período. O trabalho é concluído avaliando-se as vantagens de desvantagens da utilização das Redes de Bayes para esta aplicação.
Resumo:
Com o objetivo de avaliar o uso do consumo de energia elétrica como indicador socioeconômico, esta pesquisa analisa informações em dois níveis de agregação geográfica. No primeiro, sob perspectiva territorial, investiga indicadores de Renda e Consumo de Energia Elétrica agregados por áreas de ponderação (conjunto de setores censitários) do município de São Paulo e utiliza os microdados do Censo Demográfico 2000 em conjunto com a base de domicílios da AES Eletropaulo. Aplica modelos de Spatial Auto-Regression (SAR), Geographically Weighted Regression (GWR), e um modelo inédito combinado (GWR+SAR), desenvolvido neste estudo. Diversas matrizes de vizinhança foram utilizadas na avaliação da influência espacial (com padrão Centro-Periferia) das variáveis em estudo. As variáveis mostraram forte auto-correlação espacial (I de Moran superior a 58% para o Consumo de Energia Elétrica e superior a 75% para a Renda Domiciliar). As relações entre Renda e Consumo de Energia Elétrica mostraram-se muito fortes (os coeficientes de explicação da Renda atingiram valores de 0,93 a 0,98). No segundo nível, domiciliar, utiliza dados coletados na Pesquisa Anual de Satisfação do Cliente Residencial, coordenada pela Associação Brasileira dos Distribuidores de Energia Elétrica (ABRADEE), para os anos de 2004, 2006, 2007, 2008 e 2009. Foram aplicados os modelos Weighted Linear Model (WLM), GWR e SAR para os dados das pesquisas com as entrevistas alocadas no centróide e na sede dos distritos. Para o ano de 2009, foram obtidas as localizações reais dos domicílios entrevistados. Adicionalmente, foram desenvolvidos 6 algoritmos de distribuição de pontos no interior dos polígonos dos distritos. Os resultados dos modelos baseados em centróides e sedes obtiveram um coeficiente de determinação R2 em torno de 0,45 para a técnica GWR, enquanto os modelos baseados no espalhamento de pontos no interior dos polígonos dos distritos reduziram essa explicação para cerca de 0,40. Esses resultados sugerem que os algoritmos de alocação de pontos em polígonos permitem a observação de uma associação mais realística entre os construtos analisados. O uso combinado dos achados demonstra que as informações de faturamento das distribuidoras de energia elétrica têm grande potencial para apoiar decisões estratégicas. Por serem atuais, disponíveis e de atualização mensal, os indicadores socioeconômicos baseados em consumo de energia elétrica podem ser de grande utilidade como subsídio a processos de classificação, concentração e previsão da renda domiciliar.
Resumo:
Este trabalho investiga e analisa as diferenças das taxas anuais de inflação realizadas com relação às previsões dos agentes econômicos do mercado para um ano à frente. Os índices analisados foram o IPCA, IPA-M, IGP-M e o IGP-DI. Referente à previsão dos agentes para cada índice, foi feito uma análise estatística e uma análise de séries temporais através do modelo ARIMA. Este último explicou o erro de previsão dos agentes econômicos através de valores passados, ou defasados, do próprio erro de previsão, além dos termos estocásticos.
Resumo:
O presente trabalho tem como objetivo avaliar a capacidade preditiva de modelos econométricos de séries de tempo baseados em indicadores macroeconômicos na previsão da inflação brasileira (IPCA). Os modelos serão ajustados utilizando dados dentro da amostra e suas projeções ex-post serão acumuladas de um a doze meses à frente. As previsões serão comparadas a de modelos univariados como autoregressivo de primeira ordem - AR(1) - que nesse estudo será o benchmark escolhido. O período da amostra vai de janeiro de 2000 até agosto de 2015 para ajuste dos modelos e posterior avaliação. Ao todo foram avaliadas 1170 diferentes variáveis econômicas a cada período a ser projetado, procurando o melhor conjunto preditores para cada ponto no tempo. Utilizou-se o algoritmo Autometrics para a seleção de modelos. A comparação dos modelos foi feita através do Model Confidence Set desenvolvido por Hansen, Lunde e Nason (2010). Os resultados obtidos nesse ensaio apontam evidências de ganhos de desempenho dos modelos multivariados para períodos posteriores a 1 passo à frente.
Resumo:
Este trabalho compara diferentes metodologias de previsão de volatilidade para vértices da estrutura a termo de juros em reais e propõe um novo modelo, batizado como COPOM-GARCH, para estimação desta. O modelo COPOM-GARCH se utiliza de duas variáveis dummy, uma no dia de divulgação do resultado da Reunião do COPOM e outra no dia seguinte, para fazer uma melhor previsão da volatilidade tanto nestes dois dias quanto nos dias subseqüentes.