104 resultados para Previsão do tempo
Resumo:
O trabalho testa o poder de previsão da volatilidade futura, de cinco modelos : um modelo ingênuo, do tipo martingale, o modelo sugerido pelo JPMorgan em seu RiskMetrics™, o modelo GARCH-Generalized Autoregressive Conditional Heteroscedasticity, o modelo da volatilidade implícita e combinações de Risk:MetricsTM com volatilidade implícita e de GARCH com volatilidade implícita. A série estudada é a volatilidade para vinte e cinco dias, dos retornos diários do contrato futuro de Ibovespa, negociado na BM&F - Bolsa de Mercadorias e Futuros. Particularidades brasileiras são introduzidas na. estimação dos parâmetros do modelo GARCH. O poder de previsão é testado com medidas estatísticas, envolvendo equações de perdas (loss functions) simétricas e assimétricas, e com uma medida econômica, dada pelo lucro obtido a partir da simulação da realização de operações hedgeadas, sugeridas pelas previsões de volatilidade. Tanto com base nas medidas estatísticas como na medida econômica, o modelo GARCH emerge como o de melhor desempenho. Com base nas medidas estatísticas, esse modelo é particularmente melhor em período de mais alta volatilidade. Com base na medida econômica, contudo, o lucro obtido não é estatisticamente diferente de zero, indicando eficiência do mercado de opções de compra do contrato futuro de Ibovespa, negociado na mesmaBM&F.
Resumo:
Este artigo estuda a previsão da estrutura a termo da taxa de juros brasileira utilizando de fatores comuns extraídos de uma vasta base de séries macroeconômicas. Os períodos para estimação e previsão compreendem o intervalo de Janeiro de 2000 a Maio de 2012. Foram empregas 171 séries mensais para a construção da base. Primeiramente foi implementado o modelo proposto por Moench (2008), no qual a dinâmica da taxa de juros de curto prazo é modelada através de um FAVAR e a estrutura a termo é derivada utilizando-se de restrições implicadas por não arbitragem. A escolha pela adoção deste modelo se deve aos resultados obtidos no estudo original, nos quais tal modelagem apresentou melhor desempenho preditivo para horizontes intermediários e longos quando comparado com benchmarks usuais. Contudo, tais resultados também apresentaram uma deterioração progressiva à medida que as maturidades aumentam, evidenciando uma possível inadequação do modelo para as partes intermediária e longa da curva. A implementação deste modelo para a estrutura a termo brasileira levou a resultados muito similares ao do estudo original. Visando contornar a deterioração mencionada, foi proposta uma modelagem alternativa na qual a dinâmica de cada taxa é modelada conjuntamente com os fatores macroeconômicos, eliminando-se as restrições implicadas por não arbitragem. Tal modelagem proporcionou resultados de previsão amplamente superiores e através dela foi possível confirmar a inadequação descrita. Por fim, também foi realizada a inserção dos fatores macro na dinâmica dos fatores beta do modelo de Diebold e Li (2006), levando a um grande ganho de capacidade preditiva, principalmente para horizontes maiores de previsão.
Resumo:
Com base em uma metodologia desenvolvida por Frankel e Lown (1994), que surge para aperfeiçoar o arcabouço utilizado por Mishkin (1990a,1990b) ao permitir, em contraposição a este, a variação ao longo do tempo da taxa de juros real de longo prazo de uma economia, o presente trabalho se propõe a verificar o existência, para dados brasileiros, de evidências empíricas que suportem a aceitação da hipótese de que a estrutura a termo da curva de juros possui informações que auxiliam na previsão da trajetória futura da inflação, característica já encontrada em dados de algumas economias desenvolvidas, como Estados Unidos e Alemanha. A modificação marginal implementada por Frankel e Lown é importante porque permite que os resultados finais sejam interpretados dentro de um contexto teórico mais próximo da realidade, isto é, onde as decisões de política monetária são capazes de influenciar a variável acima mencionada. Analisa-se, para o período de janeiro de 2003 a janeiro de 2013, o poder explicativo que diversas medidas de inclinação da curva de juros local têm sobre a variação futura do índice de preços ao consumidor ampliado (IPCA), o mais importante da economia brasileira. Em linhas gerais, encontramos que, em consonância com a experiência internacional, independente de tratarmos os dados na forma com ou sem ajustes sazonais, ou de tratar as variáveis relativas à taxa de juros como logaritmo de um fator mais suas taxas ou de apresentá-las em seu próprio nível, existem evidências empíricas que indicam a existência de poder preditivo desta variável explicativa sobre a referida variável dependente, ou ao menos tornam difícil rejeitar, em um primeiro momento, esta hipótese inicial.
Resumo:
As técnicas qualitativas disponiveis para a modelagem de cenários têm sido reconhecidas pela extrema limitação, evidenciada no principio das atividades do processo, como a fase inicial de concepção. As principais restrições têm sido: • inexistência de uma ferramenta que teste a consistência estrutural interna do modelo, ou pela utilização de relações econômicas com fundamentação teórica mas sem interface perfeita com o ambiente, ou pela adoção de variações binárias para testes de validação; • fixação "a priori" dos possíveis cenários, geralmente classificados sob três adjetivos - otimista, mais provável e pessimista - enviesados exatamente pelos atributos das pessoas que fornecem esta informação. o trabalho trata da utilização de uma ferramenta para a interação entre uma técnica que auxilia a geração de modelos, suportada pela lógica relacional com variações a quatro valores e expectativas fundamentadas no conhecimento do decisor acerca do mundo real. Tem em vista a construção de um sistema qualitativo de previsão exploratória, no qual os cenários são obtidos por procedimento essencialmente intuitivo e descritivos, para a demanda regional por eletricidade. Este tipo de abordagem - apresentada por J. Gershuny - visa principalmente ao fornecimento de suporte metodológico para a consistência dos cenários gerados qualitativamente. Desenvolvimento e estruturação do modelo são realizados em etapas, partindo-se de uma relação simples e prosseguindo com a inclusão de variáveis e efeitos que melhoram a explicação do modelo. o trabalho apresenta um conjunto de relações para a demanda regional de eletricidade nos principais setores de consumo residencial, comercial e industrial bem como os cenários resultantes das variações mais prováveis das suas componentes exógenas. Ao final conclui-se que esta técnica é útil em modelos que: • incluem variáveis sociais relevantes e de dificil mensuração; • acreditam na importância da consistência externa entre os resultados gerados pelo modelo e aqueles esperados para a tomada de decisões; • atribuem ao decisor a responsabilidade de compreender a fundamentação da estrutura conceitual do modelo. Adotado este procedimento, o autor aqui recomenda que o modelo seja validado através de um procedimento iterativo de ajustes com a participação do decisor. As técnicas quantitativas poderão ser adotadas em seguida, tendo o modelo como elemento de consistência.
Resumo:
Do ponto de vista formal, este trabalho caracteriza-se por uma reflexão contínua a respeito dos encontros e desencontros humanos que, neste momento, dirige-se para uma sistematização que permita sua legibilidade por terceiros. Contribuir para a construção de uma Psico-Sociologia do Amor, através do desenvolvimento de uma caminhada em busca de maior compreensão para o conflito no Pequeno Grupo Humano de Trabalho, tentando delinear um quadro revelador de elementos chave no processo de cisão-coesão do mesmo.
Resumo:
Este trabalho compara modelos de séries temporais para a projeção de curto prazo da inflação brasileira, medida pelo Índice de Preços ao Consumidor Amplo (IPCA). Foram considerados modelos SARIMA de Box e Jenkins e modelos estruturais em espaço de estados, estimados pelo filtro de Kalman. Para a estimação dos modelos, foi utilizada a série do IPCA na base mensal, de março de 2003 a março de 2012. Os modelos SARIMA foram estimados no EVIEWS e os modelos estruturais no STAMP. Para a validação dos modelos para fora da amostra, foram consideradas as previsões 1 passo à frente para o período de abril de 2012 a março de 2013, tomando como base os principais critérios de avaliação de capacidade preditiva propostos na literatura. A conclusão do trabalho é que, embora o modelo estrutural permita, decompor a série em componentes com interpretação direta e estudá-las separadamente, além de incorporar variáveis explicativas de forma simples, o desempenho do modelo SARIMA para prever a inflação brasileira foi superior, no período e horizonte considerados. Outro importante aspecto positivo é que a implementação de um modelo SARIMA é imediata, e previsões a partir dele são obtidas de forma simples e direta.
Resumo:
Este trabalho tem por objetivo a construção de uma rede neural para previsão do movimento dos contratos de dólar futuro e a construção de estratégias de negociação, para prover uma ferramenta para estimar o movimento do câmbio e para a negociação desses ativos. Essa ferramenta pode auxiliar empresas que necessitam fazer hedge de ativos e passivos e players do mercado que necessitam rentabilizar carteiras. Neste trabalho utilizamos como input dados de ativos do mercado financeiro, de janeiro de 2001 até setembro de 2013, disponíveis via terminal Bloomberg. Para o cálculo dos resultados financeiros das estratégias utilizamos dados de preços referenciais disponibilizados pela BM&F.
Resumo:
O presente artigo estuda os ciclos de negócios brasileiro no período dos anos 1900 até 2012. Como a série trimestral do PIB real só começa em 1980 é construida a série para o período de 1900 a 1979, utilizando um modelo estrutural de series de tempo com disagregação temporal para o primeiro período. A partir disso, um modelo com mudança Markoviana é proposto para que seja construída uma cronologia de ciclo de negócios. O modelo selecionado possui dois regimes distintos cenários de expansão e de recessão, a datação obtida é comparada com outros estudos sobre o tema e são propostas caracterizações das fases de crescimento que podem apoiar estudos sobre a história econômica do Brasil.
Resumo:
O objetivo desse trabalho é estimar a medida dinâmica VNET de profundidade de mercado para ações brasileiras a partir de dados de transação. VNET mede a diferença no número de ações compradas e vendidas no intervalo de tempo necessário para que o preço se movesse além de um determinado incremento. É uma medida de liquidez realizada para uma deterioração específica de preço que pode ser calculada seguidamente ao longo do dia, capturando assim a dinâmica de curto prazo da liquidez. Em particular, assume-se que essa duração de preços segue um modelo autorregressivo de duração condicional (ACD). A natureza pré-determinada do processo ACD é conveniente porque nos permite prever mudanças futuras na liquidez de uma ação. Assim, ao identificar os melhores momentos para realizar uma operação de compra ou venda, o VNET é um excelente ponto de partida para qualquer estratégia de execução ótima. Os resultados empíricos deste trabalho indicam que a profundidade de mercado medida pelo VNET varia com ágio de compra e venda, com o volume negociado, com o número de negócios, com a duração de preços condicional, e com o seu erro de previsão. Para estimar a curva de reação do mercado, variamos os intervalos de preço usados na definição das durações de preços.
Resumo:
O trabalho dimensiona a concentração da produção – tanto a destinada ao autoconsumo quanto a vendida, do ponto de vista dos estabelecimentos. Verificou-se que 423.689 estabelecimentos (8,19% dos 5.175.489 estabelecimentos reportados pelo Censo Agropecuário de 2006) foram responsáveis por 84,89% da produção declarada¹. Cada estabelecimento desse estrato produziu por mês, em média, R$ 24.012,55 equivalentes a 80,04 salários mínimos. Desses, apenas 22.188 (0,43%) estabelecimentos produziram 51,34% do valor da produção. Em seguida, estão os 975.974 estabelecimentos da classe [7.200,00, 36.000,00), em R$/ano, que correspondem a 18,86% do número total de estabelecimentos e geraram 11,08% do valor da produção declarada². Os estabelecimentos desse estrato geraram por mês, em média, R$ 1.360,38, ou seja, 4,53 salários mínimos. Finalmente, seguem-se os estabelecimentos da classe [0, 7.200,00), em número de 3.775.826 (72,96% do total). Geraram valor de produção correspondente a 4,04% do total, sendo R$ 128,13, em média, por estabelecimento/mês, ou 0,43 salário mínimo (de 2006). Portanto, estamos diante de grande concentração da produção e, ressalte-se, não estamos falando de concentração de renda, e nem fazendo comparações com outros setores da economia, a qual, para ser estabelecida, exigiria conhecimento da renda líquida. O primeiro grupo de estabelecimentos pode ser atendido por políticas de alcance geral, que em geral se somam às tendências predominantes no mercado, e tem condições de resolver o seu problema de renda dentro da agricultura comercial na qual já se insere. O mesmo se dá com o segundo grupo, desde que bem assistido por políticas específicas. Já a solução agrícola para a pobreza do terceiro grupo é bem mais complexa e desafiadora da capacidade dos governantes e dirigentes públicos de conceber e implementar políticas consistentes com a extensão e a profundidade do desafio. Engloba 11,3 milhões de pessoas (admitindo a média de três por estabelecimento), fortes candidatas a optarem pelo endereço urbano, visto terem plena consciência do custo de oportunidade da opção de vida rural comparada à da urbana. Em princípio, nada há, filosoficamente, que recomende evitar tal migração, dado que aí está em jogo o direito de ir e vir, um dos mais fundamentais na sociedade contemporânea. Contudo, torna-se recomendável examinar alternativas de políticas capazes de tornar a opção de residência no campo mais atrativa às famílias do que a urbana, oferecendo-lhes perspectivas de progresso pessoal. Para tanto, é necessária forte dose de política assistencialista. No Nordeste, residem 47,09% de toda a população rural. De acordo com o Censo Agropecuário 2006, conforme dados fornecidos pelo IBGE, 47,42% de todos os estabelecimentos estão lá. A produção por estabelecimento, naquele ano, correspondeu a R$ 11.578,44 contra R$ 27.789,50 para o Brasil. Vê-se então que reside no Nordeste grande parte do desafio da pobreza rural brasileira, e é lá que se deve concentrar a maior parte das políticas assistencialistas.
Resumo:
Este trabalho tem como objetivo comparar diferentes métodos de previsão de necessidades de caixa no overnight, que assegurem que a liquidez de um produto financeiro específico – neste caso, o Call Deposits (Depósito à Vista, em moeda estrangeira) – seja suficiente para cobrir os riscos de liquidez de uma instituição financeira e, em contrapartida, otimizem o lucro oriundo do saldo restante que ultrapasse o valor de saída destes modelos. Para isso, o modelo de Fluxo de Caixa de Schmaltz (2009), que segrega os diferentes componentes do caixa (determinísticos e estocásticos), será utilizado para determinar as necessidades de caixa e, através do método de Monte Carlo para a previsão de diferentes caminhos, chegamos a um valor médio de saldo para ser utilizado no overnight. Como comparativo, será utilizado o modelo determinístico de Ringbom et al (2004), que oferece a “Taxa de Reserva de Maximização de Lucro”, para, enfim, compará-los historicamente, entre Jan/2009 e Dez/2013, a fim de concluirmos qual dos modelos de reservas de caixa se mostra mais satisfatório. A base de dados utilizada replica os saldos e saques de um banco comercial, para o produto financeiro em questão, e, também, é utilizada para a estimação dos parâmetros.
Resumo:
Com o objetivo de mostrar uma aplicação dos modelos da família GARCH a taxas de câmbio, foram utilizadas técnicas estatísticas englobando análise multivariada de componentes principais e análise de séries temporais com modelagem de média e variância (volatilidade), primeiro e segundo momentos respectivamente. A utilização de análise de componentes principais auxilia na redução da dimensão dos dados levando a estimação de um menor número de modelos, sem contudo perder informação do conjunto original desses dados. Já o uso dos modelos GARCH justifica-se pela presença de heterocedasticidade na variância dos retornos das séries de taxas de câmbio. Com base nos modelos estimados foram simuladas novas séries diárias, via método de Monte Carlo (MC), as quais serviram de base para a estimativa de intervalos de confiança para cenários futuros de taxas de câmbio. Para a aplicação proposta foram selecionadas taxas de câmbio com maior market share de acordo com estudo do BIS, divulgado a cada três anos.
Resumo:
A morosidade é problema crônico do Judiciário brasileiro, tendo já sido objeto de incontáveis estudos. Igualmente numerosas são as medidas adotadas para atacar o problema, incluindo o reconhecimento do direito fundamental à razoável duração do processo e metas de diversos órgãos judiciais. O Supremo Tribunal Federal não é exceção: os ministros convivem constantemente com a morosidade e já adotaram diversas medidas para vencê-la ou ao menos mitigá-la. A FGV DIREITO RIO reconhece o valor de tais iniciativas e, como forma de apoio incondicional ao STF, produziu o presente relatório, o terceiro do projeto Supremo em Números. O objetivo é dar aos ministros as informações necessárias para viabilizar as iniciativas mencionadas de combate à morosidade. O tempo é um fator crucial para qualquer Tribunal. Nesse relatório mostramos em detalhes o que o tempo significa para o Supremo.
Resumo:
A principal explicação sugerida pela literatura para o viés do preço futuro em relação à taxa de câmbio que prevalecerá no futuro é a existência de um prêmio de risco. Aplicamos aqui os principais modelos teóricos e técnicas econométricas para identificação e mensuração do prêmio de risco aos dados brasileiros do mercado futuro de câmbio posteriores ao Plano Real. Identifica-se um prêmio de risco que varia ao longo do tempo, o qual correlaciona-se com os fundamentos macroeconômicos da economia. A partir de 1999, coerentemente com a introdução da livre flutuação cambial, observou-se uma diminuição da importância do prêmio de risco relativamente aos erros de previsão na composição do forward discount. As técnicas empregadas permitem-nos avaliar importantes questões de política econômica, como o quanto podem cair as taxas de juros reais.
Resumo:
Este trabalho investiga e analisa as diferenças das taxas anuais de inflação realizadas com relação às previsões dos agentes econômicos do mercado para um ano à frente. Os índices analisados foram o IPCA, IPA-M, IGP-M e o IGP-DI. Referente à previsão dos agentes para cada índice, foi feito uma análise estatística e uma análise de séries temporais através do modelo ARIMA. Este último explicou o erro de previsão dos agentes econômicos através de valores passados, ou defasados, do próprio erro de previsão, além dos termos estocásticos.