998 resultados para Passeio aleatório (Matemática)
Resumo:
As variáveis econômicas são frequentemente governadas por processos dinâmicos e não-lineares que podem gerar relações de dependência de longo prazo e padrões cíclicos não-periódicos com mudanças abruptas de tendências. Para o caso dos preços agrícolas este comportamento não é diferente e as peculiaridades destes mercados podem gerar séries temporais fracionalmente integradas, cujas singularidades não seriam adequadamente capturadas pelos tradicionais modelos analíticos fundamentados na hipótese dos mercados eficientes e de passeio aleatório. Sendo assim, o presente estudo buscou investigar a presença de estruturas fractais no mercado à vista de algumas das principais commodities agrícolas brasileiras: café, boi gordo, açúcar, milho, soja e bezerro. Foram empregadas técnicas tradicionais e específicas para a análise de séries temporais fractais como a análise de R/S e a aplicação de modelos das famílias ARFIMA e FIGARCH. Os resultados indicaram que, com exceção do bezerro, o componente de drift destas séries não apresentou comportamento fractal, ao contrário do observado para o componente da volatilidade, que apresentou aspecto de estrutura fractal para todas as commodities analisadas.
Resumo:
Em 1828 foi observado um fenômeno no microscópio em que se visualizava minúsculos grãos de pólen mergulhados em um líquido em repouso que mexiam-se de forma aleatória, desenhando um movimento desordenado. A questão era compreender este movimento. Após cerca de 80 anos, Einstein (1905) desenvolveu uma formulação matemática para explicar este fenômeno, tratado por movimento Browniano, teoria cada vez mais desenvolvida em muitas das áreas do conhecimento, inclusive recentemente em modelagem computacional. Objetiva-se pontuar os pressupostos básicos inerentes ao passeio aleatório simples considerando experimentos com e sem problema de valor de contorno para melhor compreensão ao no uso de algoritmos aplicados a problemas computacionais. Foram explicitadas as ferramentas necessárias para aplicação de modelos de simulação do passeio aleatório simples nas três primeiras dimensões do espaço. O interesse foi direcionado tanto para o passeio aleatório simples como para possíveis aplicações para o problema da ruína do jogador e a disseminação de vírus em rede de computadores. Foram desenvolvidos algoritmos do passeio aleatório simples unidimensional sem e com o problema do valor de contorno na plataforma R. Similarmente, implementados para os espaços bidimensionais e tridimensionais,possibilitando futuras aplicações para o problema da disseminação de vírus em rede de computadores e como motivação ao estudo da Equação do Calor, embora necessita um maior embasamento em conceitos da Física e Probabilidade para dar continuidade a tal aplicação.
Resumo:
A pesquisa teve como objetivo testar se preços no mercado futuro brasileiro seguem um passeio aleatório - uma das versões da chamada Hipótese do Mercado Eficiente. Foram estudados os preços dos contratos futuros de Ibovespa e de dólar comercial, de 30 de junho de 1994 a 31 de dezembro de 1998. Aplicação de testes paramétricos e não-paramétricos envolvendo a Relação de Variâncias (Variance Ratio) de Lo-MacKinlay levam à conclusão de que a hipótese testada não pode ser rejeitada, apontando, portanto, para eficiência em tais mercados.
Resumo:
O estudo busca identificar quais variáveis são as mais relevantes para previsão da taxa de câmbio real efetiva e analisar a robustez dessas previsões. Foram realizados testes de cointegração de Johansen em 13 variáveis macroeconômicas. O banco de dados utilizado são séries trimestrais e os testes foram realizados sobre as séries combinadas dois a dois, três a três e quatro a quatro. Utilizando esse método, encontramos modelos que cointegravam entre si, para os países analisados. A partir desses modelos, foram feitas previsões fora da amostra a partir das últimas 60 observações. A qualidade das previsões foi avaliada por meio dos testes de Erro Quadrático Médio (EQM) e Modelo do Conjunto de Confiança de Hansen (MCS) utilizando um modelo de passeio aleatório do câmbio real como benchmark. Todos os testes mostram que, à medida que se aumenta o horizonte de projeção, o passeio aleatório perde poder preditivo e a maioria dos modelos são mais informativos sobre o futuro da taxa de câmbio real efetivo.
Resumo:
Neste trabalho, propomos uma especificação de modelo econométrico na forma reduzida, estimado por mínimos quadrados ordinários (MQO) e baseado em variáveis macroeconômicas, com o objetivo de explicar os retornos trimestrais do índice de ações IBRX-100, entre 2001 e 2015. Testamos ainda a eficiência preditiva do modelo e concluímos que o erro de previsão estimado em janela móvel, com re-estimação de MQO a cada rodada, e utilização de VAR auxiliar para projeção dos regressores, é significativamente inferior ao erro de previsão associado à hipótese de Random Walk para o horizonte de previsão de um trimestre a frente.
Resumo:
Este artigo investiga versões do modelo de passeio aleatório dos preços de ativos em diversos horizontes de tempo, para carteiras diversificadas de ações no mercado brasileiro. Evidências contrárias a tal modelo são observadas nos horizontes diário e semanal, caracterizados por persistência. As evidências são mais fracas em períodos mais recentes. Encontramos também sazonalidades diárias, incluindo o efeito segunda-feira, e mensais. Adicionalmente, um padrão de assimetria de autocorrelações cruzadas de primeira ordem entre os retornos de carteiras de firmas agrupadas segundo seu tamanho também é observado, indicando no caso de retornos diários e semanais que retornos de firmas grandes ajudam a prever retornos de firmas pequenas. Evidências de não linearidades nos retornos são observadas em diversos horizontes de tempo.
Resumo:
Este artigo analisa a série de consumo agregado do Brasil. Como usual, investigamos, primeiramente, a aplicabilidade da hipótese do passeio aleatório do consumo, derivada teoricamente a partir das hipóteses de ciclo de vida/renda permanente e expectativas racionais (TRP). Utilizando a decomposição de Beveridge e Nelson (1981) verificamos que o consumo apresenta, além de uma tendência estocástica, uma parte cíclica estacionária, o que não é compatível com a TRP. Este resultado está em conformidade com o resultado de Reis et alii (1998) de que grande parte da população brasileira está restrita a consumir sua renda corrente, existindo um ciclo comum entre consumo e renda. Em uma tentativa de gerar um processo estocástico para o consumo compatível com a evidência empírica introduzimos formação de hábito nas preferências de um consumidor representativo. No entanto, o processo daí derivado não se mostrou significativo diante da possibilidade dos consumidores serem restritos à liquidez.
Resumo:
Esta tese discute a dívida cambial doméstica do setor público brasileiro entre 1995 e 2004. Argumenta-se que a origem dessa dívida não está relacionada à busca de uma composição ótima da dívida pública, mas sim a objetivos de política cambial. O caso dos tesobonos mexicanos é analisado como precedente para o caso brasileiro, ressaltando-se três peculiaridades: o prazo médio dos títulos cambiais; a concentração da dívida pública mexicana no mercado internacional; e a importância dos não-residentes entre os detentores. O caso brasileiro foi apresentado a partir de uma perspectiva histórica, desde a introdução das ORTN com cláusula de correção cambial, no fim dos anos sessenta. Foi realizada uma tentativa de reconstrução da trajetória da dívida mobiliária cambial até o período recente. Levando-se em consideração que os objetivos desse instrumento estão concentrados na política cambial, foi feita uma breve resenha da literatura sobre os determinantes da taxa de câmbio, começando por Meese e Rogoff (1983), que introduziram a idéia de que um passeio aleatório é melhor previsor do câmbio que os modelos baseados em fundamentos macroeconômicos. É feita também uma breve revisão da literatura sobre intervenção no câmbio, que é farta em trabalhos para países desenvolvidos e escassa no que se refere aos países emergentes. A colocação de títulos indexados ao câmbio é tratada como intervenção, avaliando-se seus efeitos sobre a taxa de câmbio e sua volatilidade. No exercício econométrico, foi construída uma base de dados diários de endividamento cambial doméstico, através da agregação dos leilões primários de títulos e de swaps emitidos entre 1991 e 2004. O impacto da dívida cambial sobre o câmbio foi estimado, para os períodos de câmbio administrado (1995-1999) e de câmbio flutuante (1999-2004), através de um Modelo Vetorial de Correção de Erro (VECM). As elasticidades estimadas apresentaram uma possível ocorrência de simultaneidade, que foi detectada através de um teste de causalidade de Granger. Esse teste revelou uma causação bi-direcional de tipo feedback. As estimações estão sujeitas a heterocedasticidade, que foi corrigida através da estimação de um GARCH. Este revelou que a elasticidade do câmbio em relação à intervenção com dívida cambial é de -0,17 no câmbio administrado e de -2,15 no câmbio flutuante.
Resumo:
São dois os objetivos deste trabalho. O primeiro é apresentar o resultado da aplicação de dois modelo de preços de commodities (Reversão à média e Short-Term Variations / Long-Term Dynamics) a série de preços de três metais industriais: cobre, alumínio e níquel. Dentre os resultados obtidos no modelo Short-Term Variations / Long-Term Dynamics, obtemos as estimativas das séries históricas de duas variáveis não-observáveis: Preço de equilíbrio e Desvio de curto prazo do preço. Enquanto preço de equilíbrio pode ser relacionado através da teoria econômica a fatores de difícil observação ou não observáveis como, por exemplo, o custo marginal de produção, o desvio de curto prazo do preço pode ser relacionado a pelo menos uma variável com indicador observável: nível de estoques. Dada a relação empírica verificada entre a série de desvios de curto prazo estimada e o nível de estoques observado, o segundo objetivo deste estudo é propor a extensão do modelo Short-Term Variations / Long-Term Dynamics para que considere explicitamente informações referentes a níveis de estoque. Com este trabalho pudemos concluir que a especificação do modelo Short-Term Variations / Long-Term Dynamics traz um ganho de informação para o analista, estimando realisticamente variações no preço de equilíbrio e nível do desvio de curto prazo. Observamos ainda a existência de relação entre o desvio de curto-prazo e níveis de estoque. Através da introdução da informação relativa a estoque no modelo Short-Term / Long-Term pudemos verificar que o prêmio de escassez afeta a formação do preço do cobre e níquel, e potencialmente do alumínio, através de relações semelhantes. Do ponto de vista de previsão, pudemos observar que nenhum dos modelos tem poder de previsão consistentemente superior ao passeio aleatório. O modelo Short-Term / Long-Term apresenta a segunda melhor performance e o modelo proposto perde poder de previsão significativamente em horizontes maiores que um ano.
Resumo:
O trabalho tem como objetivo analisar a relação entre consumo e renda agregados das famílias no Brasil para os últimos 60 anos. Para realizar esta análise, foi utilizado a metodologia econométrica construída por Bierens e Martins (2010), que consiste na estimação de Vetor Autoregressivo com Mecanismo de Correção de Erros (VECM) similar ao modelo proposto por Johansen (1988), porém permitindo que o vetor de cointegração varie ao longo do tempo. Este modelo estimado mostrou-se melhor comparado a análise tradicional de Johansen (1988). Os resultados obtidos neste trabalho sugerem que a dinâmica do consumo e da renda variou ao longo do período amostral e que o consumo brasileiro parece não ser bem descrito por um passeio aleatório.
Resumo:
Considerando a teoria do consumo, especialmente a da renda permanente, a maximização da utilidade para o indivíduo ocorre quando ele consegue suavizar o seu consumo ao longo da vida. Dessa forma a estabilidade no consumo é preferida à momentos de expansão precedidos de retração. Estudos aplicados às séries brasileiras encontraram que consumo é impactado de maneira significativa pela renda corrente, não se comportando, portanto, apenas como um passeio aleatório. Uma das hipóteses sugeridas para explicar a dependência do consumo brasileiro à renda corrente seria a possibilidade de restrição à liquidez. O presente trabalho, teve como objetivo verificar se após a expansão creditícia experimentada pela economia brasileira, nos últimos anos, o crédito teria corroborado favoravelmente para a suavização do consumo das famílias. Para tanto, utilizou-se um banco de dados do primeiro trimestre de 1996 (pós implementação do PROER/PROES) até o primeiro trimestre de 2013. No decorrer do período abordado, foi possível identificar duas quebras estruturais no crédito, uma atrelada ao adento do crédito consignado e a outra referente ao impacto da crise financeira internacional. Dessa forma, a regressão considerando o consumo como variável dependente em função da renda, do crédito e da taxa de juros, foi estimada em três períodos distintos. A estimação nos três períodos mostrou que a expansão do crédito se tornou relevante para a regressão do consumo com o passar do tempo. Como exemplo, a variável crédito no primeiro período (1º.tri/96 até 1º.tri/04) não se mostrou significante para a regressão do consumo. Contudo no terceiro período (1º.tri/09 até 10.tri/13) o crédito se mostrou significante. Vale mencionar que o período de maior destaque para o crédito foi o terceiro, o mais recente. Sabidamente, coincidiu com a aceleração do crédito via bancos públicos em decorrência de um comportamento anticíclico (começou como resposta à crise financeira internacional do último trimestre de 2008). Com isso, para suavizar esse movimento anticíclico as regressões foram reestimadas considerando o crédito desagregado, entre privado e público. A conclusão obtida foi a mesma do exercício anterior. Assim, as estimações sugerem que o crédito (agregado e desagregado) ajudou na suavização do consumo das famílias brasileiras, especialmente no passado recente (terceiro período), quando a renda não foi significativa para a estimação do consumo.
Resumo:
Este estudo investiga o poder preditivo fora da amostra, um mês à frente, de um modelo baseado na regra de Taylor para previsão de taxas de câmbio. Revisamos trabalhos relevantes que concluem que modelos macroeconômicos podem explicar a taxa de câmbio de curto prazo. Também apresentamos estudos que são céticos em relação à capacidade de variáveis macroeconômicas preverem as variações cambiais. Para contribuir com o tema, este trabalho apresenta sua própria evidência através da implementação do modelo que demonstrou o melhor resultado preditivo descrito por Molodtsova e Papell (2009), o “symmetric Taylor rule model with heterogeneous coefficients, smoothing, and a constant”. Para isso, utilizamos uma amostra de 14 moedas em relação ao dólar norte-americano que permitiu a geração de previsões mensais fora da amostra de janeiro de 2000 até março de 2014. Assim como o critério adotado por Galimberti e Moura (2012), focamos em países que adotaram o regime de câmbio flutuante e metas de inflação, porém escolhemos moedas de países desenvolvidos e em desenvolvimento. Os resultados da nossa pesquisa corroboram o estudo de Rogoff e Stavrakeva (2008), ao constatar que a conclusão da previsibilidade da taxa de câmbio depende do teste estatístico adotado, sendo necessária a adoção de testes robustos e rigorosos para adequada avaliação do modelo. Após constatar não ser possível afirmar que o modelo implementado provém previsões mais precisas do que as de um passeio aleatório, avaliamos se, pelo menos, o modelo é capaz de gerar previsões “racionais”, ou “consistentes”. Para isso, usamos o arcabouço teórico e instrumental definido e implementado por Cheung e Chinn (1998) e concluímos que as previsões oriundas do modelo de regra de Taylor são “inconsistentes”. Finalmente, realizamos testes de causalidade de Granger com o intuito de verificar se os valores defasados dos retornos previstos pelo modelo estrutural explicam os valores contemporâneos observados. Apuramos que o modelo fundamental é incapaz de antecipar os retornos realizados.
Resumo:
Um dos principais fatores de estudo do mercado de capitais é a discussão a respeito da teoria de eficiência de mercado, que no caso diverge em relação ao comportamento do preço da maioria dos ativos. Este trabalho tem o intuito de analisar o comportamento do principal índice de preços do mercado de bitcoins (BPI) durante o período de julho de 2010 a setembro de 2014. Inicialmente será testada a hipótese do passeio aleatório para o BPI. Em seguida serão verificadas as correlações de longa data nas séries financeiras temporais utilizando como instrumento de análise o expoente de Hurst (H), que inicialmente foi usado para calcular correlações em fenômenos naturais e posteriormente sua abrangência alcançou a área financeira. O estudo avalia o expoente H através de métodos distintos destacando-se a análise R/S e a DFA. Para o cálculo do expoente ao longo do tempo, utiliza-se uma janela móvel de 90 dias deslocando-se de 10 em 10 dias. Já para o cálculo em diferentes escalas verifica-se, para cada dia, o valor do expoente H nos últimos 360, 180 e 90 dias respectivamente. Os resultados evidenciaram que o índice BPI apresenta memória longa persistente em praticamente todo o período analisado. Além disso, a análise em diferentes escalas indica a possibilidade de previsão de eventos turbulentos no índice neste mesmo período. Finalmente foi possível comprovar a hipótese de mercados fractais para a série histórica de retornos do BPI.
Resumo:
O objetivo deste estudo é propor a implementação de um modelo estatístico para cálculo da volatilidade, não difundido na literatura brasileira, o modelo de escala local (LSM), apresentando suas vantagens e desvantagens em relação aos modelos habitualmente utilizados para mensuração de risco. Para estimação dos parâmetros serão usadas as cotações diárias do Ibovespa, no período de janeiro de 2009 a dezembro de 2014, e para a aferição da acurácia empírica dos modelos serão realizados testes fora da amostra, comparando os VaR obtidos para o período de janeiro a dezembro de 2014. Foram introduzidas variáveis explicativas na tentativa de aprimorar os modelos e optou-se pelo correspondente americano do Ibovespa, o índice Dow Jones, por ter apresentado propriedades como: alta correlação, causalidade no sentido de Granger, e razão de log-verossimilhança significativa. Uma das inovações do modelo de escala local é não utilizar diretamente a variância, mas sim a sua recíproca, chamada de “precisão” da série, que segue uma espécie de passeio aleatório multiplicativo. O LSM captou todos os fatos estilizados das séries financeiras, e os resultados foram favoráveis a sua utilização, logo, o modelo torna-se uma alternativa de especificação eficiente e parcimoniosa para estimar e prever volatilidade, na medida em que possui apenas um parâmetro a ser estimado, o que representa uma mudança de paradigma em relação aos modelos de heterocedasticidade condicional.
Resumo:
A presente dissertação tem como objetivo apresentar dois importantes modelos usados na análise de risco. Essa análise culmina em uma aplicação empírica para cada um deles. Apresenta-se primeiro o modelo Nelson-Siegel dinâmico, que estima a curva de juros usando um modelo paramétrico exponencial parcimonioso. É citada a referência criadora dessa abordagem, que é Nelson & Siegel (1987), passa-se pela apresentação da mais importante abordagem moderna que é a de Diebold & Li (2006), que é quem cria a abordagem dinâmica do modelo Nelson-Siegel, e que é inspiradora de diversas extensões. Muitas dessas extensões também são apresentadas aqui. Na parte empírica, usando dados da taxa a termo americana de Janeiro de 2004 a Março de 2015, estimam-se os modelos Nelson-Siegel dinâmico e de Svensson e comparam-se os resultados numa janela móvel de 12 meses e comparamos seus desempenhos com aqueles de um passeio aleatório. Em seguida, são apresentados os modelos ARCH e GARCH, citando as obras originais de Engle (1982) e Bolleslev (1986) respectivamente, discutem-se características destes modelos e apresentam-se algumas extensões ao modelo GARCH, incluindo aí alguns modelos GARCH multivariados. Passa-se então por uma rápida apresentação do conceito de VaR (Value at Risk), que será o objetivo da parte empírica. Nesta, usando dados de 02 de Janeiro de 2004 até 25 de Fevereiro de 2015, são feitas uma estimação da variância de um portfólio usando os modelos GARCH, GJR-GARCH e EGARCH e uma previsão do VaR do portfólio a partir da estimação feita anteriormente. Por fim, são apresentados alguns trabalhos que usam os dois modelos conjuntamente, ou seja, que consideram que as taxas ou os fatores que as podem explicam possuem variância variante no tempo.