996 resultados para Testes de Passeio Aleatório


Relevância:

100.00% 100.00%

Publicador:

Resumo:

A pesquisa teve como objetivo testar se preços no mercado futuro brasileiro seguem um passeio aleatório - uma das versões da chamada Hipótese do Mercado Eficiente. Foram estudados os preços dos contratos futuros de Ibovespa e de dólar comercial, de 30 de junho de 1994 a 31 de dezembro de 1998. Aplicação de testes paramétricos e não-paramétricos envolvendo a Relação de Variâncias (Variance Ratio) de Lo-MacKinlay levam à conclusão de que a hipótese testada não pode ser rejeitada, apontando, portanto, para eficiência em tais mercados.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O estudo busca identificar quais variáveis são as mais relevantes para previsão da taxa de câmbio real efetiva e analisar a robustez dessas previsões. Foram realizados testes de cointegração de Johansen em 13 variáveis macroeconômicas. O banco de dados utilizado são séries trimestrais e os testes foram realizados sobre as séries combinadas dois a dois, três a três e quatro a quatro. Utilizando esse método, encontramos modelos que cointegravam entre si, para os países analisados. A partir desses modelos, foram feitas previsões fora da amostra a partir das últimas 60 observações. A qualidade das previsões foi avaliada por meio dos testes de Erro Quadrático Médio (EQM) e Modelo do Conjunto de Confiança de Hansen (MCS) utilizando um modelo de passeio aleatório do câmbio real como benchmark. Todos os testes mostram que, à medida que se aumenta o horizonte de projeção, o passeio aleatório perde poder preditivo e a maioria dos modelos são mais informativos sobre o futuro da taxa de câmbio real efetivo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

As variáveis econômicas são frequentemente governadas por processos dinâmicos e não-lineares que podem gerar relações de dependência de longo prazo e padrões cíclicos não-periódicos com mudanças abruptas de tendências. Para o caso dos preços agrícolas este comportamento não é diferente e as peculiaridades destes mercados podem gerar séries temporais fracionalmente integradas, cujas singularidades não seriam adequadamente capturadas pelos tradicionais modelos analíticos fundamentados na hipótese dos mercados eficientes e de passeio aleatório. Sendo assim, o presente estudo buscou investigar a presença de estruturas fractais no mercado à vista de algumas das principais commodities agrícolas brasileiras: café, boi gordo, açúcar, milho, soja e bezerro. Foram empregadas técnicas tradicionais e específicas para a análise de séries temporais fractais como a análise de R/S e a aplicação de modelos das famílias ARFIMA e FIGARCH. Os resultados indicaram que, com exceção do bezerro, o componente de drift destas séries não apresentou comportamento fractal, ao contrário do observado para o componente da volatilidade, que apresentou aspecto de estrutura fractal para todas as commodities analisadas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Mestrado em Finanças

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Mestrado em Contabilidade e Gestão das Instituições Financeiras

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Não existe uma definição única de processo de memória de longo prazo. Esse processo é geralmente definido como uma série que possui um correlograma decaindo lentamente ou um espectro infinito de frequência zero. Também se refere que uma série com tal propriedade é caracterizada pela dependência a longo prazo e por não periódicos ciclos longos, ou que essa característica descreve a estrutura de correlação de uma série de longos desfasamentos ou que é convencionalmente expressa em termos do declínio da lei-potência da função auto-covariância. O interesse crescente da investigação internacional no aprofundamento do tema é justificado pela procura de um melhor entendimento da natureza dinâmica das séries temporais dos preços dos ativos financeiros. Em primeiro lugar, a falta de consistência entre os resultados reclama novos estudos e a utilização de várias metodologias complementares. Em segundo lugar, a confirmação de processos de memória longa tem implicações relevantes ao nível da (1) modelação teórica e econométrica (i.e., dos modelos martingale de preços e das regras técnicas de negociação), (2) dos testes estatísticos aos modelos de equilíbrio e avaliação, (3) das decisões ótimas de consumo / poupança e de portefólio e (4) da medição de eficiência e racionalidade. Em terceiro lugar, ainda permanecem questões científicas empíricas sobre a identificação do modelo geral teórico de mercado mais adequado para modelar a difusão das séries. Em quarto lugar, aos reguladores e gestores de risco importa saber se existem mercados persistentes e, por isso, ineficientes, que, portanto, possam produzir retornos anormais. O objetivo do trabalho de investigação da dissertação é duplo. Por um lado, pretende proporcionar conhecimento adicional para o debate da memória de longo prazo, debruçando-se sobre o comportamento das séries diárias de retornos dos principais índices acionistas da EURONEXT. Por outro lado, pretende contribuir para o aperfeiçoamento do capital asset pricing model CAPM, considerando uma medida de risco alternativa capaz de ultrapassar os constrangimentos da hipótese de mercado eficiente EMH na presença de séries financeiras com processos sem incrementos independentes e identicamente distribuídos (i.i.d.). O estudo empírico indica a possibilidade de utilização alternativa das obrigações do tesouro (OT’s) com maturidade de longo prazo no cálculo dos retornos do mercado, dado que o seu comportamento nos mercados de dívida soberana reflete a confiança dos investidores nas condições financeiras dos Estados e mede a forma como avaliam as respetiva economias com base no desempenho da generalidade dos seus ativos. Embora o modelo de difusão de preços definido pelo movimento Browniano geométrico gBm alegue proporcionar um bom ajustamento das séries temporais financeiras, os seus pressupostos de normalidade, estacionariedade e independência das inovações residuais são adulterados pelos dados empíricos analisados. Por isso, na procura de evidências sobre a propriedade de memória longa nos mercados recorre-se à rescaled-range analysis R/S e à detrended fluctuation analysis DFA, sob abordagem do movimento Browniano fracionário fBm, para estimar o expoente Hurst H em relação às séries de dados completas e para calcular o expoente Hurst “local” H t em janelas móveis. Complementarmente, são realizados testes estatísticos de hipóteses através do rescaled-range tests R/S , do modified rescaled-range test M - R/S e do fractional differencing test GPH. Em termos de uma conclusão única a partir de todos os métodos sobre a natureza da dependência para o mercado acionista em geral, os resultados empíricos são inconclusivos. Isso quer dizer que o grau de memória de longo prazo e, assim, qualquer classificação, depende de cada mercado particular. No entanto, os resultados gerais maioritariamente positivos suportam a presença de memória longa, sob a forma de persistência, nos retornos acionistas da Bélgica, Holanda e Portugal. Isto sugere que estes mercados estão mais sujeitos a maior previsibilidade (“efeito José”), mas também a tendências que podem ser inesperadamente interrompidas por descontinuidades (“efeito Noé”), e, por isso, tendem a ser mais arriscados para negociar. Apesar da evidência de dinâmica fractal ter suporte estatístico fraco, em sintonia com a maior parte dos estudos internacionais, refuta a hipótese de passeio aleatório com incrementos i.i.d., que é a base da EMH na sua forma fraca. Atendendo a isso, propõem-se contributos para aperfeiçoamento do CAPM, através da proposta de uma nova fractal capital market line FCML e de uma nova fractal security market line FSML. A nova proposta sugere que o elemento de risco (para o mercado e para um ativo) seja dado pelo expoente H de Hurst para desfasamentos de longo prazo dos retornos acionistas. O expoente H mede o grau de memória de longo prazo nos índices acionistas, quer quando as séries de retornos seguem um processo i.i.d. não correlacionado, descrito pelo gBm(em que H = 0,5 , confirmando- se a EMH e adequando-se o CAPM), quer quando seguem um processo com dependência estatística, descrito pelo fBm(em que H é diferente de 0,5, rejeitando-se a EMH e desadequando-se o CAPM). A vantagem da FCML e da FSML é que a medida de memória de longo prazo, definida por H, é a referência adequada para traduzir o risco em modelos que possam ser aplicados a séries de dados que sigam processos i.i.d. e processos com dependência não linear. Então, estas formulações contemplam a EMH como um caso particular possível.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

É apresentada uma introdução ao tema das raízes unitárias e cointegração. Em primeiro lugar, faz-se uma breve referência genérica aos modelos ARMAX de modo a se poder fazer uma apresentação rigorosa dos modelos com mecanismo de correcção de erro. Em segundo lugar, recorda-se o conceito de estcionaridade de forma a introduzir a definição de variável integrada. Neste contexto, verifica-se que o problema da determinação da ordem de integração é equivalente ao problema da determinação do número de raízes unitárias do polinómio em L (operador de desfasamento) que permite obter uma variável estacionária. Em terceiro lugar, ilustra-se uma situação grave que pode verificar-se quando se fazem regressões com variáveis integradas não estacionárias. Trata-se do problema das regressões espúricas. Em quarto lugar, descreve-se sumariamente os testes de Dickey-Fuller de existência de raízes unitárias. Em quinto lugar, introduz-se o conceito de cointegração e a sua ligação com a existência de relações de equilíbrio de longo prazo, sendo também abordados duas questões econométricas importantes: como estimar os vectores de cointergração e como testar se duas ou mais variáveis são cointegradas. Finalmente, relaciona-se a cointegragão com modelos com mecanismo de correlação de erro.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

A forma fraca da Hipótese de Eficiência de Mercado (HEM) é das três formas de eficiência propostas por Fama (1970) aquela que tem sido mais testada ao longo do tempo, em grande parte devido à disponibilidade de informação relativa aos dados históricos dos títulos. De acordo com esta hipótese, é impossível obter ganhos anormais através de estratégias de investimento com base em padrões dos preços passados. O objectivo deste trabalho é o de testar a hipótese de eficiência de mercado, na sua forma fraca, tendo por base os dois principais índices de acções do mercado de capitais ibérico ˗˗ o índice de acções português (Portuguese Stock Index, PSI-20) e o índice de acções espanhol (Spanish Stock Index, IBEX-35) ˗˗ no período compreendido entre Janeiro de 1997 a Dezembro de 2010. Para tal, recorre-se a uma metodologia baseada em quatro testes para analisar a hipótese de passeio aleatório: teste de correlação linear, teste de sequências, teste de raiz unitária e teste do rácio de variância. Todos estes testes foram realizados através dos softwares estatísticos EVIEWS 7.0 e SPSS 17.0. Os testes efectuados reportam resultados empíricos mistos. Apesar da hipótese de passeio aleatório ser suportada pelo teste de correlação linear, para as rendibilidades diárias dos dois índices de acções, e pelo teste de sequências para as rendibilidades diárias em relação ao IBEX-35, verifica-se que existem fortes evidências que conduzem à rejeição desta hipótese. Por conseguinte, a hipótese de eficiência na forma fraca também é rejeitada para os dois mercados bolsistas.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Este artigo investiga versões do modelo de passeio aleatório dos preços de ativos em diversos horizontes de tempo, para carteiras diversificadas de ações no mercado brasileiro. Evidências contrárias a tal modelo são observadas nos horizontes diário e semanal, caracterizados por persistência. As evidências são mais fracas em períodos mais recentes. Encontramos também sazonalidades diárias, incluindo o efeito segunda-feira, e mensais. Adicionalmente, um padrão de assimetria de autocorrelações cruzadas de primeira ordem entre os retornos de carteiras de firmas agrupadas segundo seu tamanho também é observado, indicando no caso de retornos diários e semanais que retornos de firmas grandes ajudam a prever retornos de firmas pequenas. Evidências de não linearidades nos retornos são observadas em diversos horizontes de tempo.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Este estudo investiga o poder preditivo fora da amostra, um mês à frente, de um modelo baseado na regra de Taylor para previsão de taxas de câmbio. Revisamos trabalhos relevantes que concluem que modelos macroeconômicos podem explicar a taxa de câmbio de curto prazo. Também apresentamos estudos que são céticos em relação à capacidade de variáveis macroeconômicas preverem as variações cambiais. Para contribuir com o tema, este trabalho apresenta sua própria evidência através da implementação do modelo que demonstrou o melhor resultado preditivo descrito por Molodtsova e Papell (2009), o “symmetric Taylor rule model with heterogeneous coefficients, smoothing, and a constant”. Para isso, utilizamos uma amostra de 14 moedas em relação ao dólar norte-americano que permitiu a geração de previsões mensais fora da amostra de janeiro de 2000 até março de 2014. Assim como o critério adotado por Galimberti e Moura (2012), focamos em países que adotaram o regime de câmbio flutuante e metas de inflação, porém escolhemos moedas de países desenvolvidos e em desenvolvimento. Os resultados da nossa pesquisa corroboram o estudo de Rogoff e Stavrakeva (2008), ao constatar que a conclusão da previsibilidade da taxa de câmbio depende do teste estatístico adotado, sendo necessária a adoção de testes robustos e rigorosos para adequada avaliação do modelo. Após constatar não ser possível afirmar que o modelo implementado provém previsões mais precisas do que as de um passeio aleatório, avaliamos se, pelo menos, o modelo é capaz de gerar previsões “racionais”, ou “consistentes”. Para isso, usamos o arcabouço teórico e instrumental definido e implementado por Cheung e Chinn (1998) e concluímos que as previsões oriundas do modelo de regra de Taylor são “inconsistentes”. Finalmente, realizamos testes de causalidade de Granger com o intuito de verificar se os valores defasados dos retornos previstos pelo modelo estrutural explicam os valores contemporâneos observados. Apuramos que o modelo fundamental é incapaz de antecipar os retornos realizados.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

O objetivo deste estudo é propor a implementação de um modelo estatístico para cálculo da volatilidade, não difundido na literatura brasileira, o modelo de escala local (LSM), apresentando suas vantagens e desvantagens em relação aos modelos habitualmente utilizados para mensuração de risco. Para estimação dos parâmetros serão usadas as cotações diárias do Ibovespa, no período de janeiro de 2009 a dezembro de 2014, e para a aferição da acurácia empírica dos modelos serão realizados testes fora da amostra, comparando os VaR obtidos para o período de janeiro a dezembro de 2014. Foram introduzidas variáveis explicativas na tentativa de aprimorar os modelos e optou-se pelo correspondente americano do Ibovespa, o índice Dow Jones, por ter apresentado propriedades como: alta correlação, causalidade no sentido de Granger, e razão de log-verossimilhança significativa. Uma das inovações do modelo de escala local é não utilizar diretamente a variância, mas sim a sua recíproca, chamada de “precisão” da série, que segue uma espécie de passeio aleatório multiplicativo. O LSM captou todos os fatos estilizados das séries financeiras, e os resultados foram favoráveis a sua utilização, logo, o modelo torna-se uma alternativa de especificação eficiente e parcimoniosa para estimar e prever volatilidade, na medida em que possui apenas um parâmetro a ser estimado, o que representa uma mudança de paradigma em relação aos modelos de heterocedasticidade condicional.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Este trabalho procura identificar quais variáveis são as mais relevantes para previsão da taxa de câmbio real do Brasil e analisar a robustez dessas previsões. Para isso foram realizados testes de cointegração de Johansen em 13 variáveis macroeconômicas. O banco de dados utilizado são séries trimestrais e compreende o período de 1970 a 2014 e os testes foram realizados sobre as séries combinadas dois a dois, três a três e quatro a quatro. Por meio desse método, encontramos nove grupos que cointegram entre si. Utilizando esses grupos, são feitas previsões fora da amostra com a partir das últimas 60 observações. A qualidade das previsões foi avaliada por meio dos testes de Erro Quadrático Médio, teste de Diebold-Mariano e, além disso, foi utilizado um modelo de passeio aleatório do câmbio real como benchmark para o procedimento de Hansen. Todos os testes mostram que, à medida que se aumenta o horizonte de projeção, o passeio aleatório perde poder preditivo e a maioria dos modelos são mais informativos sobre o futuro da o câmbio real efetivo. O horizonte é de três a quatro anos à frente. No caso do teste de Hansen, o passeio aleatório é completamente eliminado do grupo final de modelos, mostrando que é possível fazer previsões superiores ao passeio aleatório.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Este trabalho procura identificar quais variáveis são as mais relevantes para previsão da taxa de câmbio real do Brasil e analisar a robustez dessas previsões. Para isso foram realizados testes de cointegração de Johansen em 13 variáveis macroeconômicas. O banco de dados utilizado são séries trimestrais e compreende o período de 1970 a 2014 e os testes foram realizados sobre as séries combinadas dois a dois, três a três e quatro a quatro. Por meio desse método, encontramos nove grupos que cointegram entre si. Utilizando esses grupos, são feitas previsões fora da amostra com a partir das últimas 60 observações. A qualidade das previsões foi avaliada por meio dos testes de Erro Quadrático Médio, teste de Diebold-Mariano e, além disso, foi utilizado um modelo de passeio aleatório do câmbio real como benchmark para o procedimento de Hansen. Todos os testes mostram que, à medida que se aumenta o horizonte de projeção, o passeio aleatório perde poder preditivo e a maioria dos modelos são mais informativos sobre o futuro da o câmbio real efetivo. O horizonte é de três a quatro anos à frente. No caso do teste de Hansen, o passeio aleatório é completamente eliminado do grupo final de modelos, mostrando que é possível fazer previsões superiores ao passeio aleatório.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este artigo analisa a série de consumo agregado do Brasil. Como usual, investigamos, primeiramente, a aplicabilidade da hipótese do passeio aleatório do consumo, derivada teoricamente a partir das hipóteses de ciclo de vida/renda permanente e expectativas racionais (TRP). Utilizando a decomposição de Beveridge e Nelson (1981) verificamos que o consumo apresenta, além de uma tendência estocástica, uma parte cíclica estacionária, o que não é compatível com a TRP. Este resultado está em conformidade com o resultado de Reis et alii (1998) de que grande parte da população brasileira está restrita a consumir sua renda corrente, existindo um ciclo comum entre consumo e renda. Em uma tentativa de gerar um processo estocástico para o consumo compatível com a evidência empírica introduzimos formação de hábito nas preferências de um consumidor representativo. No entanto, o processo daí derivado não se mostrou significativo diante da possibilidade dos consumidores serem restritos à liquidez.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Esta tese discute a dívida cambial doméstica do setor público brasileiro entre 1995 e 2004. Argumenta-se que a origem dessa dívida não está relacionada à busca de uma composição ótima da dívida pública, mas sim a objetivos de política cambial. O caso dos tesobonos mexicanos é analisado como precedente para o caso brasileiro, ressaltando-se três peculiaridades: o prazo médio dos títulos cambiais; a concentração da dívida pública mexicana no mercado internacional; e a importância dos não-residentes entre os detentores. O caso brasileiro foi apresentado a partir de uma perspectiva histórica, desde a introdução das ORTN com cláusula de correção cambial, no fim dos anos sessenta. Foi realizada uma tentativa de reconstrução da trajetória da dívida mobiliária cambial até o período recente. Levando-se em consideração que os objetivos desse instrumento estão concentrados na política cambial, foi feita uma breve resenha da literatura sobre os determinantes da taxa de câmbio, começando por Meese e Rogoff (1983), que introduziram a idéia de que um passeio aleatório é melhor previsor do câmbio que os modelos baseados em fundamentos macroeconômicos. É feita também uma breve revisão da literatura sobre intervenção no câmbio, que é farta em trabalhos para países desenvolvidos e escassa no que se refere aos países emergentes. A colocação de títulos indexados ao câmbio é tratada como intervenção, avaliando-se seus efeitos sobre a taxa de câmbio e sua volatilidade. No exercício econométrico, foi construída uma base de dados diários de endividamento cambial doméstico, através da agregação dos leilões primários de títulos e de swaps emitidos entre 1991 e 2004. O impacto da dívida cambial sobre o câmbio foi estimado, para os períodos de câmbio administrado (1995-1999) e de câmbio flutuante (1999-2004), através de um Modelo Vetorial de Correção de Erro (VECM). As elasticidades estimadas apresentaram uma possível ocorrência de simultaneidade, que foi detectada através de um teste de causalidade de Granger. Esse teste revelou uma causação bi-direcional de tipo feedback. As estimações estão sujeitas a heterocedasticidade, que foi corrigida através da estimação de um GARCH. Este revelou que a elasticidade do câmbio em relação à intervenção com dívida cambial é de -0,17 no câmbio administrado e de -2,15 no câmbio flutuante.