869 resultados para Random walk
Resumo:
As Séries de Fourier permitiram o advento de tecnologias aplicadas em diversas áreas do conhecimento ao proporcionar uma melhor compreensão do comportamento de séries de dados, decompondo-as em diversas harmônicas independentes. Poucos estudos foram encontrados aplicando tal ferramenta matemática para analisar séries de retornos de títulos financeiros. Este trabalho pesquisou - através de análise discreta de Fourier – o comportamento dos retornos de quatro ativos: Dow Jones, Ibovespa, e duas ações da Bolsa brasileira. Cotações mensais, diárias e de dez minutos (intraday) foram utilizadas. Além do espectro estático, registrou-se também a dinâmica dos coeficientes das harmônicas de Fourier. Os resultados indicaram a validade da forma fraca de eficiência de mercado para o curto prazo, dado que as harmônicas de período curto apresentaram comportamento aleatório. Por outro lado, o comportamento das harmônicas de longo prazo (período longo) apresentou maior correlação serial, sugerindo que no longo prazo o mercado não se comporta de acordo com o modelo Random Walk. Uma aplicação derivada deste estudo é a determinação do número de fatores necessários para uma modelagem via Precificação por Arbitragem (APT), dado um nível de correlação desejado.
Resumo:
Este artigo investiga versões do modelo de passeio aleatório dos preços de ativos em diversos horizontes de tempo, para carteiras diversificadas de ações no mercado brasileiro. Evidências contrárias a tal modelo são observadas nos horizontes diário e semanal, caracterizados por persistência. As evidências são mais fracas em períodos mais recentes. Encontramos também sazonalidades diárias, incluindo o efeito segunda-feira, e mensais. Adicionalmente, um padrão de assimetria de autocorrelações cruzadas de primeira ordem entre os retornos de carteiras de firmas agrupadas segundo seu tamanho também é observado, indicando no caso de retornos diários e semanais que retornos de firmas grandes ajudam a prever retornos de firmas pequenas. Evidências de não linearidades nos retornos são observadas em diversos horizontes de tempo.
Resumo:
The objective of this article is to study (understand and forecast) spot metal price levels and changes at monthly, quarterly, and annual frequencies. Data consists of metal-commodity prices at a monthly and quarterly frequencies from 1957 to 2012, extracted from the IFS, and annual data, provided from 1900-2010 by the U.S. Geological Survey (USGS). We also employ the (relatively large) list of co-variates used in Welch and Goyal (2008) and in Hong and Yogo (2009). We investigate short- and long-run comovement by applying the techniques and the tests proposed in the common-feature literature. One of the main contributions of this paper is to understand the short-run dynamics of metal prices. We show theoretically that there must be a positive correlation between metal-price variation and industrial-production variation if metal supply is held fixed in the short run when demand is optimally chosen taking into account optimal production for the industrial sector. This is simply a consequence of the derived-demand model for cost-minimizing firms. Our empirical evidence fully supports this theoretical result, with overwhelming evidence that cycles in metal prices are synchronized with those in industrial production. This evidence is stronger regarding the global economy but holds as well for the U.S. economy to a lesser degree. Regarding out-of-sample forecasts, our main contribution is to show the benefits of forecast-combination techniques, which outperform individual-model forecasts - including the random-walk model. We use a variety of models (linear and non-linear, single equation and multivariate) and a variety of co-variates and functional forms to forecast the returns and prices of metal commodities. Using a large number of models (N large) and a large number of time periods (T large), we apply the techniques put forth by the common-feature literature on forecast combinations. Empirically, we show that models incorporating (short-run) common-cycle restrictions perform better than unrestricted models, with an important role for industrial production as a predictor for metal-price variation.
Resumo:
The conventional wisdom is that the aggregate stock price is predictable by the lagged pricedividend ratio, and that aggregate dividends follow approximately a random-walk. Contrary to this belief, this paper finds that variation in the aggregate dividends and price-dividend ratio is related to changes in expected dividend growth. The inclusion of labor income in a cointegrated vector autoregression with prices and dividends allows the identification of predictable variation in dividends. Most of the variation in the price-dividend ratio is due to changes in expected returns, but this paper shows that part of variation is related to transitory dividend growth shocks. Moreover, most of the variation in dividend growth can be attributed to these temporary changes in dividends. I also show that the price-dividend ratio (or dividend yield) can be constructed as the sum of two distinct, but correlated, variables that separately predict dividend growth and returns. One of these components, which could be called the expected return state variable, predicts returns better than the price-dividend ratio does.
Resumo:
Este estudo investiga o poder preditivo fora da amostra, um mês à frente, de um modelo baseado na regra de Taylor para previsão de taxas de câmbio. Revisamos trabalhos relevantes que concluem que modelos macroeconômicos podem explicar a taxa de câmbio de curto prazo. Também apresentamos estudos que são céticos em relação à capacidade de variáveis macroeconômicas preverem as variações cambiais. Para contribuir com o tema, este trabalho apresenta sua própria evidência através da implementação do modelo que demonstrou o melhor resultado preditivo descrito por Molodtsova e Papell (2009), o “symmetric Taylor rule model with heterogeneous coefficients, smoothing, and a constant”. Para isso, utilizamos uma amostra de 14 moedas em relação ao dólar norte-americano que permitiu a geração de previsões mensais fora da amostra de janeiro de 2000 até março de 2014. Assim como o critério adotado por Galimberti e Moura (2012), focamos em países que adotaram o regime de câmbio flutuante e metas de inflação, porém escolhemos moedas de países desenvolvidos e em desenvolvimento. Os resultados da nossa pesquisa corroboram o estudo de Rogoff e Stavrakeva (2008), ao constatar que a conclusão da previsibilidade da taxa de câmbio depende do teste estatístico adotado, sendo necessária a adoção de testes robustos e rigorosos para adequada avaliação do modelo. Após constatar não ser possível afirmar que o modelo implementado provém previsões mais precisas do que as de um passeio aleatório, avaliamos se, pelo menos, o modelo é capaz de gerar previsões “racionais”, ou “consistentes”. Para isso, usamos o arcabouço teórico e instrumental definido e implementado por Cheung e Chinn (1998) e concluímos que as previsões oriundas do modelo de regra de Taylor são “inconsistentes”. Finalmente, realizamos testes de causalidade de Granger com o intuito de verificar se os valores defasados dos retornos previstos pelo modelo estrutural explicam os valores contemporâneos observados. Apuramos que o modelo fundamental é incapaz de antecipar os retornos realizados.
Resumo:
Um dos principais fatores de estudo do mercado de capitais é a discussão a respeito da teoria de eficiência de mercado, que no caso diverge em relação ao comportamento do preço da maioria dos ativos. Este trabalho tem o intuito de analisar o comportamento do principal índice de preços do mercado de bitcoins (BPI) durante o período de julho de 2010 a setembro de 2014. Inicialmente será testada a hipótese do passeio aleatório para o BPI. Em seguida serão verificadas as correlações de longa data nas séries financeiras temporais utilizando como instrumento de análise o expoente de Hurst (H), que inicialmente foi usado para calcular correlações em fenômenos naturais e posteriormente sua abrangência alcançou a área financeira. O estudo avalia o expoente H através de métodos distintos destacando-se a análise R/S e a DFA. Para o cálculo do expoente ao longo do tempo, utiliza-se uma janela móvel de 90 dias deslocando-se de 10 em 10 dias. Já para o cálculo em diferentes escalas verifica-se, para cada dia, o valor do expoente H nos últimos 360, 180 e 90 dias respectivamente. Os resultados evidenciaram que o índice BPI apresenta memória longa persistente em praticamente todo o período analisado. Além disso, a análise em diferentes escalas indica a possibilidade de previsão de eventos turbulentos no índice neste mesmo período. Finalmente foi possível comprovar a hipótese de mercados fractais para a série histórica de retornos do BPI.
Resumo:
O objetivo deste estudo é propor a implementação de um modelo estatístico para cálculo da volatilidade, não difundido na literatura brasileira, o modelo de escala local (LSM), apresentando suas vantagens e desvantagens em relação aos modelos habitualmente utilizados para mensuração de risco. Para estimação dos parâmetros serão usadas as cotações diárias do Ibovespa, no período de janeiro de 2009 a dezembro de 2014, e para a aferição da acurácia empírica dos modelos serão realizados testes fora da amostra, comparando os VaR obtidos para o período de janeiro a dezembro de 2014. Foram introduzidas variáveis explicativas na tentativa de aprimorar os modelos e optou-se pelo correspondente americano do Ibovespa, o índice Dow Jones, por ter apresentado propriedades como: alta correlação, causalidade no sentido de Granger, e razão de log-verossimilhança significativa. Uma das inovações do modelo de escala local é não utilizar diretamente a variância, mas sim a sua recíproca, chamada de “precisão” da série, que segue uma espécie de passeio aleatório multiplicativo. O LSM captou todos os fatos estilizados das séries financeiras, e os resultados foram favoráveis a sua utilização, logo, o modelo torna-se uma alternativa de especificação eficiente e parcimoniosa para estimar e prever volatilidade, na medida em que possui apenas um parâmetro a ser estimado, o que representa uma mudança de paradigma em relação aos modelos de heterocedasticidade condicional.
Resumo:
Neste trabalho, propomos uma especificação de modelo econométrico na forma reduzida, estimado por mínimos quadrados ordinários (MQO) e baseado em variáveis macroeconômicas, com o objetivo de explicar os retornos trimestrais do índice de ações IBRX-100, entre 2001 e 2015. Testamos ainda a eficiência preditiva do modelo e concluímos que o erro de previsão estimado em janela móvel, com re-estimação de MQO a cada rodada, e utilização de VAR auxiliar para projeção dos regressores, é significativamente inferior ao erro de previsão associado à hipótese de Random Walk para o horizonte de previsão de um trimestre a frente.
Resumo:
O presente trabalho propõe um modelo de previsão simultânea de taxas de câmbio de vários países utilizando a abordagem GVAR e analisa a qualidade destas previsões. Para isso foram utilizados dados de 10 países ou regiões de taxa de câmbio, taxas de juros e nível de preços com frequência mensal entre 2003 e 2015. As previsões foram feitas utilizando janela móvel de 60 meses e avaliadas através da comparação dos erros quadráticos médios contra o benchmark padrão, o random walk, e dos testes de Pesaran e Timmermann e de Diebold e Mariano. Foram feitas previsões out-of-sample para horizontes de 1, 3, 12 e 18 meses. Os resultados mostram que o modelo proposto não consegue superar sistematicamente o random walk, contudo apresenta algum poder de previsão em alguns casos específicos
Resumo:
The study of aerodynamic loading variations has many engineering applications, including helicopter rotor blades, wind turbines and turbo machinery. This work uses a Vortex Method to make a lagrangian description of the a twodimensional airfoil/ incident wake vortex interaction. The flow is incompressible, newtonian, homogeneus and the Reynolds Number is 5x105 .The airfoil is a NACA 0018 placed a angle of attack of the 0° and 5°simulates with the Painel Method with a constant density vorticity panels and a generation poit is near the painel. The protector layer is created does not permit vortex inside the body. The vortex Lamb convection is realized with the Euler Method (first order) and Adans-Bashforth (second order). The Random Walk Method is used to simulate the diffusion. The circular wake has 366 vortex all over positive or negative vorticity located at different heights with respect to the airfoil chord. The Lift was calculated based in the algorithm created by Ricci (2002). This simulation uses a ready algorithm vatidated with single body does not have a incident wake. The results are compared with a experimental work The comparasion concludes that the experimental results has a good agrement with this papper
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Difusive processes are extremely common in Nature. Many complex systems, such as microbial colonies, colloidal aggregates, difusion of fluids, and migration of populations, involve a large number of similar units that form fractal structures. A new model of difusive agregation was proposed recently by Filoche and Sapoval [68]. Based on their work, we develop a model called Difusion with Aggregation and Spontaneous Reorganization . This model consists of a set of particles with excluded volume interactions, which perform random walks on a square lattice. Initially, the lattice is occupied with a density p = N/L2 of particles occupying distinct, randomly chosen positions. One of the particles is selected at random as the active particle. This particle executes a random walk until it visits a site occupied by another particle, j. When this happens, the active particle is rejected back to its previous position (neighboring particle j), and a new active particle is selected at random from the set of N particles. Following an initial transient, the system attains a stationary regime. In this work we study the stationary regime, focusing on scaling properties of the particle distribution, as characterized by the pair correlation function ø(r). The latter is calculated by averaging over a long sequence of configurations generated in the stationary regime, using systems of size 50, 75, 100, 150, . . . , 700. The pair correlation function exhibits distinct behaviors in three diferent density ranges, which we term subcritical, critical, and supercritical. We show that in the subcritical regime, the particle distribution is characterized by a fractal dimension. We also analyze the decay of temporal correlations
Resumo:
The conformational transition from coil to extended coil for polygalacturonic acid has been studied by conductometric titrations and Monte Carlo simulations. The results of conductometric titrations at different polymer concentrations have been analyzed using the model proposed by Manning,1 which describes the conductivity of polyelectrolitic solutions. This experimental approach provides the transport factor and the average distance between charged groups at different degrees of ionization (α). The mean distances between charged groups have been compared with the values obtained by Monte Carlo simulations. In these simulations the polymer chain is modeled as a self-avoiding random walk in a cubic lattice. The monomers interact through the unscreened Coulombic potential. The ratio between the end-to-end distance and the number of ionized beads provides the average distance between charged monomers. The experimental and theoretical values are in good agreement for the whole range of ionization degrees accessed by conductometric titrations. These results suggest that the electrostatic interactions seem to be the major contribution for the coil to extended coil conformational change. The small deviations for α ≤ 0.5 suggests that the stiffness of the chain, associated with local interactions, becomes increasingly significant as the fraction of charged groups is decreased. © 2000 American Chemical Society.
Resumo:
This work analyses a real time orbit estimator using the raw navigation solution provided by GPS receivers. The estimation algorithm considers a Kalman filter with a rather simple orbit dynamic model and random walk modeling of the receiver clock bias and drift. Using the Topex/Poseidon satellite as test bed, characteristics of model truncation, sampling rates and degradation of the GPS receiver (Selective Availability) were analysed. Copyright © 2007 by ABCM.
Resumo:
Pós-graduação em Ciências Cartográficas - FCT