20 resultados para Smoothed bootstrap

em Repositório digital da Fundação Getúlio Vargas - FGV


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Using data from the United States, Japan, Germany , United Kingdom and France, Sims (1992) found that positive innovations to shortterm interest rates led to sharp, persistent increases in the price level. The result was conÖrmed by other authors and, as a consequence of its non-expectable nature, was given the name "price puzzle" by Eichenbaum (1992). In this paper I investigate the existence of a price puzzle in Brazil using the same type of estimation and benchmark identiÖcation scheme employed by Christiano et al. (2000). In a methodological improvement over these studies, I qualify the results with the construction of bias-corrected bootstrap conÖdence intervals. Even though the data does show the existence of a statistically signiÖcant price puzzle in Brazil, it lasts for only one quarter and is quantitatively immaterial

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Using data from the United States, Japan, Germany , United Kingdom and France, Sims (1992) found that positive innovations to shortterm interest rates led to sharp, persistent increases in the price leveI. The result was confirmed by other authors and, as a consequence of its non-expectable nature, was given the name "price puzzle" by Eichenbaum (1992). In this paper I investigate the existence of a price puzzle in Brazil using the same type of estimation and benchmark identification scheme employed by Christiano et aI. (2000). In a methodological improvement over these studies, I qualify the results with the construction of bias-corrected bootstrap confidence intervals. Even though the data does show the existence of a statistically significant price puzzle in Brazil, it lasts for .only one quarter and is quantitatively immaterial.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho trata das consequências sobre os preços de equilíbrio da presença de agentes com racionalidade limitada e da possibilidade de eficácia de um tipo de análise técnica muito utilizada no mercado financeiro: a regra de médias móveis. Na primeira parte, apresentamos uma resenha de diversos trabalhos sobre o papel dos agentes com racionalidade limitada na formação dos preços de equilíbrio das ações. Os diversos modelos foram colocados em um arcabouço comum para facilitar a exposição. Sob hipóteses gerais, a presença de agentes com racionalidade limitada aumenta a volatilidade das ações e pode tornar as trajetórias de preços bastante complicadas. A presença de agentes irracionais e de analistas técnicos pode ser justificada do ponto de vista teórico. Porém, utilizando técnicas de bootstrap, não encontramos evidências empíricas de que um tipo particular de regra de médias móveis produza retornos acima da média incondicional do IBOVESPA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I start presenting an explicit solution to Taylorís (2001) model, in order to illustrate the link between the target interest rate and the overnight interest rate prevailing in the economy. Next, I use Vector Auto Regressions to shed some light on the evolution of key macroeconomic variables after the Central Bank of Brazil increases the target interest rate by 1%. Point estimates show a four-year accumulated output loss ranging from 0:04% (whole sample, 1980 : 1-2004 : 2; quarterly data) to 0:25% (Post-Real data only) with a Örst-year peak output response between 0:04% and 1:0%; respectively. Prices decline between 2% and 4% in a 4-year horizon. The accumulated output response is found to be between 3:5 and 6 times higher after the Real Plan than when the whole sample is considered. The 95% confidence bands obtained using bias-corrected bootstrap always include the null output response when the whole sample is used, but not when the data is restricted to the Post-Real period. Innovations to interest rates explain between 4:9% (whole sample) and 9:2% (post-Real sample) of the forecast error of GDP.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A partir de uma adaptação da metodologia de Osler e Chang (1995), este trabalho avalia, empiricamente, a lucratividade de estratégias de investimento baseadas na identificação do padrão gráfico de Análise Técnica Ombro-Cabeça-Ombro no mercado de ações brasileiro. Para isso, foram definidas diversas estratégias de investimento condicionais à identificação de padrões Ombro-Cabeça- Ombro (em suas formas padrão e invertida), por um algoritmo computadorizado, em séries diárias de preços de 47 ações no período de janeiro de 1994 a agosto de 2006. Para testar o poder de previsão de cada estratégia, foram construídos intervalos de confiança, a partir da técnica Bootstrap de inferência amostral, consistentes com a hipótese nula de que, baseado apenas em dados históricos, não é possível criar estratégias com retornos positivos. Mais especificamente, os retornos médios obtidos por cada estratégia nas séries de preços das ações, foram comparados àqueles obtidos pelas mesmas estratégias aplicadas a 1.000 séries de preços artificiais - para cada ação - geradas segundo dois modelos de preços de ações largamente utilizados: Random Walk e E-GARCH. De forma geral, os resultados encontrados mostram que é possível criar estratégias condicionais à realização dos padrões Ombro- Cabeça-Ombro com retornos positivos, indicando que esses padrões conseguem capturar nas séries históricas de preços de ações sinais a respeito da sua movimentação futura de preços, que não são explicados nem por um Random Walk e nem por um E-GARCH. No entanto, se levados em consideração os efeitos das taxas e dos custos de transação, dependendo das suas magnitudes, essas conclusões somente se mantêm para o padrão na sua forma invertida

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this study, we verify the existence of predictability in the Brazilian equity market. Unlike other studies in the same sense, which evaluate original series for each stock, we evaluate synthetic series created on the basis of linear models of stocks. Following Burgess (1999), we use the “stepwise regression” model for the formation of models of each stock. We then use the variance ratio profile together with a Monte Carlo simulation for the selection of models with potential predictability. Unlike Burgess (1999), we carry out White’s Reality Check (2000) in order to verify the existence of positive returns for the period outside the sample. We use the strategies proposed by Sullivan, Timmermann & White (1999) and Hsu & Kuan (2005) amounting to 26,410 simulated strategies. Finally, using the bootstrap methodology, with 1,000 simulations, we find strong evidence of predictability in the models, including transaction costs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A pesquisa teve como objetivo testar se preços no mercado futuro brasileiro seguem um passeio aleatório - uma das versões da chamada Hipótese do Mercado Eficiente. Foram estudados os preços dos contratos futuros de Ibovespa e de dólar comercial, de 30 de junho de 1994 a 31 de dezembro de 1998. Aplicação de testes paramétricos e não-paramétricos envolvendo a Relação de Variâncias (Variance Ratio) de Lo-MacKinlay levam à conclusão de que a hipótese testada não pode ser rejeitada, apontando, portanto, para eficiência em tais mercados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese apresenta o desenvolvimento conceitual, estimação de parâmetros e aplicação empírica de um Modelo de Risco de Portfólio cujo objetivo é realizar previsões da distribuição estatística da perda de crédito em carteiras de crédito ao consumidor. O modelo proposto é adaptado às características do crédito ao consumidor e ao mercado brasileiro, podendo ser aplicado com dados atualmente disponíveis para as Instituições Financeiras no mercado brasileiro. São realizados testes de avaliação da performance de previsão do modelo e uma comparação empírica com resultados da aplicação do Modelo CreditRisk+.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diante do inédito momento vivido pela economia brasileira e, especialmente, pela bolsa de valores nacional, principalmente após a obtenção do grau de investimento pelo Brasil, este trabalho aborda um tema que ganhou um enorme espaço na mídia atual que é a análise técnica. A partir de uma amostra de 37 ações listadas na Bolsa de Valores de São Paulo no período compreendido entre janeiro de 1999 e agosto de 2009, este trabalho examina se a análise técnica agrega valor 'as decisões de investimentos. Através da elaboração de intervalos de confiança, construídos através da técnica de Bootstrap de inferência amostral, e consistentes com a hipótese nula de eficiência de mercado na sua forma fraca, foram testados 4 sistemas técnicos de trading. Mais especificamente, obteve-se os resultados de cada sistema aplicado às series originais dos ativos. Então, comparou-se esses resultados com a média dos resultados obtidos quando os mesmos sistemas foram aplicados a 1000 séries simuladas, segundo um random walk, de cada ativo. Caso os mercados sejam eficientes em sua forma fraca, não haveria nenhuma razão para se encontrar estratégias com retornos positivos, baseando-se apenas nos valores históricos dos ativos. Ou seja, não haveria razão para os resultados das séries originais serem maiores que os das séries simuladas. Os resultados empíricos encontrados sugeriram que os sistemas testados não foram capazes de antecipar o futuro utilizando-se apenas de dados passados. Porém, alguns deles geraram retornos expressivos e só foram superados pelas séries simuladas em aproximadamente 25% da amostra, indicando que a análise técnica tem sim seu valor.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho estuda a lucratividade dos modelos de Análise Técnica no mercado de câmbio brasileiro. Utilizando a metodologia de White (2000) para testar 1712 regras geradas a partir de quatro modelos de Análise Técnica verifica-se que a melhor regra não possui poder de previsibilidade significante ao se considerar os efeitos de data-snooping. Os resultados indicam que o mercado de câmbio brasileiro está de acordo com a hipótese de mercado eficiente sugerida pela literatura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho é examinar se a análise técnica agrega valor às decisões de investimentos. Através da elaboração de intervalos de confiança, construídos através da técnica de Bootstrap de inferência amostral, e consistentes com a hipótese nula de eficiência de mercado na sua forma fraca, foram testados 4 sistemas técnicos de trading. Mais especificamente, obteve-se os resultados de cada sistema aplicado às series originais dos ativos. Então, comparou-se esses resultados com a média dos resultados obtidos quando os mesmos sistemas foram aplicados a 1000 séries simuladas, segundo um random walk, de cada ativo. Caso os mercados sejam eficientes em sua forma fraca, não haveria razão para os resultados das séries originais serem superiores aos das séries simuladas. Os resultados empíricos encontrados sugeriram que os sistemas testados não foram capazes de antecipar o futuro utilizando-se apenas de dados passados. Porém, alguns deles geraram retornos expressivos

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho testa-se inicialmente se fundos com gestão ativa apresentam alfa (excesso de retorno) em relação aos índices de referência de fundos passivos. Simulações via bootstrap visam indicar se o excesso de retorno apresentado pode ser atribuído apenas à sorte. Com esta metodologia concluiu-se que a carteira agregada de fundos de investimentos de ação com gestão ativa no Brasil não apresenta excesso de retorno em relação aos principais índices da bolsa brasileira, quando líquidos de taxas e despesas. As simulações de bootstrap sugerem que uma quantidade maior de fundos apresenta retornos ajustados ao benchmark do que o esperado pelo efeito da aleatoriedade nos resultados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Muitas teorias de finanças implicam em relações monotônicas nos retornos esperados em função de variáveis financeiras, tais como a hipótese de preferência por liquidez e o Capital Asset Pricing Model (CAPM). No entanto, estudos empíricos que testam este tipo de relação não são muitos explorados, principalmente no mercado brasileiro. A contribuição científica neste trabalho é utilizar ativos domésticos e verificar se no mercado nacional estas implicações monotônicas das teorias de finanças são sustentadas empiricamente. Fizemos uma revisão dos testes presentes na literatura para verificar a monotonicidade: os testes t, Bonferroni utilizado por Fama (1984), Wolak (1989) e o teste MR, de Patton e Timmermann (2010). Utilizamos a técnica de bootstrap e incluímos na análise dos resultados os testes “Up” e “Down”. No teste para verificar a hipótese de preferência por liquidez foram utilizadas as séries da taxa referencial de swaps DI pré-fixada para vencimentos de até 1 ano. Os testes convergem e encontram evidências estatísticas de relação monotônica entre os retornos e os prazos de vencimento. No caso do teste no CAPM, foram utilizadas as séries históricas do preço das ações que compuseram o índice IBrX. Contrário ao esperado, para os dados amostrados, os testes não sustentaram a implicação teórica de monotonicidade entre os retornos médios dos portfólios e os betas de mercado ordenados crescentemente. Este resultado é de grande relevância para o mercado brasileiro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Asset allocation decisions and value at risk calculations rely strongly on volatility estimates. Volatility measures such as rolling window, EWMA, GARCH and stochastic volatility are used in practice. GARCH and EWMA type models that incorporate the dynamic structure of volatility and are capable of forecasting future behavior of risk should perform better than constant, rolling window volatility models. For the same asset the model that is the ‘best’ according to some criterion can change from period to period. We use the reality check test∗ to verify if one model out-performs others over a class of re-sampled time-series data. The test is based on re-sampling the data using stationary bootstrapping. For each re-sample we check the ‘best’ model according to two criteria and analyze the distribution of the performance statistics. We compare constant volatility, EWMA and GARCH models using a quadratic utility function and a risk management measurement as comparison criteria. No model consistently out-performs the benchmark.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Differences-in-Differences (DID) is one of the most widely used identification strategies in applied economics. However, how to draw inferences in DID models when there are few treated groups remains an open question. We show that the usual inference methods used in DID models might not perform well when there are few treated groups and errors are heteroskedastic. In particular, we show that when there is variation in the number of observations per group, inference methods designed to work when there are few treated groups tend to (under-) over-reject the null hypothesis when the treated groups are (large) small relative to the control groups. This happens because larger groups tend to have lower variance, generating heteroskedasticity in the group x time aggregate DID model. We provide evidence from Monte Carlo simulations and from placebo DID regressions with the American Community Survey (ACS) and the Current Population Survey (CPS) datasets to show that this problem is relevant even in datasets with large numbers of observations per group. We then derive an alternative inference method that provides accurate hypothesis testing in situations where there are few treated groups (or even just one) and many control groups in the presence of heteroskedasticity. Our method assumes that we know how the heteroskedasticity is generated, which is the case when it is generated by variation in the number of observations per group. With many pre-treatment periods, we show that this assumption can be relaxed. Instead, we provide an alternative application of our method that relies on assumptions about stationarity and convergence of the moments of the time series. Finally, we consider two recent alternatives to DID when there are many pre-treatment groups. We extend our inference method to linear factor models when there are few treated groups. We also propose a permutation test for the synthetic control estimator that provided a better heteroskedasticity correction in our simulations than the test suggested by Abadie et al. (2010).