998 resultados para Mercado financeiro – Modelos econométricos
Resumo:
O trabalho busca através de um exercício empírico, extrair as curvas de probabilidade implícita de default em debêntures brasileiras. A construção ocorre em duas etapas. O primeiro desafio é obter as estruturas a termo das debêntures brasileiras. Foi utilizada a revisão proposta por Diebold e Li (2006) do modelo de Nelson Siegel (1987) para construç o das ETTJs. A segunda etapa consiste em extrair a probabilidade de default utilizado a forma reduzida do modelo de Duffie e Singleton (1999). A fração de perda em caso de default foi considerada constante conforme estudo de Xu e Nencioni (2000). A taxa de decaimento também foi mantida constante conforme proposto por Diebold e Li (2006) e Araújo (2012). O exercício foi replicado para três datas distintas durante o ciclo de redução de juros no Brasil. Dentre os resultados desse estudo identificou-se que os agentes do mercado reduziram a probabilidade de default dos emissores durante esse período. A redução nos vértices mais curtos foi mais significativa do que em vértices mais longos.
Resumo:
Neste estudo, analiso o desempenho de empresas familiares e não-familiares na Europa, entre 2001 e 2013, com uma especial atenção ao período da crise financeira de 2008 e 2009. Doze anos de dados foram recolhidos e analisadosusando dois modelos: o modelo de ajustamento do mercado e uma técnica de estimativa de painéis. Ao contrário das expectativas, os resultados mostram que as empresas familiares não têm resultados significativamente superiores às empresas não familiares durante o período em análise, inclusive antes, durante, e depois da crise. No entanto, considerando o valor do beta, existem diferenças significativas. É possível concluir que as empresas familiares são, em geral, menos voláteis e que durante a crise apresentaram uma volatilidade extremamente baixa comparativamente com o mercado.JEL
Resumo:
O objetivo deste trabalho é realizar procedimento de back-test da Magic Formula na Bovespa, reunindo evidências sobre violações da Hipótese do Mercado Eficiente no mercado brasileiro. Desenvolvida por Joel Greenblatt, a Magic Formula é uma metodologia de formação de carteiras que consiste em escolher ações com altos ROICs e Earnings Yields, seguindo a filosofia de Value Investing. Diversas carteiras foram montadas no período de dezembro de 2002 a maio de 2014 utilizando diferentes combinações de número de ativos por carteira e períodos de permanência. Todas as carteiras, independentemente do número de ativos ou período de permanência, apresentaram retornos superiores ao Ibovespa. As diferenças entre os CAGRs das carteiras e o do Ibovespa foram significativas, sendo que a carteira com pior desempenho apresentou CAGR de 27,7% contra 14,1% do Ibovespa. As carteiras também obtiveram resultados positivos após serem ajustadas pelo risco. A pior razão retorno-volatilidade foi de 1,2, comparado a 0,6 do Ibovespa. As carteiras com pior pontuação também apresentaram bons resultados na maioria dos cenários, contrariando as expectativas iniciais e os resultados observados em outros trabalhos. Adicionalmente foram realizadas simulações para diversos períodos de 5 anos com objetivo de analisar a robustez dos resultados. Todas as carteiras apresentaram CAGR maior que o do Ibovespa em todos os períodos simulados, independentemente do número de ativos incluídos ou dos períodos de permanência. Estes resultados indicam ser possível alcançar retornos acima do mercado no Brasil utilizando apenas dados públicos históricos. Esta é uma violação da forma fraca da Hipótese do Mercado Eficiente.
Resumo:
In this article we use factor models to describe a certain class of covariance structure for financiaI time series models. More specifical1y, we concentrate on situations where the factor variances are modeled by a multivariate stochastic volatility structure. We build on previous work by allowing the factor loadings, in the factor mo deI structure, to have a time-varying structure and to capture changes in asset weights over time motivated by applications with multi pIe time series of daily exchange rates. We explore and discuss potential extensions to the models exposed here in the prediction area. This discussion leads to open issues on real time implementation and natural model comparisons.
Resumo:
The past decade has wítenessed a series of (well accepted and defined) financial crises periods in the world economy. Most of these events aI,"e country specific and eventually spreaded out across neighbor countries, with the concept of vicinity extrapolating the geographic maps and entering the contagion maps. Unfortunately, what contagion represents and how to measure it are still unanswered questions. In this article we measure the transmission of shocks by cross-market correlation\ coefficients following Forbes and Rigobon's (2000) notion of shift-contagion,. Our main contribution relies upon the use of traditional factor model techniques combined with stochastic volatility mo deIs to study the dependence among Latin American stock price indexes and the North American indexo More specifically, we concentrate on situations where the factor variances are modeled by a multivariate stochastic volatility structure. From a theoretical perspective, we improve currently available methodology by allowing the factor loadings, in the factor model structure, to have a time-varying structure and to capture changes in the series' weights over time. By doing this, we believe that changes and interventions experienced by those five countries are well accommodated by our models which learns and adapts reasonably fast to those economic and idiosyncratic shocks. We empirically show that the time varying covariance structure can be modeled by one or two common factors and that some sort of contagion is present in most of the series' covariances during periods of economical instability, or crisis. Open issues on real time implementation and natural model comparisons are thoroughly discussed.
Resumo:
The goal of this paper is twofold. First, using five of the most actively traded stocks in the Brazilian financial market, this paper shows that the normality assumption commonly used in the risk management area to describe the distributions of returns standardized by volatilities is not compatible with volatilities estimated by EWMA or GARCH models. In sharp contrast, when the information contained in high frequency data is used to construct the realized volatilies measures, we attain the normality of the standardized returns, giving promise of improvements in Value at Risk statistics. We also describe the distributions of volatilities of the Brazilian stocks, showing that the distributions of volatilities are nearly lognormal. Second, we estimate a simple linear model to the log of realized volatilities that differs from the ones in other studies. The main difference is that we do not find evidence of long memory. The estimated model is compared with commonly used alternatives in an out-of-sample experiment.
Resumo:
O presente estudo - até onde se sabe inédito no Brasil – possui como principal objetivo avaliar alguns determinantes das necessidades de capital de giro comumente estudados na literatura e analisar de que forma as empresas se movimentam em direção a uma meta (target) de Net Trade Cycle (similar ao Ciclo de Caixa - CCC). Sabemos que o tema capital de giro ainda carece de teorias mais robustas dentro da área de finanças, e poucos estudos ainda são encontrados na literatura. Aqueles que decidem estudá-lo, observam que dado o seu atual estágio, ele tem sido pesquisado com o suporte de bases teóricas mais consolidadas, como por exemplo estrutura de capitais. Esses estudos têm se utilizado muito do conceito de meta para determinar a estrutura ótima de capitais, e com qual velocidade de ajuste procura-se adequar essa estrutura como forma de otimizar seus recursos. O fato de ainda não existir definições e/ou teorias mais definidas sobre o tema foi o grande motivador para a realização desse estudo, que emprega a velocidade de ajuste em direção a uma meta de capital de giro, utilizando como técnica para suporte a esse objetivo o Modelo de Ajustamento Parcial (MAP) e o Generalized Method of Moments (GMM). Com essa combinação inédita no mercado brasileiro quando o assunto é capital de giro, esperamos trazer novas contribuições para as comunidades acadêmicas e empresariais. Para a obtenção dos dados que compõem esse estudo de caráter quantitativo, utilizamos informações existentes na Economatica® e BCB – Banco Central do Brasil. Nessas bases de dados utilizamos os demonstrativos financeiros trimestrais entre os períodos de 31/Dez./2007 a 30/Jun./2014 (ajustados por inflação – IPCA) das empresas listadas na BM&FBovespa que possuíssem pelos menos 15 períodos (trimestres) consecutivos de dados, com isso chegamos a um total de um pouco mais de 2 mil observações e 105 empresas. Quanto ao método, utilizamos Painel de Dados Dinâmico (desbalanceado) e as seguintes técnicas foram empregadas como forma de atender ao principal objetivo do estudo (“Qual é a velocidade de ajuste das Necessidades de Capital de Giro?”): Modelo de Ajustamento Parcial para a análise dos determinantes das necessidades de capital de giro e movimentação em direção a uma meta e; Generalized Method of Moments (GMM) como técnica de controle aos possíveis efeitos de endogeneidade (BLUNDELL e BOND, 1998) e solução para o problema de autocorrelação residual (PIRES, ZANI e NAKAMURA, 2013, p. 19).
Resumo:
Este trabalho tem por objetivo contribuir para a discussão acerca do diferencial relativo de preços entre duas classes de ações - ordinárias nominativas (ON) e preferenciais nominativas (PN) - no Brasil e os seus determinantes no período compreendido entre 2002 e 2014. Considerando-se a disseminada utilização de duas classes de ações (com e sem direito de voto) por empresas listadas na BMFBovespa – permitindo a separação entre controle e propriedade - e a elevada concentração do controle, este trabalho contribui para o entendimento dos potenciais conflitos de interesse entre acionistas majoritários e minoritários. Utilizou-se o método de mínimos quadrados ordinários (MQO) e os procedimentos de efeitos fixos (EF) e aleatórios (EA) para um painel formado por 46 companhias listadas resultando em 1.653 observações. Foram encontradas evidências de que as ações ON (com direito a voto) são negociadas com prêmio em relação às PN (sem direito a voto) e de que o prêmio (pelo voto) apresenta leve tendência de alta durante o período. Por fim, em relação aos determinantes, foram encontradas evidências de que o maior grau de proteção aos acionistas minoritários, o tamanho da empresa e a maior proporção de ativos tangíveis (imobilizados) estão negativamente associados ao prêmio pelo voto.
Resumo:
Os Fundos de Investimento Imobiliários – FIIs – vem ganhando destaque como alternativas de investimento no Brasil. Segundo dados da BM&FBovespa, a média diária de volume negociado aumentou de R$600 mil em 2009 para R$27 milhões em 2014. No entanto, após o IFIX – Indíce de FIIs - atingir seu maior patamar histórico em Janeiro de 2013, este passou apresentar performance negativa, ao mesmo tempo que se observou um processo de elevação da curva de juros. O presente trabalho visa analisar o impacto de movimentos da curva de juros no desempenho dos FIIs. De forma a limitar as divergências encontradas na literatura internacional quanto à taxa de juros utilizada como proxy para a avaliação, utiliza-se da Análise de Componentes Principais para reduzir o número de variáveis, restringindo-se a uma variável de nível e uma de inclinação. Os resultados indicam que aumento no nível da curva de juros tem um impacto negativo no desempenho dos FIIs, ao passo que aumenta na inclinação também tem impacto negativo, mas não de forma relevante.
Resumo:
Este trabalho busca testar a eficiência do mercado de ações brasileiro através da identificação da existência de post-earnings announcement drift, fenômeno já bastante estudado e reproduzido no mercado norte-americano. Segundo a literatura existente a respeito do assunto, a informação contida na divulgação de resultados de uma firma é relevante para a formação de preço de suas ações. Além disso, os retornos anormais acumulados de ações de firmas que divulgam resultados com “surpresas positivas” possuem tendência positiva por algum tempo após a divulgação do resultado. Por outro lado, os retornos anormais acumulados de ações de empresas que divulgam resultados com “surpresas negativas” possuem tendência negativa por algum tempo após a divulgação do resultado. A identificação de post-earnings announcement drift no mercado acionário brasileiro pode ser de grande utilidade para a estruturação de estratégias de arbitragem e gestão de portfólios. Após uma revisão teórica, o resultado é apresentado e se mostra parcialmente consistente com a literatura existente.
Resumo:
Este trabalho demonstra como podemos usar opções sobre o Índice de Taxa Média de Depósitos Interfinanceiros de Um Dia (IDI) para extrair a função densidade de probabilidade (FDP) para os próximos passos do Comitê de Política Monetária (COPOM). Como a decisão do COPOM tem uma natureza discreta, podemos estimar a FDP usando Mínimo Quadrados Ordinários (MQO). Esta técnica permite incluir restrições sobre as probabilidades estimadas. As probabilidades calculadas usando opções sobre IDI são então comparadas com as probabilidades encontradas usando o Futuro de DI e as probabilidades calculadas através de pesquisas.
Resumo:
A melhora na situação econômica do Brasil, observada nos últimos anos, resultou em um aumento expressivo no número de IPOs realizados no mercado brasileiro tornando o mecanismo de desinvestimento através do mercado de capitais em uma boa opção para os fundos de Private Equity/Venture Capital, fato que não era visto no período anterior a 2004. No período de janeiro de 2004 a maio de 2007 foi possível notar um fato inédito para o mercado brasileiro, dos 61 IPOs que ocorreram, 26 foram realizados por firmas que tinham um fundo de Private Equity/Venture Capital como acionista. Devido a assimetria de informação, o preço de emissão é tipicamente inferior ao preço de mercado da ação após o IPO, sendo esse “fenômeno” conhecido na literatura como underpricing. Essa dissertação busca examinar o papel de certificação que um fundo de Private Equity/Venture Capital pode exercer nas emissões de ações no Brasil no período de 2004 a maio de 2007, reduzindo assim a assimetria de informação existente, através de uma análise do underpricing dos IPOs de empresas que tem fundos de Private Equity/Venture Capital como acionistas, e de empresas que não tem. Encontramos evidência que sugere que no mercado brasileiro apenas empresas com um bom grau de governança e transparência tem acesso ao Mercado de capitais através de IPOs, tirando, desta forma, a importância do poder de certificação exercido pelos fundos de Private Equity/Venture Capital em reduzir a assimetria de informação existente.
Resumo:
This study aims to contribute on the forecasting literature in stock return for emerging markets. We use Autometrics to select relevant predictors among macroeconomic, microeconomic and technical variables. We develop predictive models for the Brazilian market premium, measured as the excess return over Selic interest rate, Itaú SA, Itaú-Unibanco and Bradesco stock returns. We nd that for the market premium, an ADL with error correction is able to outperform the benchmarks in terms of economic performance. For individual stock returns, there is a trade o between statistical properties and out-of-sample performance of the model.
Resumo:
The dissertation goal is to quantify the tail risk premium embedded into hedge funds' returns. Tail risk is the probability of extreme large losses. Although it is a rare event, asset pricing theory suggests that investors demand compensation for holding assets sensitive to extreme market downturns. By de nition, such events have a small likelihood to be represented in the sample, what poses a challenge to estimate the e ects of tail risk by means of traditional approaches such as VaR. The results show that it is not su cient to account for the tail risk stemming from equities markets. Active portfolio management employed by hedge funds demand a speci c measure to estimate and control tail risk. Our proposed factor lls that void inasmuch it presents explanatory power both over the time series as well as the cross-section of funds' returns.
Resumo:
When disagreement in economic models occurs due to different interpretations of public signals, the level of ``marketwide disagreement'' not necessarily decreases upon the arrival of a public signal. We propose an empirical assessment of this phenomenon. By using a measure of attention based on Google Trends, we show that an increase in the attention allocated by the market to a company is associated to a significant increase in disagreement about it.