295 resultados para Mercado financeiro - Previsão
Resumo:
O trabalho tem por objetivo validar a influência dos formadores de mercado de ações sobre a liquidez, uma proxy capaz de medir os custos de transação no mercado secundário de ações. O desafio de medir corretamente a liquidez teve trabalhos relevantes desde 1984, e recentemente foi alvo de uma revisão geral que comparou diversas medidas e encontrou alguns ganhadores. A proposta do presente trabalho é a de revisitar estas medidas e selecionar a métrica mais adequada ao mercado Brasileiro. Escolhida a proxy mais significativa, será então avaliada a relevância do formador de mercado na determinação dos custos de transação por meio de uma versão modificada da equação econométrica de Sanvicente (2012). Por fim, este trabalho será relevante para identificar se as empresas devem contratar formadores de mercado para suas ações, com o fim de reduzirem os custos da negociação de suas ações.
Resumo:
Essa dissertação tem como objetivo a modelagem, implementação e a simulação de um mercado de leilão duplo artificial utilizando a abordagem multiagente. Mercado de leilão duplo permite que ofertas de compra e de venda possam ser feitas a qualquer momento e de forma contínua. As bolsas de Nova Iorque (NYSE) e de Chicago (CME) são exemplos deste tipo de leilão. Mercados artificiais são modelos que têm o objetivo de capturar as propriedades dos mercados reais para reproduzir e analisar a dinâmica do mercado através de experimentos computacionais. Assim como no mercado real, o modelo propõe que os agentes interagem entre si assincronamente em sessões de negociações contínuos. Estas últimas características do modelo são viabilizadas através do uso de técnicas e arcabouços tecnológicos que são atualmente utilizados nos mercados reais. Neste trabalho, são investigados os comportamentos do mercado artificial para diferentes grupos de agentes e parâmetros. Ao longo dos experimentos foram constatados que o volume de negociação e a volatilidade dos preços, por exemplo, são diretamente proporcionais ao orçamento dos agentes. Também foram identificados alguns fatos estilizados nas séries de preços geradas a partir do mercado artificial.
Resumo:
Esta pesquisa busca testar a eficácia de uma estratégia de arbitragem de taxas de juros no Brasil baseada na utilização do modelo de Nelson-Siegel dinâmico aplicada à curva de contratos futuros de taxa de juros de 1 dia da BM&FBovespa para o período compreendido entre 02 de janeiro de 2008 e 03 de dezembro de 2012. O trabalho adapta para o mercado brasileiro o modelo original proposto por Nelson e Siegel (1987), e algumas de suas extensões e interpretações, chegando a um dos modelos propostos por Diebold, Rudebusch e Aruoba (2006), no qual estimam os parâmetros do modelo de Nelson-Siegel em uma única etapa, colocando-o em formato de espaço de estados e utilizando o Filtro de Kalman para realizar a previsão dos fatores, assumindo que o comportamento dos mesmos é um VAR de ordem 1. Desta maneira, o modelo possui a vantagem de que todos os parâmetros são estimados simultaneamente, e os autores mostraram que este modelo possui bom poder preditivo. Os resultados da estratégia adotada foram animadores quando considerados para negociação apenas os 7 primeiros vencimentos abertos para negociação na BM&FBovespa, que possuem maturidade máxima próxima a 1 ano.
Resumo:
Neste trabalho busca-se investigar empiricamente, no caso brasileiro, o comportamento da medida de risco de Foster e Hart, sua capacidade de estimação de retornos e se ela pode ser usada como indicador do momento do mercado. Esta medida é de fácil assimilação e cálculo, respeita axiomas de coerência, sendo indiferente a aversão ao risco dos agentes e mensurada na mesma unidade dos retornos. Encontram-se evidências de que o risco reage a momentos de estresse do mercado e da existência de um relacionamento positivo com retornos futuros.
Resumo:
Este trabalho visa estimar o prêmio por controle no mercado acionário brasileiro, com base no diferencial de preços entre espécies de ações com direitos diferenciados de voto. No Brasil para o período de 01/07/2003 a 28/06/2013 a média do prêmio por controle foi positivo, resultado que difere dos encontrados em estudos anteriores, onde o prêmio por controle é negativo. Este trabalho investiga os determinantes que implicam na valorização da ação ordinária em relação à ação preferencial. Em particular, o trabalho analisa os impactos da liquidez, do diferencial dos dividendos, o impacto negativo da extensão do direito do Tag Along para ações preferenciais, o impacto negativo das empresas que possuem ADR, impacto negativo quando a empresas está classificada com nível superior de governança corporativo da BMF&Bovespa e pro fim, o impacto positivo para quando o acionista majoritário detêm mais de 50% das ações ordinárias e da participação do governo nas empresas que possui 20% das ações ordinárias.
Resumo:
Existe uma divergência nos estudos de mercados emergentes sobre a relação entre retorno e liquidez. Enquanto nos mercados desenvolvidos é consenso que o retorno cresce com a falta de liquidez, em mercados como o Brasil concorda-se com a sua influência, mas não é unânime o crescimento da rentabilidade diante da iliquidez. Assim, este estudo busca definir as variáveis que representam o conceito de liquidez e se elas possuem influência no retorno das ações brasileiras, além de entender se existe prêmio adicional por falta de liquidez. Para elucidar estas dúvidas foram analisadas 100 empresas pertencentes ao IBrX no período de 2003 a 2013, tendo como variáveis representativas de liquidez o spread, turnover, número de trades e volume financeiro. Os resultados estatísticos comprovaram a significância das variáveis, sendo as três primeiras negativamente correlacionadas e a última positivamente. Porém, ao contrário da literatura internacional, este trabalho não encontrou uma relação de retorno e liquidez crescente. Outro resultado encontrado foi que a influência da liquidez não se comporta de modo constante ao longo do tempo, o que pode ser uma das razões da diferença dos resultados da literatura nacional. Além disso, como a liquidez é um conceito multivariado e não mensurável diretamente, dependendo das variáveis de liquidez adotadas pode-se obter resultados distintos, conforme comprovado nos testes com o volume financeiro e as demais variáveis.
Resumo:
Com o objetivo de analisar o impacto na Estrutura a Termos de Volatilidade (ETV) das taxas de juros utilizando dois diferentes modelos na estimação da Estrutura a Termo das Taxas de Juros (ETTJ) e a suposição em relação a estrutura heterocedástica dos erros (MQO e MQG ponderado pela duration), a técnica procede em estimar a ETV utilizando-se da volatilidade histórica por desvio padrão e pelo modelo auto-regressivo Exponentially Weighted Moving Average (EWMA). Por meio do teste de backtesting proposto por Kupiec para o VaR paramétrico obtido com as volatilidades das ETV´s estimadas, concluí-se que há uma grande diferença na aderência que dependem da combinação dos modelos utilizados para as ETV´s. Além disso, há diferenças estatisticamente significantes entre as ETV´s estimadas em todo os pontos da curva, particularmente maiores no curto prazo (até 1 ano) e nos prazos mais longos (acima de 10 anos).
Resumo:
Neste estudo foram realizados testes econométricos da validade da hipótese das expectativas racionais como explicação para a formação das taxas de juros no Brasil. O estudo compara os resultados destes testes para período de 1995 a 2002 com os resultados para o período de 2003 a 2013. Estes intervalos foram escolhidos por contarem com políticas econômicas e choques muito diversos. A comparação entre os dois períodos obtém alterações importantes, mas que não alteram a conclusão de que a hipótese das expectativas racionais não tem respaldo empírico como explicação para a formação da estrutura termo das taxas de juros no Brasil. Embora tenha caído significativamente, o prêmio de alongamento continuou estatisticamente significante.
Resumo:
Este trabalho tem como objetivo avaliar o modo que a comunicação do Banco Central do Brasil (comunicados das decisões de política monetária, atas do COPOM e relatórios de inflação) pode impactar os mercados - a reação do mercado financeiro às notícias da autoridade monetária. Nesse sentido, atenta-se para a diferença entre o que se espera que seja a informação e o que de fato a informação é: o choque de notícias. A partir dessa diferença entre a expectativa e o realizado, procura-se analisar o quanto tal desvio é relevante para as variações nos preços de alguns ativos. Encontra-se evidências de que os comunicados das decisões parecem ser bastante eficientes enquanto informantes do futuro da política monetária, o que não acontece para as atas. Ao analisarmos a interação entre comunicados e atas a partir de 2003, vemos que há uma complementaridade dos dois veículos, com o choque de notícias dos comunicados tendo mais impactos sobre maturidades de juros mais curtas e o choque das atas sobre os vértices mais longos. Por fim, as projeções de inflação dos relatórios parecem ser relevantes para movimentar a curva de juros futuros em diversos pontos.
Resumo:
A pesquisa visa entender o impacto das regulamentações no sistema financeiro considerando as teorias sobre ciclos econômicos e contextualizando para a implementação de Basileia 3 no mercado brasileiro em 2013. Para desenvolver foram analisados modelo teórico e teste via simulação no programa NETLOGO, considerando-se o numero de instituições financeiras no mercado brasileiro alterando as restrições e colhendo os resultados gráficos. A abordagem teórica para melhor entender os impactos das regulamentações foi feita através da análise da bibliografia disponível sobre Hipótese da Instabilidade Financeira. Em linha com a literatura abordada, há evidências do impacto negativo das regulamentações em sistemas que apresentam choques negativos de produtividade, ainda levando-se em consideração a capacidade das instituições financeiras, no que diz respeito a estrutura de seus balanços para suportarem tais eventos.
Resumo:
O trabalho busca através de um exercício empírico, extrair as curvas de probabilidade implícita de default em debêntures brasileiras. A construção ocorre em duas etapas. O primeiro desafio é obter as estruturas a termo das debêntures brasileiras. Foi utilizada a revisão proposta por Diebold e Li (2006) do modelo de Nelson Siegel (1987) para construç o das ETTJs. A segunda etapa consiste em extrair a probabilidade de default utilizado a forma reduzida do modelo de Duffie e Singleton (1999). A fração de perda em caso de default foi considerada constante conforme estudo de Xu e Nencioni (2000). A taxa de decaimento também foi mantida constante conforme proposto por Diebold e Li (2006) e Araújo (2012). O exercício foi replicado para três datas distintas durante o ciclo de redução de juros no Brasil. Dentre os resultados desse estudo identificou-se que os agentes do mercado reduziram a probabilidade de default dos emissores durante esse período. A redução nos vértices mais curtos foi mais significativa do que em vértices mais longos.
Resumo:
O objetivo deste trabalho é realizar procedimento de back-test da Magic Formula na Bovespa, reunindo evidências sobre violações da Hipótese do Mercado Eficiente no mercado brasileiro. Desenvolvida por Joel Greenblatt, a Magic Formula é uma metodologia de formação de carteiras que consiste em escolher ações com altos ROICs e Earnings Yields, seguindo a filosofia de Value Investing. Diversas carteiras foram montadas no período de dezembro de 2002 a maio de 2014 utilizando diferentes combinações de número de ativos por carteira e períodos de permanência. Todas as carteiras, independentemente do número de ativos ou período de permanência, apresentaram retornos superiores ao Ibovespa. As diferenças entre os CAGRs das carteiras e o do Ibovespa foram significativas, sendo que a carteira com pior desempenho apresentou CAGR de 27,7% contra 14,1% do Ibovespa. As carteiras também obtiveram resultados positivos após serem ajustadas pelo risco. A pior razão retorno-volatilidade foi de 1,2, comparado a 0,6 do Ibovespa. As carteiras com pior pontuação também apresentaram bons resultados na maioria dos cenários, contrariando as expectativas iniciais e os resultados observados em outros trabalhos. Adicionalmente foram realizadas simulações para diversos períodos de 5 anos com objetivo de analisar a robustez dos resultados. Todas as carteiras apresentaram CAGR maior que o do Ibovespa em todos os períodos simulados, independentemente do número de ativos incluídos ou dos períodos de permanência. Estes resultados indicam ser possível alcançar retornos acima do mercado no Brasil utilizando apenas dados públicos históricos. Esta é uma violação da forma fraca da Hipótese do Mercado Eficiente.
Resumo:
The goal of this paper is twofold. First, using five of the most actively traded stocks in the Brazilian financial market, this paper shows that the normality assumption commonly used in the risk management area to describe the distributions of returns standardized by volatilities is not compatible with volatilities estimated by EWMA or GARCH models. In sharp contrast, when the information contained in high frequency data is used to construct the realized volatilies measures, we attain the normality of the standardized returns, giving promise of improvements in Value at Risk statistics. We also describe the distributions of volatilities of the Brazilian stocks, showing that the distributions of volatilities are nearly lognormal. Second, we estimate a simple linear model to the log of realized volatilities that differs from the ones in other studies. The main difference is that we do not find evidence of long memory. The estimated model is compared with commonly used alternatives in an out-of-sample experiment.
Resumo:
Este trabalho tem por objetivo contribuir para a discussão acerca do diferencial relativo de preços entre duas classes de ações - ordinárias nominativas (ON) e preferenciais nominativas (PN) - no Brasil e os seus determinantes no período compreendido entre 2002 e 2014. Considerando-se a disseminada utilização de duas classes de ações (com e sem direito de voto) por empresas listadas na BMFBovespa – permitindo a separação entre controle e propriedade - e a elevada concentração do controle, este trabalho contribui para o entendimento dos potenciais conflitos de interesse entre acionistas majoritários e minoritários. Utilizou-se o método de mínimos quadrados ordinários (MQO) e os procedimentos de efeitos fixos (EF) e aleatórios (EA) para um painel formado por 46 companhias listadas resultando em 1.653 observações. Foram encontradas evidências de que as ações ON (com direito a voto) são negociadas com prêmio em relação às PN (sem direito a voto) e de que o prêmio (pelo voto) apresenta leve tendência de alta durante o período. Por fim, em relação aos determinantes, foram encontradas evidências de que o maior grau de proteção aos acionistas minoritários, o tamanho da empresa e a maior proporção de ativos tangíveis (imobilizados) estão negativamente associados ao prêmio pelo voto.
Resumo:
Este trabalho se dedica a analisar o desempenho de modelos de otimização de carteiras regularizadas, empregando ativos financeiros do mercado brasileiro. Em particular, regularizamos as carteiras através do uso de restrições sobre a norma dos pesos dos ativos, assim como DeMiguel et al. (2009). Adicionalmente, também analisamos o desempenho de carteiras que levam em consideração informações sobre a estrutura de grupos de ativos com características semelhantes, conforme proposto por Fernandes, Rocha e Souza (2011). Enquanto a matriz de covariância empregada nas análises é a estimada através dos dados amostrais, os retornos esperados são obtidos através da otimização reversa da carteira de equilíbrio de mercado proposta por Black e Litterman (1992). A análise empírica fora da amostra para o período entre janeiro de 2010 e outubro de 2014 sinaliza-nos que, em linha com estudos anteriores, a penalização das normas dos pesos pode levar (dependendo da norma escolhida e da intensidade da restrição) a melhores performances em termos de Sharpe e retorno médio, em relação a carteiras obtidas via o modelo tradicional de Markowitz. Além disso, a inclusão de informações sobre os grupos de ativos também pode trazer benefícios ao cálculo de portfolios ótimos, tanto em relação aos métodos tradicionais quanto em relação aos casos sem uso da estrutura de grupos.