963 resultados para Mercado financeiro artificial


Relevância:

90.00% 90.00%

Publicador:

Resumo:

Com o objetivo de analisar o impacto na Estrutura a Termos de Volatilidade (ETV) das taxas de juros utilizando dois diferentes modelos na estimação da Estrutura a Termo das Taxas de Juros (ETTJ) e a suposição em relação a estrutura heterocedástica dos erros (MQO e MQG ponderado pela duration), a técnica procede em estimar a ETV utilizando-se da volatilidade histórica por desvio padrão e pelo modelo auto-regressivo Exponentially Weighted Moving Average (EWMA). Por meio do teste de backtesting proposto por Kupiec para o VaR paramétrico obtido com as volatilidades das ETV´s estimadas, concluí-se que há uma grande diferença na aderência que dependem da combinação dos modelos utilizados para as ETV´s. Além disso, há diferenças estatisticamente significantes entre as ETV´s estimadas em todo os pontos da curva, particularmente maiores no curto prazo (até 1 ano) e nos prazos mais longos (acima de 10 anos).

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Este trabalho tem por objetivo a construção de uma rede neural para previsão do movimento dos contratos de dólar futuro e a construção de estratégias de negociação, para prover uma ferramenta para estimar o movimento do câmbio e para a negociação desses ativos. Essa ferramenta pode auxiliar empresas que necessitam fazer hedge de ativos e passivos e players do mercado que necessitam rentabilizar carteiras. Neste trabalho utilizamos como input dados de ativos do mercado financeiro, de janeiro de 2001 até setembro de 2013, disponíveis via terminal Bloomberg. Para o cálculo dos resultados financeiros das estratégias utilizamos dados de preços referenciais disponibilizados pela BM&F.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Neste estudo foram realizados testes econométricos da validade da hipótese das expectativas racionais como explicação para a formação das taxas de juros no Brasil. O estudo compara os resultados destes testes para período de 1995 a 2002 com os resultados para o período de 2003 a 2013. Estes intervalos foram escolhidos por contarem com políticas econômicas e choques muito diversos. A comparação entre os dois períodos obtém alterações importantes, mas que não alteram a conclusão de que a hipótese das expectativas racionais não tem respaldo empírico como explicação para a formação da estrutura termo das taxas de juros no Brasil. Embora tenha caído significativamente, o prêmio de alongamento continuou estatisticamente significante.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Este trabalho tem como objetivo avaliar o modo que a comunicação do Banco Central do Brasil (comunicados das decisões de política monetária, atas do COPOM e relatórios de inflação) pode impactar os mercados - a reação do mercado financeiro às notícias da autoridade monetária. Nesse sentido, atenta-se para a diferença entre o que se espera que seja a informação e o que de fato a informação é: o choque de notícias. A partir dessa diferença entre a expectativa e o realizado, procura-se analisar o quanto tal desvio é relevante para as variações nos preços de alguns ativos. Encontra-se evidências de que os comunicados das decisões parecem ser bastante eficientes enquanto informantes do futuro da política monetária, o que não acontece para as atas. Ao analisarmos a interação entre comunicados e atas a partir de 2003, vemos que há uma complementaridade dos dois veículos, com o choque de notícias dos comunicados tendo mais impactos sobre maturidades de juros mais curtas e o choque das atas sobre os vértices mais longos. Por fim, as projeções de inflação dos relatórios parecem ser relevantes para movimentar a curva de juros futuros em diversos pontos.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

A pesquisa visa entender o impacto das regulamentações no sistema financeiro considerando as teorias sobre ciclos econômicos e contextualizando para a implementação de Basileia 3 no mercado brasileiro em 2013. Para desenvolver foram analisados modelo teórico e teste via simulação no programa NETLOGO, considerando-se o numero de instituições financeiras no mercado brasileiro alterando as restrições e colhendo os resultados gráficos. A abordagem teórica para melhor entender os impactos das regulamentações foi feita através da análise da bibliografia disponível sobre Hipótese da Instabilidade Financeira. Em linha com a literatura abordada, há evidências do impacto negativo das regulamentações em sistemas que apresentam choques negativos de produtividade, ainda levando-se em consideração a capacidade das instituições financeiras, no que diz respeito a estrutura de seus balanços para suportarem tais eventos.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

O trabalho busca através de um exercício empírico, extrair as curvas de probabilidade implícita de default em debêntures brasileiras. A construção ocorre em duas etapas. O primeiro desafio é obter as estruturas a termo das debêntures brasileiras. Foi utilizada a revisão proposta por Diebold e Li (2006) do modelo de Nelson Siegel (1987) para construç o das ETTJs. A segunda etapa consiste em extrair a probabilidade de default utilizado a forma reduzida do modelo de Duffie e Singleton (1999). A fração de perda em caso de default foi considerada constante conforme estudo de Xu e Nencioni (2000). A taxa de decaimento também foi mantida constante conforme proposto por Diebold e Li (2006) e Araújo (2012). O exercício foi replicado para três datas distintas durante o ciclo de redução de juros no Brasil. Dentre os resultados desse estudo identificou-se que os agentes do mercado reduziram a probabilidade de default dos emissores durante esse período. A redução nos vértices mais curtos foi mais significativa do que em vértices mais longos.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

O objetivo deste trabalho é realizar procedimento de back-test da Magic Formula na Bovespa, reunindo evidências sobre violações da Hipótese do Mercado Eficiente no mercado brasileiro. Desenvolvida por Joel Greenblatt, a Magic Formula é uma metodologia de formação de carteiras que consiste em escolher ações com altos ROICs e Earnings Yields, seguindo a filosofia de Value Investing. Diversas carteiras foram montadas no período de dezembro de 2002 a maio de 2014 utilizando diferentes combinações de número de ativos por carteira e períodos de permanência. Todas as carteiras, independentemente do número de ativos ou período de permanência, apresentaram retornos superiores ao Ibovespa. As diferenças entre os CAGRs das carteiras e o do Ibovespa foram significativas, sendo que a carteira com pior desempenho apresentou CAGR de 27,7% contra 14,1% do Ibovespa. As carteiras também obtiveram resultados positivos após serem ajustadas pelo risco. A pior razão retorno-volatilidade foi de 1,2, comparado a 0,6 do Ibovespa. As carteiras com pior pontuação também apresentaram bons resultados na maioria dos cenários, contrariando as expectativas iniciais e os resultados observados em outros trabalhos. Adicionalmente foram realizadas simulações para diversos períodos de 5 anos com objetivo de analisar a robustez dos resultados. Todas as carteiras apresentaram CAGR maior que o do Ibovespa em todos os períodos simulados, independentemente do número de ativos incluídos ou dos períodos de permanência. Estes resultados indicam ser possível alcançar retornos acima do mercado no Brasil utilizando apenas dados públicos históricos. Esta é uma violação da forma fraca da Hipótese do Mercado Eficiente.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

The goal of this paper is twofold. First, using five of the most actively traded stocks in the Brazilian financial market, this paper shows that the normality assumption commonly used in the risk management area to describe the distributions of returns standardized by volatilities is not compatible with volatilities estimated by EWMA or GARCH models. In sharp contrast, when the information contained in high frequency data is used to construct the realized volatilies measures, we attain the normality of the standardized returns, giving promise of improvements in Value at Risk statistics. We also describe the distributions of volatilities of the Brazilian stocks, showing that the distributions of volatilities are nearly lognormal. Second, we estimate a simple linear model to the log of realized volatilities that differs from the ones in other studies. The main difference is that we do not find evidence of long memory. The estimated model is compared with commonly used alternatives in an out-of-sample experiment.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Este trabalho tem por objetivo contribuir para a discussão acerca do diferencial relativo de preços entre duas classes de ações - ordinárias nominativas (ON) e preferenciais nominativas (PN) - no Brasil e os seus determinantes no período compreendido entre 2002 e 2014. Considerando-se a disseminada utilização de duas classes de ações (com e sem direito de voto) por empresas listadas na BMFBovespa – permitindo a separação entre controle e propriedade - e a elevada concentração do controle, este trabalho contribui para o entendimento dos potenciais conflitos de interesse entre acionistas majoritários e minoritários. Utilizou-se o método de mínimos quadrados ordinários (MQO) e os procedimentos de efeitos fixos (EF) e aleatórios (EA) para um painel formado por 46 companhias listadas resultando em 1.653 observações. Foram encontradas evidências de que as ações ON (com direito a voto) são negociadas com prêmio em relação às PN (sem direito a voto) e de que o prêmio (pelo voto) apresenta leve tendência de alta durante o período. Por fim, em relação aos determinantes, foram encontradas evidências de que o maior grau de proteção aos acionistas minoritários, o tamanho da empresa e a maior proporção de ativos tangíveis (imobilizados) estão negativamente associados ao prêmio pelo voto.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Este trabalho se dedica a analisar o desempenho de modelos de otimização de carteiras regularizadas, empregando ativos financeiros do mercado brasileiro. Em particular, regularizamos as carteiras através do uso de restrições sobre a norma dos pesos dos ativos, assim como DeMiguel et al. (2009). Adicionalmente, também analisamos o desempenho de carteiras que levam em consideração informações sobre a estrutura de grupos de ativos com características semelhantes, conforme proposto por Fernandes, Rocha e Souza (2011). Enquanto a matriz de covariância empregada nas análises é a estimada através dos dados amostrais, os retornos esperados são obtidos através da otimização reversa da carteira de equilíbrio de mercado proposta por Black e Litterman (1992). A análise empírica fora da amostra para o período entre janeiro de 2010 e outubro de 2014 sinaliza-nos que, em linha com estudos anteriores, a penalização das normas dos pesos pode levar (dependendo da norma escolhida e da intensidade da restrição) a melhores performances em termos de Sharpe e retorno médio, em relação a carteiras obtidas via o modelo tradicional de Markowitz. Além disso, a inclusão de informações sobre os grupos de ativos também pode trazer benefícios ao cálculo de portfolios ótimos, tanto em relação aos métodos tradicionais quanto em relação aos casos sem uso da estrutura de grupos.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Este trabalho busca testar a eficiência do mercado de ações brasileiro através da identificação da existência de post-earnings announcement drift, fenômeno já bastante estudado e reproduzido no mercado norte-americano. Segundo a literatura existente a respeito do assunto, a informação contida na divulgação de resultados de uma firma é relevante para a formação de preço de suas ações. Além disso, os retornos anormais acumulados de ações de firmas que divulgam resultados com “surpresas positivas” possuem tendência positiva por algum tempo após a divulgação do resultado. Por outro lado, os retornos anormais acumulados de ações de empresas que divulgam resultados com “surpresas negativas” possuem tendência negativa por algum tempo após a divulgação do resultado. A identificação de post-earnings announcement drift no mercado acionário brasileiro pode ser de grande utilidade para a estruturação de estratégias de arbitragem e gestão de portfólios. Após uma revisão teórica, o resultado é apresentado e se mostra parcialmente consistente com a literatura existente.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Este trabalho demonstra como podemos usar opções sobre o Índice de Taxa Média de Depósitos Interfinanceiros de Um Dia (IDI) para extrair a função densidade de probabilidade (FDP) para os próximos passos do Comitê de Política Monetária (COPOM). Como a decisão do COPOM tem uma natureza discreta, podemos estimar a FDP usando Mínimo Quadrados Ordinários (MQO). Esta técnica permite incluir restrições sobre as probabilidades estimadas. As probabilidades calculadas usando opções sobre IDI são então comparadas com as probabilidades encontradas usando o Futuro de DI e as probabilidades calculadas através de pesquisas.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

A melhora na situação econômica do Brasil, observada nos últimos anos, resultou em um aumento expressivo no número de IPOs realizados no mercado brasileiro tornando o mecanismo de desinvestimento através do mercado de capitais em uma boa opção para os fundos de Private Equity/Venture Capital, fato que não era visto no período anterior a 2004. No período de janeiro de 2004 a maio de 2007 foi possível notar um fato inédito para o mercado brasileiro, dos 61 IPOs que ocorreram, 26 foram realizados por firmas que tinham um fundo de Private Equity/Venture Capital como acionista. Devido a assimetria de informação, o preço de emissão é tipicamente inferior ao preço de mercado da ação após o IPO, sendo esse “fenômeno” conhecido na literatura como underpricing. Essa dissertação busca examinar o papel de certificação que um fundo de Private Equity/Venture Capital pode exercer nas emissões de ações no Brasil no período de 2004 a maio de 2007, reduzindo assim a assimetria de informação existente, através de uma análise do underpricing dos IPOs de empresas que tem fundos de Private Equity/Venture Capital como acionistas, e de empresas que não tem. Encontramos evidência que sugere que no mercado brasileiro apenas empresas com um bom grau de governança e transparência tem acesso ao Mercado de capitais através de IPOs, tirando, desta forma, a importância do poder de certificação exercido pelos fundos de Private Equity/Venture Capital em reduzir a assimetria de informação existente.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

O presente trabalho trata da importância do modelamento da dinâmica do livro de ordens visando a compreensão dessa microestrutura de mercado. Para tanto, objetiva aplicar as técnicas de modelamento do livro de ofertas utilizando o modelo estocástico proposto por Cont, Stoikov e Talreja (2010) ao mercado acionário brasileiro. Uma vez aplicado o modelo, analisamos os resultados obtidos sob a ótica de outros estudos empíricos, como Bouchaud et al. (2002). Após a estimação e análise dos resultados foram realizadas simulações para constatar se os parâmetros encontrados refletem a dinâmica do mercado local, para diferentes cenários de normalização do tamanho das ordens. Por fim, com a análise dos resultados encontrados, foi possível concluir, com algumas ressalvas, que o modelo proposto é válido para o mercado de ações brasileiro, assim como é apresentado o impacto da liquidez dos ativos na comparação aos parâmetros encontrados em outros mercados internacionais.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

A modelagem da estrutura a termo da taxa juros tem grande relevância para o mercado financeiro, isso se deve ao fato de ser utilizada na precificação de títulos de crédito e derivativos, ser componente fundamental nas políticas econômicas e auxiliar a criação de estratégias trading. A classe de modelos criada por Nelson-Siegel (1987), foi estendida por diversos autores e atualmente é largamente utilizada por diversos bancos centrais ao redor do mundo. Nesse trabalho utilizaremos a extensão proposta por Diebold e Li (2006) aplicada para o mercado brasileiro, os parâmetros serão calibrados através do Filtro de Kalman e do Filtro de Kalman Estendido, sendo que o último método permitirá estimar com dinamismo os quatros parâmetros do modelo. Como mencionado por Durbin e Koopman (2012), as fórmulas envolvidas no filtro de Kalman e em sua versão estendida não impõe condições de dimensão constante do vetor de observações. Partindo desse conceito, a implementação dos filtros foi feita de forma a possibilitar sua aplicação independentemente do número de observações da curva de juros em cada instante de tempo, dispensando a necessidade de interpolar os dados antes da calibração. Isso ajuda a refletir mais fielmente a realidade do mercado e relaxar as hipóteses assumidas ao interpolar previamente para obter vértices fixos. Também será testada uma nova proposta de adaptação do modelo de Nelson-Siegel, nela o parâmetro de nível será condicionado aos títulos terem vencimento antes ou depois da próxima reunião do Copom. O objetivo é comparar qualidade da predição entre os métodos, pontuando quais são as vantagens e desvantagens encontradas em cada um deles.