998 resultados para Mercado financeiro – Modelos econométricos


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho traz interessantes descobertas acerca do comportamento dos preços das ações no mercado acionário brasileiro. Utilizando a metodologia de Haugen e Baker (1996) e seu Modelo de Fator de Retorno Esperado, o estudo mostra que são cinco os fatores determinantes dos preços das ações no mercado brasileiro, considerando o período de janeiro de 1995 a julho de 2003. Dentre os fatores, dois foram obtidos a partir do comportamento dos preços passados das ações, o que evidencia que o mercado não é eficiente nem em sua forma fraca, conforme os conceitos apresentados por Fama (1970). Além disso, fatores como o beta do CAPM e os betas da APT, os principais modelos de precificação de ativos, não foram incluídos entre os fatores determinantes. A aplicação dos fatores determinantes em duas simulações de investimento, uma sem custos de transação e outra com custos de transação, mostrou que o Modelo de Fator de Retorno Esperado possui boa eficiência na previsão dos retornos das ações, sendo capaz de construir, entre 10 carteiras, aquela com maior retorno em relação às demais e, inclusive, em relação ao principal índice de mercado brasileiro, o Ibovespa. A Carteira 1, com melhor retorno esperado, apresentou retorno médio mensal de 1,78% na simulação sem custos de transação e de 0,46% na simulação com custos de transação, ambos superiores ao retorno médio mensal do Ibovespa, de -0,45%. Além da melhor performance, a análise do perfil dos portfolios apontou resultados também relevantes, especialmente no que concerne ao risco das carteiras. A Carteira 1 apresentou a menor volatilidade dos retornos mensais, o menor beta de mercado, bem como mostrou ser formada por ações de empresas com o menor grau de endividamento do patrimônio líquido.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este estudo testa a hipótese de contágio entre setores da economia dos Estados Unidos e do Brasil durante a crise do Subprime. A metodologia econométrica baseia-se em modelos de correlações condicionais dinâmicas e na aplicação de testes LM robustos para testar a presença de quebras estruturais na estrutura de dependência das séries. Eventos considerados relevantes para o desfecho da crise do Subprime, assim como interações entre momentos das próprias séries foram utilizados para identi car as quebras de interesse. A principal conclusão deste trabalho é que houve contágio relacionado a praticamente todos os indicadores entre os setores dos Estados Unidos. O mesmo não ocorreu no Brasil, onde apenas alguns eventos específicos pareceram responsáveis por mudanças nas relações de dependência entre os setores.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este ensaio apresenta um estudo sobre a demanda por serviço de saúde no mercado de saúde suplementar utilizando, através de uma análise econométrica, modelos de regressão de dados de contagem para verificar os fatores monetários e não monetários que podem influenciar a quantidade demandada por este serviço, e determinar se há risco moral na determinação desta demanda, no caso de um modelo de visitas médicas de especialidade.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O presente estudo investiga a existência de contágio financeiro entre os países do G20, com base em uma análise sobre os retornos dos principais índices de ações, abrangendo o período de 2000 a 2012. A abordagem utilizada consiste na utilização de modelos multivariados de volatilidade da família DCC-GARCH, na versão proposta por Engle e Sheppard (2001). Com base nos testes efetuados, conclui-se que houve mudanças estruturais nas séries analisadas em praticamente todos os 14 países analisados, sendo que os resultados obtidos demonstram evidências favoráveis para a hipótese de contágio financeiro entre países do G20. Verificou-se também que dentre as diversas crises financeiras ocorridas durante o período analisado, a Crise do Subprime destaca-se das demais crises, devido a sua magnitude e velocidade com que se propagou, afetando tanto países desenvolvidos como países emergentes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Apesar de seu uso amplo no mercado financeiro para modelagem dos preços de ações, o modelo de Black Scholes, assim como os demais modelos de difusão, possui por hipótese limitações que não permitem a ele capturar alguns comportamentos típicos desse mercado. Visto isso, diversos autores propuseram que os preços das ações seguem modelos de saltos puros sendo sua modelagem estruturada por um processo de Lévy. Nesse contexto, este trabalho visa apresentar um estudo sobre a precificação de opções do utilizando um modelo desenvolvido por Madan e Seneta (1990) que se baseia no processo de saltos puros conhecido como variância gama (VG). Utilizando como base dados as cotações históricas diárias de ações e opções do mercado brasileiro, além do comportamento da clássica curva ‘smile’ de volatilidade, o trabalho apresenta as curvas de tendência e taxa de variância presentes no modelo de variância gama. Juntos essas três curvas podem ser utilizadas como ferramentas para explicar melhor o comportamento dos preços dos ativos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Value at Risk (VaR) e Expected Shortfall (ES) são modelos quantitativos para mensuração do risco de mercado em carteiras de ativos financeiros. O propósito deste trabalho é avaliar os resultados de tais modelos para ativos negociados no mercado brasileiro através de quatro metodologias de backtesting - Basel Traffic Light Test, Teste de Kupiec, Teste de Christoffersen e Teste de McNeil e Frey abrangendo períodos de crise financeira doméstica (2002) e internacional (2008). O modelo de VaR aqui apresentado utilizou duas abordagens Paramétrica Normal, onde se assume que a distribuição dos retornos dos ativos segue uma Normal, e Simulação Histórica, onde não há hipótese a respeito da distribuição dos retornos dos ativos, porém assume-se que os mesmos são independentes e identicamente distribuídos. Também foram avaliados os resultados do VaR com a expansão de Cornish-Fisher, a qual visa aproximar a distribuição empírica a uma distribuição Normal utilizando os valores de curtose e assimetria para tal. Outra característica observada foi a propriedade de coerência, a qual avalia se a medida de risco obedece a quatro axiomas básicos monotonicidade, invariância sob translações, homogeneidade e subaditividade. O VaR não é considerado uma medida de risco coerente, pois não apresenta a característica de subaditividade em todos os casos. Por outro lado o ES obedece aos quatro axiomas, considerado assim uma medida coerente. O modelo de ES foi avaliado segundo a abordagem Paramétrica Normal. Neste trabalho também se verificou através dos backtests, o quanto a propriedade de coerência de uma medida de risco melhora sua precisão.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho se propõe a avaliar a existência de ciclos de margem de subscrição no mercado segurador brasileiro para os grupos de ramos de automóvel, patrimonial, responsabilidade civil e transportes a partir de dados da SUSEP. É feita uma introdução em seguros, uma revisão dos artigos que foram realizados no mundo sobre o assunto assim como os estudos discorrendo sobre as possíveis causas para a existência destes ciclos. Em seguida são apresentadas as técnicas econométricas de séries de tempo estruturais e o teste HEGY utilizadas para a verificação dessa hipótese. Foram encontrados ciclos nos grupos de ramos de automóveis, patrimoniais e transportes e não encontramos evidências de ciclos para responsabilidade civil e nem para o agregado de ramos. Os resultados desse estudo sobre a existência, ou não dos ciclos, assim como sua duração considerando as particularidades de cada tipo de ramo, periodicidade das séries e utilização ou não da despesa de comercialização foram analisados para cada grupo de ramos, considerando suas particularidades. Finalmente se fez um comparativo dos resultados obtidos nesse estudo com o que está na literatura para diversos outros mercados de seguros de outros países.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Neste trabalho, estudamos a literatura de mercado interbancário e como um banco central pode melhorar o seu funcionamento. Criamos um framework que pudesse acomodar os diferentes modelos de mercado interbancário e intervenção do banco central criados a partir de Bryant (1980) e Diamond and Dybvig (1983). Com isso mostramos que, em grande parte dos casos, os bancos com acesso ao mercado interbancário são incapazes de prover a alocação eficiente para os seus consumidores. Nesse ambiente, encontramos uma função para um banco central que, ao intervir no mercado interbancário, é capaz de induzir os bancos a oferecerem as mesmas alocações que seriam providas por um planejador central, ou seja, alocações eficientes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Trato do problema da assimetria de informação no mercado de crédito e do uso da informação externa como forma de minimizar esse efeito negativo. Descreve os modelos teóricos de troca de informação na presença de Bureaus de crédito e aborda o mercado brasileiro de crédito, conduzindo avaliações qualitativas e quantitativas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Essa dissertação tem como objetivo a modelagem, implementação e a simulação de um mercado de leilão duplo artificial utilizando a abordagem multiagente. Mercado de leilão duplo permite que ofertas de compra e de venda possam ser feitas a qualquer momento e de forma contínua. As bolsas de Nova Iorque (NYSE) e de Chicago (CME) são exemplos deste tipo de leilão. Mercados artificiais são modelos que têm o objetivo de capturar as propriedades dos mercados reais para reproduzir e analisar a dinâmica do mercado através de experimentos computacionais. Assim como no mercado real, o modelo propõe que os agentes interagem entre si assincronamente em sessões de negociações contínuos. Estas últimas características do modelo são viabilizadas através do uso de técnicas e arcabouços tecnológicos que são atualmente utilizados nos mercados reais. Neste trabalho, são investigados os comportamentos do mercado artificial para diferentes grupos de agentes e parâmetros. Ao longo dos experimentos foram constatados que o volume de negociação e a volatilidade dos preços, por exemplo, são diretamente proporcionais ao orçamento dos agentes. Também foram identificados alguns fatos estilizados nas séries de preços geradas a partir do mercado artificial.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Desde a adoção do sistema de câmbio flutuante pelo Banco Central do Brasil, tanto a autoridade monetária quanto o governo brasileiro têm instituído medidas convencionais e não convencionais de intervenção no mercado de câmbio. Dentre essas medidas, salientam-se as compras e vendas de dólares no mercado de spot e derivativos, cujas finalidades precípuas seriam a tentativa de estabilizar os mercados em situação de “stress” e suavizar uma determinada tendência de valorização ou desvalorização da moeda brasileira. O presente trabalho analisa os efeitos de referidas intervenções sobre a volatilidade na moeda brasileira. Utilizamos modelos econométricos da família ARCH (Autoregressive Conditional Heteroskedasticity) com o intuito de se averiguar o efeito sobre a volatilidade de curto e longo prazo, inclusive com metodologias semelhantes às empregadas em trabalhos direcionados a outras economias emergentes. Com o propósito de se estudar o efeito sinalizador das intervenções, foram utilizadas regressões simples com dados de volatilidade implícita e risk reversal do mercado de opções do dólar/real. Concluiu-se pela não relevância dos efeitos das intervenções sobre o nível da taxa de câmbio. No que concerne às volatilidades de curto e longo prazo, verificou-se que as vendas de dólares aumentam ambas as volatilidades, porém, quanto às compras, estas não apresentaram significância. No que se refere aos efeitos sinalizadores, via volatilidade implícita e risk reversal, estes também não expuseram relevância. Enfim, o que talvez possa consistir em fundamento para a não relevância dessas intervenções é o fato de o Brasil se consubstanciar em uma economia emergente e com menor credibilidade na condução de suas políticas monetárias.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Com o objetivo de analisar o impacto na Estrutura a Termos de Volatilidade (ETV) das taxas de juros utilizando dois diferentes modelos na estimação da Estrutura a Termo das Taxas de Juros (ETTJ) e a suposição em relação a estrutura heterocedástica dos erros (MQO e MQG ponderado pela duration), a técnica procede em estimar a ETV utilizando-se da volatilidade histórica por desvio padrão e pelo modelo auto-regressivo Exponentially Weighted Moving Average (EWMA). Por meio do teste de backtesting proposto por Kupiec para o VaR paramétrico obtido com as volatilidades das ETV´s estimadas, concluí-se que há uma grande diferença na aderência que dependem da combinação dos modelos utilizados para as ETV´s. Além disso, há diferenças estatisticamente significantes entre as ETV´s estimadas em todo os pontos da curva, particularmente maiores no curto prazo (até 1 ano) e nos prazos mais longos (acima de 10 anos).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The onset of the financial crisis in 2008 and the European sovereign crisis in 2010 renewed the interest of macroeconomists on the role played by credit in business cycle fluctuations. The purpose of the present work is to present empirical evidence on the monetary policy transmission mechanism in Brazil with a special eye on the role played by the credit channel, using different econometric techniques. It is comprised by three articles. The first one presents a review of the literature of financial frictions, with a focus on the overlaps between credit activity and the monetary policy. It highlights how the sharp disruptions in the financial markets spurred central banks in developed and emerging nations to deploy of a broad set of non conventional tools to overcome the damage on financial intermediation. A chapter is dedicated to the challenge face by the policymaking in emerging markets and Brazil in particular in the highly integrated global capital market. This second article investigates the implications of the credit channel of the monetary policy transmission mechanism in the case of Brazil, using a structural FAVAR (SFAVAR) approach. The term “structural” comes from the estimation strategy, which generates factors that have a clear economic interpretation. The results show that unexpected shocks in the proxies for the external finance premium and the credit volume produce large and persistent fluctuations in inflation and economic activity accounting for more than 30% of the error forecast variance of the latter in a three-year horizon. Counterfactual simulations demonstrate that the credit channel amplified the economic contraction in Brazil during the acute phase of the global financial crisis in the last quarter of 2008, thus gave an important impulse to the recovery period that followed. In the third articles, I make use of Bayesian estimation of a classical neo-Keynesian DSGE model, incorporating the financial accelerator channel developed by Bernanke, Gertler and Gilchrist (1999). The results present evidences in line to those already seen in the previous article: disturbances on the external finance premium represented here by credit spreads trigger significant responses on the aggregate demand and inflation and monetary policy shocks are amplified by the financial accelerator mechanism. Keywords: Macroeconomics, Monetary Policy, Credit Channel, Financial Accelerator, FAVAR, DSGE, Bayesian Econometrics

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esse trabalho tem como objetivo investigar a relação entre três múltiplos específicos (Preço/Lucro, Preço/Valor Patrimonial e Preço/Vendas) e seus determinantes (crescimento, payout ratio, risco, ROE e margem líquida), de acordo com a teoria apresentada por Aswath Damodaran. Para verificar essas relações, foram utilizadas duas metodologias econométricas distintas: A Regressão Linear Múltipla e o Modelo de Dados em Painel. Os dados coletados são referentes às empresas listadas no índice de ações da Bolsa de Valores de São Paulo iBOVESPA. Os resultados apurados por ambos os métodos não foram os mesmos verificados na teoria, pois alguns dos determinantes não apresentaram o comportamento esperado, e também não foram estatisticamente significantes. A principal contribuição desse trabalho é a utilização da metodologia de Dados em Painel para obter os resultados.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O objetivo deste estudo é propor a implementação de um modelo estatístico para cálculo da volatilidade, não difundido na literatura brasileira, o modelo de escala local (LSM), apresentando suas vantagens e desvantagens em relação aos modelos habitualmente utilizados para mensuração de risco. Para estimação dos parâmetros serão usadas as cotações diárias do Ibovespa, no período de janeiro de 2009 a dezembro de 2014, e para a aferição da acurácia empírica dos modelos serão realizados testes fora da amostra, comparando os VaR obtidos para o período de janeiro a dezembro de 2014. Foram introduzidas variáveis explicativas na tentativa de aprimorar os modelos e optou-se pelo correspondente americano do Ibovespa, o índice Dow Jones, por ter apresentado propriedades como: alta correlação, causalidade no sentido de Granger, e razão de log-verossimilhança significativa. Uma das inovações do modelo de escala local é não utilizar diretamente a variância, mas sim a sua recíproca, chamada de “precisão” da série, que segue uma espécie de passeio aleatório multiplicativo. O LSM captou todos os fatos estilizados das séries financeiras, e os resultados foram favoráveis a sua utilização, logo, o modelo torna-se uma alternativa de especificação eficiente e parcimoniosa para estimar e prever volatilidade, na medida em que possui apenas um parâmetro a ser estimado, o que representa uma mudança de paradigma em relação aos modelos de heterocedasticidade condicional.