983 resultados para Hipótese do mercado eficiente


Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo desse trabalho é avaliar a capacidade de previsão do mercado sobre a volatilidade futura a partir das informações obtidas nas opções de Petrobras e Vale, além de fazer uma comparação com modelos do tipo GARCH e EWMA. Estudos semelhantes foram realizados no mercado de ações americano: Seja com uma cesta de ações selecionadas ou com relação ao índice S&P 100, as conclusões foram diversas. Se Canina e Figlewski (1993) a “volatilidade implícita tem virtualmente nenhuma correlação com a volatilidade futura”, Christensen e Prabhala (1998) concluem que a volatilidade implícita é um bom preditor da volatilidade futura. No mercado brasileiro, Andrade e Tabak (2001) utilizam opções de dólar para estudar o conteúdo da informação no mercado de opções. Além disso, comparam o poder de previsão da volatilidade implícita com modelos de média móvel e do tipo GARCH. Os autores concluem que a volatilidade implícita é um estimador viesado da volatilidade futura mas de desempenho superior se comparada com modelos estatísticos. Gabe e Portugal (2003) comparam a volatilidade implícita das opções de Telemar (TNLP4) com modelos estatísticos do tipo GARCH. Nesse caso, volatilidade implícita tambem é um estimador viesado, mas os modelos estatísticos além de serem bons preditores, não apresentaram viés. Os dados desse trabalho foram obtidos ao longo de 2008 e início de 2009, optando-se por observações intradiárias das volatilidades implícitas das opções “no dinheiro” de Petrobrás e Vale dos dois primeiros vencimentos. A volatidade implícita observada no mercado para ambos os ativos contém informação relevante sobre a volatilidade futura, mas da mesma forma que em estudos anteriores, mostou-se viesada. No caso específico de Petrobrás, o modelo GARCH se mostrou um previsor eficiente da volatilidade futura

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Trata da avaliação do desempenho de modelos alternativos de precificação de ações no mercado de capitais brasileiro. Testamos modelos de risco uni e multifatorial e um modelo comportamental baseado em características.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A presente dissertação analisa o erro de projeção dos analistas de investimentos do sell side, definido como a diferença entre o consenso das projeções dos analistas e o resultado reportado pela empresa. O tamanho do erro de projeção é uma medida da qualidade das projeções dos analistas de um determinado mercado de capitais. Uma vasta literatura acadêmica mostra que uma melhora na qualidade das projeções dos analistas, medida através de uma diminuição do tamanho do erro de projeção, está relacionada com a redução da assimetria de informação e com um aumento do valor de mercado das empresas. São testadas duas regressões, nas quais características das empresas, como setor, tamanho, endividamento e variabilidade do lucro, e características do ambiente de informação da empresa, como listagem de ADR, número de analistas que acompanham a empresa e convergência das projeções, são testadas contra duas métricas do erro de projeção, acurácia e viés. Nossas hipóteses são que existem fatores que influenciam de maneira significativa o tamanho do erro de projeção (acurácia) e o viés das projeções (viés). Estas hipóteses foram confirmadas, isto é, nossas regressões apresentaram pelo menos um fator que se mostrou significativo estatisticamente para influenciar o tamanho do erro de projeção (hipóteses H1 e H2) ou o seu viés (hipótese H3). Entretanto, os resultados mostram que vários fatores que se mostram significativos em testes conduzidos em mercados desenvolvidos – tais como tamanho, endividamento e variabilidade do lucro – não se mostraram significativos no mercado brasileiro. Por outro lado, os fatores relacionados com o resultado do ano projetado ou do ano anterior se mostraram fortemente significativos. Acreditamos que os resultados podem ser explicados de três maneiras: 1) ou a capacidade de adicionar valor dos analistas em relação a modelos estatísticos de projeção é muito pequena, devido à sua falta de habilidade; ou 2) a instabilidade macroeconômica é tão grande domina todos os outros fatores que poderiam influenciar o tamanho do erro de projeção; ou 3) os resultados das empresas nos mercados desenvolvidos são tão administrados, isto é, tão estáveis, que permitem que fatores mais sutis como o tamanho, o nível de endividamento e a variabilidade do lucro se tornem significativos. Esta dissertação não permite distinguir qual das explicações é a correta. Uma de suas limitações é não incluir variáveis referentes à habilidade e experiência dos analistas e, também, variáveis relacionadas a fatores como governança corporativa e disclosure de informações. Em uma linha de pesquisa muito extensa nos países desenvolvidos, mas praticamente inexistente no Brasil, esperamos que estudos futuros supram estas lacunas e nos permitam entender melhor a questão da qualidade das projeções de resultados no contexto brasileiro.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta tese analisou a cadeia da carne bovina no Brasil com o objetivo de identificar a existência de assimetrias nas relações comerciais entre seus agentes (pecuaristas, frigoríficos e supermercados). Foram investigadas duas formas de assimetria: a diferença de conteúdo informacional entre os agentes econômicos, no mercado futuro de boi gordo da BM&F e a possibilidade de exercício de poderes de mercado e de barganha nas relações comerciais dentro dessa cadeia. A análise de poder de mercado baseou-se na estrutura analítica de Crespi, Gao e Peterson (2005), e permitiu inferir que existe poder de mercado na aquisição de bois pelos frigoríficos, o que vai ao encontro dos resultados observados em outros oligopólios de estrutura caracterizada por um mercado pulverizado na ponta fornecedora e por um processo local, isto é, na própria região, de escoamento da produção. Implementou-se uma análise complementar sobre a estrutura de formação do preço do boi, na qual identificou-se que São Paulo é a região formadora dos preços. A relação entre frigoríficos e supermercados foi analisada através do modelo momentum threshold autoregression (M-TAR) e observou-se que os supermercados apropriam-se das reduções observada no preço do atacado e repassam ao varejo eventuais aumentos de preços no atacado. Portanto, é possível concluir que os supermercados têm poder de barganha junto aos frigoríficos, o que era esperado, pelo fato de esses estabelecimentos adquirirem volumes significativos e se posicionarem como principais canais de distribuição da carne. E, por fim, verificou-se a existência de assimetrias informacionais entre os participantes do mercado futuro de boi gordo da BM&F, mensurada por meio de uma análise sobre a relação entre a volatilidade dos preços futuros e as posições por tipo de participante. Os resultados encontrados corroboraram a hipótese de que os frigoríficos têm mais informação, no mercado futuro, que os demais agentes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A relação entre estrutura de mercado e inovação tecnológica é um tema amplamente discutido, mas não existe concordância entre os autores que a estudam. Um dos aspectos que tornam o entendimento desta relação importante é seu possível impacto na praxis da política antitruste, já que esta assume que a concorrência perfeita é a estrutura de mercado que maximiza o bem-estar. Esta dissertação investiga o impacto da concentração de mercado (HHI) nos gastos em atividades inovativas para o caso dos setores industriais brasileiros através de uma análise de dados em painel. A partir de informações sobre os gastos em diferentes atividades inovativas e de características da indústria testa-se a hipótese de que a concorrência influencia os gastos em P&D internos às firmas na forma de um U invertido, como prevêem Scherer e Ross (1989) e Aghion et al. (2002). Os principais resultados encontrados indicam que essa relação em U invertido realmente existe e que o índice de concentração que maximiza os gastos em P&D interno é, em torno de, 0,30 de HHI. Apesar disso, quando efeitos específicos da indústria são controlados, o poder de explicação do HHI decai. Um segundo resultado importante é que quando se examina as atividades inovativas com menor risco associado, como capacitação tecnológica, a relação entre concentração e gastos inovativos é negativa.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho tem por objetivo avaliar a eficiência do mercado acionário brasileiro a partir de testes estatísticos, para posterior modelagem das séries de retorno das ações, utilizando os modelos ARMA, ARCH, GARCH, Modelo de Decomposição e, por final, VAR. Para este trabalho foram coletados dados intradiários, que são considerados dados de alta freqüência e menos suscetíveis a possíveis alterações na estrutura de mercado, tanto micro como macroeconômicos. Optou-se por trabalhar com dados coletados a cada cinco minutos, devido à baixa liquidez dos ativos no mercado financeiro (que poderia acarretar em dados ausentes para intervalos de tempo inferiores). As séries escolhidas foram: Petrobrás PN, Gerdau PN, Bradesco PN, Vale do Rio Doce PN e o índice Ibovespa, que apresentam grande representatividade do mercado acionário brasileiro para o período analisado. Com base no teste de Dickey-Fuller, verificou-se indícios que o mercado acionário brasileiro possa ser eficiente e, assim foi proposto modelos para as séries de retorno das ações anteriormente citadas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A presente dissertação tem como objeto de estudo a superfície de volatilidade implícita de opções européias da paridade Real / Dólar no mercado brasileiro. Este trabalho não tenta explicar as deformações ou os desvios da volatilidade implícita com relação à hipótese de volatilidade constante do modelo de Black & Scholes (1973), mas trata a volatilidade implícita como uma variável financeira interessante por si só, procurando analisar a dinâmica de sua superfície. Para a análise desta superfície, o presente estudo propõe a utilização de uma ferramenta empregada em estudos empíricos de diversos ramos da ciência: a Análise de Componentes Principais – ACP (Principal Component Analysis). As mudanças na superfície de volatilidade alteram o apreçamento das opções de uma carteira. Desta forma, constituem um fator de risco que precisa ser estudado e entendido para o desenvolvimento de estratégias de imunização e de técnicas de gerenciamento de risco, dentre elas o cálculo de Valor em Risco (V@R – Value at Risk). De posse dos resultados obtidos com a análise de componentes principais da superfície de volatilidade implícita, o presente estudo tem por objetivo obter valores limite de variação desta volatilidade implícita, como forma de estimar as conseqüentes variações extremas nos valores de uma carteira de opções. Para tanto, baseia-se em estudos sobre a aplicação da análise de componentes principais da superfície de volatilidade implícita desenvolvidos por Alexander (2001). Estes estudos, por sua vez, são derivados de estudo sobre a dinâmica de curvas de volatilidade proposto por Derman (1999). Para se verificar a eficiência da metodologia proposta, os valores extremos obtidos são testados de acordo com os critérios de teste retroativo propostos pela emenda ao comitê da Basiléia de 1996.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta dissertação analisa o desempenho e as características de uma parte dos atuais fundos de fundos brasileiros, os denominados multigestores, bem como o desempenho de fundos de fundos resultantes da simulação de carteiras de fundos brasileiros que utilizam várias estratégias de investimentos, conhecidos como multimercados. A diversificação através de uma carteira de fundos multimercados envolve outras variáveis além da tradicional abordagem de média-variância. A primeira parte do estudo apresenta as principais características dos fundos de fundos selecionados e descreve, além da média e variância, o terceiro e quarto momentos das distribuições dos retornos. A segunda parte utiliza a ferramenta chamada Análise de Estilo (Sharpe, 1988), para determinar a exposição dos retornos de cada um dos fundos de fundos da amostra a determinadas classes de ativos. Neste trabalho foram escolhidas as seguintes classes de ativos: Ibovespa, CDI, Dólar e IRF-M. Através da abordagem de média-variância, a terceira parte do estudo utiliza a ferramenta conhecida na Teoria da Carteira (Markowitz, 1952) como fronteira de mínima variância, para avaliar o desempenho de cada um dos fundos de fundos da amostra. O desempenho é avaliado com base na comparação da fronteira de mínima variância construída a partir de uma carteira de referência (composta por dois dos principais ativos financeiros brasileiros de baixo e alto risco: CDI e Ibovespa, respectivamente) com outra fronteira de mínima variância construída a partir do acréscimo de um fundo de fundos à carteira de referência. A última parte refere-se a simulações de carteiras de fundos multimercados que permitem a alocação de renda variável na carteira e também permitem o uso de alavancagem. Seu objetivo é verificar, através dos valores de retorno médio, variância, assimetria e curtose, a eficiência desses fundos como instrumentos de diversificação. Os resultados mostram que os 32 fundos de fundos multigestores analisados não tem distribuição normal de retornos e 29 apresentam assimetria negativa. A Análise de Estilo indica grande sensibilidade ao CDI e ao IRF-M, e pouca sensibilidade ao Ibovespa e Dólar, importantes índices do mercado financeiro. A maioria dos fundos de fundos multigestores melhorou a Fronteira Eficiente quando adicionados a uma carteira de referência (CDI + Ibovespa), ou seja, houve uma redução na relação risco-retorno. A simulação das carteiras indica que nos últimos três anos os fundos multimercados classificados como Com Renda Variável Com Alavancagem tem sido mais agressivos nas estratégias, devido ao comportamento da assimetria, porém o comportamento da curtose indica também uma posição nem tão agressiva. Logo, a construção de carteiras com fundos que utilizam diversas estratégias de investimentos não deve se restringir à abordagem de média-variância. Deve também envolver também assimetria, curtose e preferências do investidor.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A principal contribuição deste estudo consiste em incluir o risco de liquidez entre os fatores que influenciam o apreçamento dos títulos de renda fixa corporativos brasileiros. Ao longo do trabalho mostramos que, muito embora intuitivamente o preço de uma determinada debênture deva ser uma função das suas características (prazo, rating, garantias, etc), o risco de crédito (risco de inadimplemento do emissor) e o risco de liquidez (risco de não conseguir montar ou se desfazer de uma posição a qualquer momento no preço do mercado) são os dois fatores que melhor definem os riscos envolvidos ao se emitir/comprar uma debênture. O risco de crédito tem sido o foco dos esforços para modelar o preço de um título de renda fixa, principalmente por causa do interesse dos bancos em marcar suas posições de crédito. No entanto, o que se propõe neste trabalho é incorporar o prêmio de liquidez inerente às debêntures distribuídas aos investidores nesses modelos, como um meio de melhor apreçar esses títulos. A tentativa de comprovação dessa hipótese foi feita acompanhando-se os preços indicativos no mercado secundário de debêntures, contrapondo-os aos preços obtidos via modelo de crédito e via modelo de crédito acrescido de modelo de liquidez. Os modelos adotados foram os que possuem características mais adaptáveis ao mercado brasileiro e/ou que fossem de mais simples implementação dadas as restrições brasileiras no que diz respeito à base de dados necessária para a aplicação de cada modelo. No caso do modelo de crédito, após uma revisão detalhada, adotou-se o modelo sugerido por MERTON (1974). Para o modelo do risco de liquidez, o modelo adotado foi o do VaR modificado para contemplar o spread de liquidez. Os resultados obtidos, embora não indiquem que o modelo proposto é eficiente no apreçamento de debêntures, apontam para uma comprovação da hipótese inicial, ou seja, que a inclusão do risco de liquidez nos modelos de apreçamento de crédito aumentam o poder explicativo do modelo de apreçamento resultante e que, portanto, esse seria uma ferramenta importante na análise do mercado de debêntures brasileiro.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo desse trabalho é analisar e precificar o prêmio de liquidez exigido pelos investidores nas negociações de debêntures do mercado secundário brasileiro, com base no yield to maturity diário desses papéis. Os testes econométricos foram realizados com base no modelo apresentado por Houweling, Mentink e Vorst (2005) e aplicado ao mercado de eurobonds nos períodos de 1999 a 2001. Foi implementado um modelo de 5 variáveis para controlar, através de betas e características, os outros tipos de risco determinantes do spread das debêntures que não a liquidez. O conhecido modelo de títulos de renda fixa de dois fatores Fama-French (1993) foi utilizado para controlar os riscos de crédito e de taxas de juros, foram incorporados efeitos marginais, através das características individuais (rating e duration) das debêntures e uma adaptação para as particularidades do mercado brasileiro foi realizada, com a inclusão de um fator baseado na taxa PréxDI da duration dos portfólios. Para esse estudo, foram consideradas 4 proxies de liquidez largamente utilizadas na literatura: Volume de Emissão, Idade da Emissão, Número de Transações no dia e Spread de Compra e Venda, sendo o modelo estimado uma vez para cada proxy analisada. Para realizar os testes de regressão e precificar o prêmio de liquidez no mercado secundário de debêntures do Brasil, todas as variáveis do modelo foram calculadas para cada uma das amostras de dados. Posteriormente, para cada proxy de liquidez foram construídos diariamente portfólios mutuamente excludentes, com as debêntures segregadas em portfólios de acordo com a proxy de liquidez em questão, conforme a metodologia proposta por Brennan e Subrahmanyam (1996). A base de dados, que somou 16.083 amostras, se fundamentou nas cotações de mercado fornecidas diariamente pelo Sistema Nacional de Debêntures no período de Maio de 2004 a Novembro de 2006. A hipótese nula de que não existe prêmio de liquidez embutido nos spreads das debêntures negociadas no mercado secundário brasileiro é rejeitada para todas as proxies analisadas. De acordo com a proxy de liquidez utilizada, o prêmio de liquidez no mercado secundário de debêntures varia de 8 a 30 basis points.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A reforma do Poder Judiciário revela um cenário de insatisfação com o serviço de prestação da tutela jurisdicional. Dentre várias possíveis incursões busca-se com a presente dissertação sustentar que a aplicação de método organizacional de registro das rotinas de trabalho em fluxograma tem potencial elevado para gerar relevante melhoria no tempo de duração do processo. Procedeu-se a explicação de como funciona a técnica de construção de fluxograma, bem como suas vantagens como método organizacional do processo de trabalho a fim de que o leitor tenha condições de bem compreender os trechos de fluxograma construídos. A fim de justificar o potencial do método com fluxogramas também foi realizada exploração de conhecimentos científicos sobre o funcionamento do cérebro humano, fazendo-se demonstração de que a linguagem simbólica do fluxograma melhor atende ao sistema de processamento de informações do cérebro e demonstrando quanto do atual sistema de comunicação tem limitado a evolução do trabalho nas atividades judiciárias e quanta melhoria pode o sistema proposto gerar. Em virtude do alto nível de detalhamento do fluxograma não é possível consolidá-lo numa página de livro, razão pela qual o fluxograma foi desmembrado em pequenos trechos para ser apresentado e explicado. O método desenvolvido foi aplicado na realidade diária de um Juizado Especial Cível durante quatro anos, desde a análise do sistema até as execuções e revisões finais das rotinas de trabalho criadas e registradas em fluxograma. Os resultados confirmaram a hipótese construída, vez que houve redução do tempo de trâmite processual, diminuição do número de processos, multiplicação da força de trabalho, dispensa de grandes esforços no treinamento de servidores e aumento de qualidade na realização de cada rotina de trabalho, sem que houvesse necessidade de investimentos financeiros com contratação de mão de obra ou aquisição de equipamentos. Fica evidente que o uso de fluxograma na gestão de uma unidade judiciária será tão importante para o planejamento quanto para uma execução eficiente e eficaz do serviço de prestação jurisdicional.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nos últimos anos, a expansão do consumo de açúcar e, principalmente, etanol, tem feito com que a área cultivada com cana-de-açúcar cresça em um ritmo bastante acelerado. A utilização de herbicidas nas áreas de cana é uma importante ferramenta no combate a plantas daninhas, reduzindo as perdas de produtividade de maneira eficiente e economicamente viável. O objetivo do presente trabalho foi estudar o comportamento do uso de herbicidas mediante a expansão da cultura, buscando (i) avaliar a evolução do mercado de herbicidas na cultura, considerando os níveis de adoção, área tratada, tamanho do mercado em valor e principais plantas controladas; (ii) analisar a evolução dos custos por hectare com herbicidas; (iii) identificar os principais mecanismos de ação dos produtos utilizados, e (iv) avaliar se houve aumento no volume de produtos aplicados por hectare. Para isso, foram utilizados dados de pesquisas de mercado realizadas entre os anos de 2004 e 2009 junto a usinas de açúcar e álcool. As informações foram coletadas através de questionários estruturados e tratadas estatisticamente para se chegar ao mercado real extrapolado. Desse estudo, pôde-se concluir que houve aumento na área de cana tratada com herbicida e do mercado em valor, crescimento esse fundamentado na ampliação da área de produção, uma vez que a taxa de adoção sofreu leve aumento; Já o custo por hectare, após alguns anos de estabilidade, sofreu redução na última safra; Em relação aos mecanismos de ação, o principal grupo utilizado é o dos inibidores da fotossíntese II. Entretanto, proporcionalmente, os segmentos que apresentaram maior aumento na participação de mercado foram os grupos inibidores da síntese de caroteno, inibidores da PROTOX e inibidores da divisão celular. O único grupo que sofreu decréscimo em termos de área aplicada foi o dos inibidores da fotossíntese I; Mesmo com o aumento no volume total de produtos utilizados, não é possível afirmar que há tendência de aumento ou redução na quantidade aplicada por hectare.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A tese tem como objetivo discutir a liquidez do mercado secundário de títulos da dívida pública no Brasil. Em três ensaios, defende que problemas de organização do mercado prejudicam a ampliação da liquidez e que a formação de preços nesse mercado acompanha as taxas do mercado futuro de depósitos interfinanceiros – DI futuro, e não o contrário, como esperado, já que a presença de títulos de elevada liquidez no mercado à vista é que deveria desenvolver o mercado futuro. O primeiro ensaio mede e estima os determinantes do bid-ask spread cotado (indicador de liquidez) para cada vértice de taxa de juros, tendo como referência os vencimentos dos títulos pré-fixados em cabeça de semestre: LTNs (LTN-13 e LTN-11) e NTNFs- (NTNF-17, NTNF-14). Mercados com menores spreads são mais líquidos, mercados com spreads maiores são menos líquidos. Os modelos empíricos foram estimados por meio de análises de séries de tempo. O trabalho utiliza o cálculo do bid-ask cotado para medir a liquidez dos títulos em análise, medido pela diferença entre o ask price e o bid price de fechamento do mercado. A estimação dos determinantes da liquidez de mercado foi realizada com base no método dos mínimos quadrados ordinários (MQO). O modelo testa se maturidade e volume de negócio determinam o bid-ask spread dos títulos. Mercados com menores spreads são mais líquidos do que mercados com maiores spreads. Os resultados mostram que a mediana e a média do bid-ask spread cotado crescem com a maturidade dos títulos. Os sinais dos parâmetros das regressões confirmam para a maioria dos vértices dos vértices analisados neste trabalho a hipótese inicial de que o bid-ask spread aumenta com a elevação maturidade e diminui com maior volume negociado, confirmando a hipótese de baixa liquidez dos títulos públicos no mercado secundário brasileiro. O segundo ensaio analisa uma singularidade relevante do mercado brasileiro: a dependência da formação dos preços e da taxa de juros no mercado secundário de títulos públicos (LTN e NTNF) em relação ao DI futuro. As variáveis utilizadas foram o bid-ask spread cotado e o volume negociado no mercado de títulos públicos e de DI futuro. O ensaio utiliza tanto o método de Granger (1969), que tem como suposto que as informações relevantes para a previsão das variáveis estão contidas exclusivamente nos dados das séries temporais destas mesmas variáveis, quanto o modelo de Geweke (1982) para testar a causalidade, simultaneidade e dependência linear entre as duas séries no tempo. Os resultados confirmam a hipótese inicial de que bid-ask spread e volume de títulos públicos possuem forte dependência do bid-ask spread e do volume para contratos de DI futuro de mesmo vencimento, dependência devida à causalidade do mercado de DI futuro para o mercado de títulos públicos para a maioria dos vértices analisados nesse trabalho, indicando que a taxa CDI é benchmark para a precificação dos títulos públicos. Uma possível explicação está nos fatores de microestrutura, que fazem com que esse mercado seja o mais conveniente para negociar risco de liquidez e de mercado. O terceiro ensaio discute as implicações do desenho institucional sobre a liquidez do mercado secundário de títulos públicos - mecanismos e regras de negociação, desenho dos títulos e base de investidores. Essas regras afetam a formação dos preços no mercado, definem as trocas, a dimensão da assimetria de informação e os custos de transação e do processo de negociação. Pela sua relevância, a organização do mercado de títulos públicos tem sido objeto de reformas em diversos países. O terceiro ensaio é finalizado com a análise das medidas adotadas no Brasil e de seus resultados.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho busca avaliar a existência de cointegração das ações do mercado brasileiro e a forma de utilização da estratégia de arbitragem estatística pelos gestores. Para isso, utilizou-se preços de ações brasileiras em diferentes frequências e janelas e aplicou-se a metodologia de Johansen e Cavaliere, cuja hipótese nula refere-se a não cointegração dos pares. Os resultados mostram que há poucas relações de cointegração entre as séries analisadas, o que ratifica a necessidade de cautela na forma de implantação da técnica na construção de carteiras.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Neste estudo analisamos persistência a choques na média e na volatilidade e a validade da hipótese de Eficiência Fraca deMercado para a série de câmbio nominal diária R$/US$, através de Modelos de mudança markoviana, Memória Longa e GARCH. Mostramos que o modelo de mudança markoviana é adequado para capturar a estrutura de dependência existente nesta série, tanto na média quanto na variância , enquanto que os modelos de Memória Longa e GARCH não são robustos na presença das quebras estruturais existentes neste período. Conduzimos uma série de procedimentos de análise de especificação e experimentos deMonte Carlo para mostrar que mudanças na estrutura da variância podeminduzir padrões espúrios de memória longa e persistência.