135 resultados para Inferência e estimadores da variância

em Repositório digital da Fundação Getúlio Vargas - FGV


Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo deste trabalho é comparar diferentes métodos da volatilidade do Índice da Bolsa de Valores de São Paulo (IBOVESPA) utilizando uma nova metodologia proposta na literatura, denominada volatilidade realizada. Comparamos modelos da família GARCH com estimadores alternativos baseados em cotações de abertura, fechamento, máximo e mínimo. Concluímos que pode ser interessante a utilização de estimadores mais simples do que os derivados da família GARCH, que acabam sendo mais econômicos em termos de tempo dispendido no processo de estimação, sem perda de precisão.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo deste trabalho é analisar o desempenho de estimadores de volatilidade que utilizam valores extremos (máximo, mínimo, abertura e fechamento) para ativos no mercado brasileiro. Discute-se o viés dos estimadores usando como referências o estimador clássico, a volatilidade realizada e a volatilidade implícita de 1 mês da série de opções no dinheiro (ATM - at the money); discute-se a eficiência quanto à previsibilidade da volatilidade futura usando o estimador clássico e a volatilidade implícita defasados um período para frente como variáveis dependentes e a eficiência em si, isto é, quanto ao tamanho da variância do estima-dor. Como representantes de ativos brasileiros, foram escolhidos a paridade BRL/USD spot e o Índice Bovespa. Além de bastante líquidos, esses dois ativos têm bastante importância no mercado brasileiro, seja como benchmark para investimentos, bem como ativos-base para muitos derivativos operados na Bolsa de Mercadorias e Futuros (BM&F) e na Bolsa de Va-lores de São Paulo (Bovespa). A volatilidade do ativo-base é uma das variáveis para o apre-çamento de derivativos como opções; muitas estratégias são montadas, no mercado financei-ro, utilizando-a como referência. A volatilidade também é bastante usada no gerenciamento de riscos, em modelos como o Value at Risk (VaR), por exemplo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo deste trabalho é avaliar o desempenho de diferentes métodos de extração da volatilidade do Índice da Bolsa de Valores de São Paulo (IBOVESPA) tendo como referência a volatilidade realizada. Comparamos modelos da família GARCH com estimadores alternativos baseados em cotações de abertura, fechamento, máximo e mínimo. Os resultados indicam que os estimadores alternativos são tão precisos quanto os modelos do tipo GARCH, apesar de serem muito mais econômicos em termos computacionais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho examinou as características de carteiras compostas por ações e otimizadas segundo o critério de média-variância e formadas através de estimativas robustas de risco e retorno. A motivação para isto é a distribuição típica de ativos financeiros (que apresenta outliers e mais curtose que a distribuição normal). Para comparação entre as carteiras, foram consideradas suas propriedades: estabilidade, variabilidade e os índices de Sharpe obtidos pelas mesmas. O resultado geral mostra que estas carteiras obtidas através de estimativas robustas de risco e retorno apresentam melhoras em sua estabilidade e variabilidade, no entanto, esta melhora é insuficiente para diferenciar os índices de Sharpe alcançados pelas mesmas das carteiras obtidas através de método de máxima verossimilhança para estimativas de risco e retorno.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta pesquisa tem dois objetivos principais. Primeiro, pretende revisar o estado-da-arte no campo de análise da variância de desempenho. Uma revisão de literatura preliminar mostra que, embora vistos por alguns como contraditórios, os resultados dos estudos anteriores de análise de variância de desempenho podem ser compatibilizados (especialmente para indústrias de manufatura). Efeitos idiossincráticos das firmas individuais representam o maior componente que explica a variância do desempenho. Efeitos de indústria também são significativos, mas muito menores. Efeitos atribuídos aos anos (conjunturas específicas) estiveram ausentes ou foram muito pequenos. Em segundo lugar este estudo contribui para o debate que explora a análise de desempenho em um ambiente extremamente turbulento. Um resultado intrigante nestas pesquisas prévias foi valor o muito pequeno, às vezes nulo, atribuído aos efeitos de ano. Por que estes valores são tão pequenos? Tal questão não é explorada na literatura, e é nela que focaremos nossa pesquisa. Um ambiente turbulento, por definição, permitiria que se esperasse que estes efeitos de ano fossem maiores, dada a instabilidade reinante. Para investigar esta possibilidade nós propomos executar uma análise de variância do desempenho de empresas brasileiras durante o período 1998 a 2001, um período de turbulência doméstica e internacional extrema.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Trata-se do exame do viés resultante da diferença entre o prêmio teórico e o prêmio observado de uma opção de compra de ações preferenciais da Telebrás no período de agosto de 1992 a agosto de 1994. Admite-se como causa do viés a natureza estocástica da volatilidade e procede-se à sua modelagem.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Uma das principais características da estratégia como campo de conhecimento é o seu foco no estudo da individualidade das empresas em contraste com a economia que foca prioritariamente os ramos de negócios. As empresas diferem entre si em várias dimensões e estas diferenças constituem a essência do interesse de pesquisa em estratégia. Uma destas dimensões é a velocidade com que as empresas crescem ou diminuem de tamanho. Esta tese analisou a estrutura de variabilidade das taxas de crescimento das empresas tendo como objetivo identificar grupos de fatores que influem nesta variabilidade e a magnitude relativa desta influência. O estudo foi feito sobre uma amostra internacional com 13.221 empresas de 47 países e 216 ramos de negócios diferentes no período 1994 a 2002. Os dados originais foram obtidos da base de dados Compustat Global, mantida pela Standard and Poor’s, e combinados com índices do World Bank Development Indicators para considerar o efeito de inflação e mudanças de moedas nos vários países. A técnica de componentes de variância, normalmente utilizada para analisar a variabilidade natural em áreas como genética e biologia, foi usada para entender a composição da variância das taxas de crescimento. O principal achado foi que os aspectos individuais, idiossincráticos a cada empresa, respondem pela maior parcela da variância. Outros fatores como o país e o ramo de negócios têm uma influência menor. No plano teórico, a predominância do efeito empresa individual na explicação da variabilidade das taxas de crescimento oferece suporte empírico à abordagem de Penrose (1959) que considera o crescimento como um processo natural, endógeno decorrente dos recursos da empresa e se contrapõe a abordagens econômicas que usam efeitos prioritariamente associados ao ramo de negócios como determinantes do crescimento das firmas. Estes resultados também permitem ver o crescimento como um dos resultados do uso de recursos superiores e, portanto, como uma dimensão adicional do construto vantagem competitiva, ligando o trabalho à visão baseada em recursos da estratégia (RBV). Uma das possíveis implicações gerenciais da pesquisa refere-se à eficácia de políticas públicas de crescimento. Sendo o efeito do ramo de negócios no crescimento tão pequeno, estes dados colocam em dúvida a eficácia de políticas setoriais e indica que políticas que dêem recursos à empresa individual ou que se direcionem ao fortalecimento de instituições de infraestrutura do país, como educação, transporte, saúde, possam ter maior eficácia em promover o crescimento das empresas através do efeito país. Além da contribuição principal o estudo permitiu várias conclusões secundárias sobre o a variabilidade das taxas de crescimento das empresas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A determinação e a mensuração da importância das principais fontes de vantagem competitiva, ainda é um tema em discussão na área de Estratégia. Uma linha de pesquisa, iniciada em meados dos anos 80, tem seu foco principal na determinação e quantificação da importância dos fatores que poderiam explicar as diferenças no desempenho de um grupo de empresas, utilizando a decomposição da variância dos valores do desempenho através das técnicas de Regressão Linear ou de Componentes de Variância. Nesta linha de pesquisa, desenvolveram-se uma série de trabalhos empíricos cujo propósito principal é quantificar, entre outros fatores, qual a importância do setor industrial em que a empresa atua, qual a importância do ano, qual a importância de se fazer parte de um grupo econômico e qual a importância dos fatores idiossincráticos da empresa na explicação do desempenho apresentado em determinados períodos. Dos resultados destes trabalhos surgiram discussões importantes sobre o papel da estratégia corporativa e sobre a importância relativa de tais fatores na determinação da vantagem competitiva. Este trabalho se insere nesta linha de pesquisa, cujo objetivo é, utilizando uma base de dados brasileira muito mais abrangente e completa que os estudos anteriores, quer nacionais e internacionais, primeiramente verificar se a realidade apontada nos estudos internacionais se assemelha à do Brasil. Em segundo lugar, contribuir com um refinamento teórico, refazendo estas análises utilizando modelos lineares mistos, mais apropriados para estes conjuntos de dados, que os modelos de componentes de variância. Em terceiro lugar, utilizando dois tipos de matriz de covariância, verifica se o desempenho de um determinado ano influi no desempenho dos anos imediatamente subseqüentes, verificando, assim, a possível existência de medidas repetidas para a variável ano. Finalmente, analisa se parte da variabilidade do desempenho das empresas brasileiras pode ser atribuído ao fato da empresa se localizar em determinada Unidade da Federação

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The concept of stochastic discount factor pervades the Modern Theory of Asset Pricing. Initially, such object allows unattached pricing models to be discussed under the same terms. However, Hansen and Jagannathan have shown there is worthy information to be brought forth from such powerful concept which undelies asset pricing models. From security market data sets, one is able to explore the behavior of such random variable, determining a useful variance bound. Furthermore, through that instrument, they explore one pitfall on modern asset pricing: model misspecification. Those major contributions, alongside with some of its extensions, are thoroughly investigated in this exposition.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os mecanismos que levam ao desempenho superior e, por consequência, os fatores que os explicam, são focos de várias áreas de pesquisa em Administração de Empresas. A decomposição da variabilidade do desempenho vem sendo utilizada para esse fim, inicialmente procurando entender a contribuição de fatores intrínsecos às organizações (efeito empresa) e de fatores relacionados ao setor econômico (efeito setor); mais recentemente outros fatores ganharam interesse, como é o caso das contribuições da corporação e do país para o desempenho. Esta tese introduziu um novo fator aos estudos de decomposição da variabilidade do desempenho: o efeito cadeia de suprimentos, quantificando a influência da afiliação a uma determinada cadeia para o desempenho da empresa. Outra contribuição desta tese é o amplo mapeamento da estrutura de variância de desempenho das empresas brasileiras, expandindo pesquisas anteriores em termos de tamanho de amostra, método de análise mais adequado (modelagem multinível) e dimensões de desempenho utilizadas. As análises empíricas consideraram indicadores de lucro e de crescimento, com a amostra mais ampla contendo 592.905 observações de 77.468 empresas brasileiras e 485 setores de negócios, em um período de 10 anos. Os dados foram obtidos das bases de dados das pesquisas econômicas estruturais do Instituto Brasileiro de Geografia e Estatística (IBGE). Modelos de 3 níveis – observações de desempenho, empresas e setores – mostraram que o efeito empresa individual responde pela maior parcela da variância do desempenho; esses modelos também apontaram para características peculiares da realidade brasileira, como as diferenças das estruturas de variância quando os diversos setores são analisados separadamente, principalmente em termos da intensidade do efeito setor – mais relevante, por exemplo, para as empresas de serviços do que para as empresas dos demais setores – e como as diferenças nas estruturas de variância para as diversas regiões do Brasil, sendo as empresas das regiões Norte, Nordeste e Centro-Oeste mais dependentes da contribuição do setor para seu desempenho do que as empresas da região Sul e Sudeste. Ao se introduzir um quarto nível – a cadeia de suprimentos – ao modelo, foi possível identificar que a magnitude do efeito cadeia alcança entre 15% a 25% da variabilidade explicada, medida pela raiz quadrada dos componentes de variância, representando cerca de 50% a 90% da magnitude do efeito setor. Além de evidenciar a importância da gestão das cadeias de suprimentos, os achados apontam para uma nova compreensão do efeito setor, já que indicam que os benefícios tradicionalmente atribuídos ao setor econômico são em parte decorrentes da afiliação da empresa a uma determinada cadeia, e não à similaridade das atividades que ela compartilha com outras empresas do mesmo setor.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este estudo compara previsões de volatilidade de sete ações negociadas na Bovespa usando 02 diferentes modelos de volatilidade realizada e 03 de volatilidade condicional. A intenção é encontrar evidências empíricas quanto à diferença de resultados que são alcançados quando se usa modelos de volatilidade realizada e de volatilidade condicional para prever a volatilidade de ações no Brasil. O período analisado vai de 01 de Novembro de 2007 a 30 de Março de 2011. A amostra inclui dados intradiários de 5 minutos. Os estimadores de volatilidade realizada que serão considerados neste estudo são o Bi-Power Variation (BPVar), desenvolvido por Barndorff-Nielsen e Shephard (2004b), e o Realized Outlyingness Weighted Variation (ROWVar), proposto por Boudt, Croux e Laurent (2008a). Ambos são estimadores não paramétricos, e são robustos a jumps. As previsões de volatilidade realizada foram feitas através de modelos autoregressivos estimados para cada ação sobre as séries de volatilidade estimadas. Os modelos de variância condicional considerados aqui serão o GARCH(1,1), o GJR (1,1), que tem assimetrias em sua construção, e o FIGARCH-CHUNG (1,d,1), que tem memória longa. A amostra foi divida em duas; uma para o período de estimação de 01 de Novembro de 2007 a 30 de Dezembro de 2010 (779 dias de negociação) e uma para o período de validação de 03 de Janeiro de 2011 a 31 de Março de 2011 (61 dias de negociação). As previsões fora da amostra foram feitas para 1 dia a frente, e os modelos foram reestimados a cada passo, incluindo uma variável a mais na amostra depois de cada previsão. As previsões serão comparadas através do teste Diebold-Mariano e através de regressões da variância ex-post contra uma constante e a previsão. Além disto, o estudo também apresentará algumas estatísticas descritivas sobre as séries de volatilidade estimadas e sobre os erros de previsão.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Apesar de seu uso amplo no mercado financeiro para modelagem dos preços de ações, o modelo de Black Scholes, assim como os demais modelos de difusão, possui por hipótese limitações que não permitem a ele capturar alguns comportamentos típicos desse mercado. Visto isso, diversos autores propuseram que os preços das ações seguem modelos de saltos puros sendo sua modelagem estruturada por um processo de Lévy. Nesse contexto, este trabalho visa apresentar um estudo sobre a precificação de opções do utilizando um modelo desenvolvido por Madan e Seneta (1990) que se baseia no processo de saltos puros conhecido como variância gama (VG). Utilizando como base dados as cotações históricas diárias de ações e opções do mercado brasileiro, além do comportamento da clássica curva ‘smile’ de volatilidade, o trabalho apresenta as curvas de tendência e taxa de variância presentes no modelo de variância gama. Juntos essas três curvas podem ser utilizadas como ferramentas para explicar melhor o comportamento dos preços dos ativos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Uma ferramenta importante na avaliação de políticas econômicas é a estimação do efeito médio de um programa ou tratamento sobre uma variável de interesse. Em geral, a atribuição do tratamento aos potenciais participantes não é aleatória, o que pode causar viés de seleção quando desconsiderada. Uma maneira de resolver esse problema é supor que o econometrista observa um conjunto de características determinantes, a menos de um componente estritamente aleatório, da participação. Sob esta hipótese, existem na literatura estimadores semiparamétricos do efeito médio do tratamento que são consistentes e capazes de atingir, assintoticamente, o limite de e ciência semiparamétrico. Entretanto, nas amostras freqüentemente disponíveis, o desempenho desses métodos nem sempre é satisfatório. O objetivo deste trabalho é estudar como a combinação das duas estratégias pode produzir estimadores com melhores propriedades em amostras pequenas. Para isto, consideramos duas formas de integrar essas abordagens, tendo como referencial teórico a literatura de estimação duplamente robusta desenvolvida por James Robins e co-autores. Analisamos suas propriedades e discutimos por que podem superar o uso isolado de cada uma das técnicas que os compõem. Finalmente, comparamos, num exercício de Monte Carlo, o desempenho desses estimadores com os de imputação e reponderação. Os resultados mostram que a combinação de estratégias pode reduzir o viés e a variância, mas isso depende da forma como é implementada. Concluímos que a escolha dos parâmetros de suavização é decisiva para o desempenho da estimação em amostras de tamanho moderado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A rica pesquisa dos professores Lee Epstein e Gary King deu origem a um extenso artigo intitulado "The Rules of Inference" (As Regras de Inferência), publicado na renomada Chicago Law Review, ora traduzido em forma de livro. Os autores começam por apontar as falhas mais comuns nos procedimentos de pesquisa adotados por juristas que se aventuram no mundo da pesquisa empírica. Em seguida, identificam as características básicas da pesquisa empírica aplicada ao direito, quais sejam: a existência de uma pergunta de pesquisa, a formulação de teorias/hipóteses de pesquisa e suas implicações observáveis; identificação de teorias rivais à hipótese preferida; técnicas de medição e avaliação de dados; procedimentos de seleção da população que fará parte da investigação. Por último, os autores sugerem formas de melhorar a situação da pesquisa empírica nas faculdades de direito.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho analisa as propriedades de uma nova medida de má especificação de modelos de apreçamento, que está relacionada com o tamanho do ajuste multiplicativo necessário para que o modelo seja corretamente especificado. A partir disso, caracterizamos o parâmetro que minimiza a medida a partir de um programa dual, de solução mais simples. Os estimadores naturais para esse parâmetro pertencem à classe de Generalized Empirical Likelihood. Derivamos as propriedades assintóticas deste estimador sob a hipótese de má especificação. A metodologia é empregada para estudar como se comportam em amostras finitas as estimativas de aversão relativa ao risco em uma economia de desastres quando os estimadores estão associados a nossa medida de má especificação. Nas simulações vemos que em média a aversão ao risco é superestimada, mesmo quando ocorre um número significativo de desastres.