260 resultados para Condicional derrotable
Resumo:
As observações relatadas por Myers e Thompson, em seu artigo “Generalized Optimal Hedge Ratio Estimation” de 1989, foram analisadas neste estudo utilizando o boi gordo como a commodity de interesse. Myers e Thompson, demonstraram teórica e empiricamente, ser inapropriado o uso do coeficiente angular da regressão simples, dos preços à vista sobre os preços futuros como forma de estimar a razão ótima de hedge. Porém, sob condições especiais, a regressão simples com a mudança dos preços resultou em valores plausíveis, próximos àqueles determinados por um modelo geral. Este modelo geral, foi desenvolvido com o intuito de estabelecer os parâmetros para comparar as diferentes abordagens na estimativa da razão ótima de hedge. O coeficiente angular da reta da regressão simples e a razão ótima de hedge tem definições similares, pois ambos são o resultado da divisão entre a matriz de covariância dos preços, à vista e futuros e a variância dos preços futuros. No entanto, na razão ótima de hedge estes valores refletem o momento condicional, enquanto que na regressão simples são valores não condicionais. O problema portanto, está em poder estimar a matriz condicional de covariância, entre os preços à vista e futuros e a variância condicional dos preços futuros, com as informações relevantes no momento da tomada de decisão do hedge. Neste estudo utilizou-se o modelo de cointegração com o termo de correção de erros, para simular o modelo geral. O Indicador ESALQ/BM&F foi utilizado como a série representativa dos preços à vista, enquanto que para os preços futuros, foram utilizados os valores do ajuste diário dos contratos de boi gordo, referentes ao primeiro e quarto vencimentos, negociados na Bolsa Mercantil e de Futuros - BM&F. Os objetivos do presente estudo foram: investigar se as observações feitas por Myers e Thompson eram válidas para o caso do boi gordo brasileiro, observar o efeito do horizonte de hedge sobre a razão ótima de hedge e o efeito da utilização das séries diárias e das séries semanais sobre a estimativa da razão ótima de hedge. Trabalhos anteriores realizados com as séries históricas dos preços do boi gordo, consideraram apenas os contratos referentes ao primeiro vencimento. Ampliar o horizonte de hedge é importante, uma vez que as atividades realizadas pelos agentes tomam mais do que 30 dias. Exemplo disto é a atividade de engorda do boi, que pode levar até 120 dias entre a compra do boi magro e a venda do boi gordo. Demonstrou-se neste estudo, que o uso das séries semanais, é o mais apropriado, dado a diminuição substancial da autocorrelação serial. Demonstrou-se também, que as regressões com as mudanças dos preços, resultaram em estimativas da razão de hedge próximas daquelas obtidas com o modelo geral e que estas diminuem com o aumento do horizonte de hedge.
Resumo:
Há forte evidência que os retornos das séries financeiras apresentam caudas mais pesadas que as da distribuição normal, principalmente em mercados emergentes. No entanto, muitos modelos de risco utilizados pelas instituições financeiras baseiam-se em normalidade condicional ou não condicional, reduzindo a acurácia das estimativas. Os recentes avanços na Teoria de Valores Extremos permitem sua aplicação na modelagem de risco, como por exemplo, na estimação do Valor em Risco e do requerimento de capital. Este trabalho verifica a adequação de um procedimento proposto por McNeil e Frey [1999] para estimação do Valor em Risco e conseqüente requerimento de capital às principais séries financeiras de retornos do Brasil. Tal procedimento semi-paramétrico combina um modelo GARCH ajustado por pseudo máxima verossimilhança para estimação da volatilidade corrente com a Teoria de Valores Extremos para estimação das caudas da distribuição das inovações do modelo GARCH. O procedimento foi comparado através de backtestings com outros métodos mais comuns de estimação de VaR que desconsideram caudas pesadas das inovações ou a natureza estocástica da volatilidade. Concluiu-se que o procedimento proposto por McNeil e Frey [1999] mostrou melhores resultados, principalmente para eventos relacionados a movimentos negativos nos mercados . Futuros trabalhos consistirão no estudo de uma abordagem multivariada de grandes dimensões para estimação de VaR e requerimento de capital para carteiras de investimentos.
Resumo:
O objetivo deste trabalho é caracterizar a Curva de Juros Mensal para o Brasil através de três fatores, comparando dois tipos de métodos de estimação: Através da Representação em Espaço de Estado é possível estimá-lo por dois Métodos: Filtro de Kalman e Mínimos Quadrados em Dois Passos. Os fatores têm sua dinâmica representada por um Modelo Autorregressivo Vetorial, VAR(1), e para o segundo método de estimação, atribui-se uma estrutura para a Variância Condicional. Para a comparação dos métodos empregados, propõe-se uma forma alternativa de compará-los: através de Processos de Markov que possam modelar conjuntamente o Fator de Inclinação da Curva de Juros, obtido pelos métodos empregados neste trabalho, e uma váriavel proxy para Desempenho Econômico, fornecendo alguma medida de previsão para os Ciclos Econômicos.
Resumo:
O objetivo do presente trabalho é analisar as características empíricas de uma série de retornos de dados em alta freqüência para um dos ativos mais negociados na Bolsa de Valores de São Paulo. Estamos interessados em modelar a volatilidade condicional destes retornos, testando em particular a presença de memória longa, entre outros fenômenos que caracterizam este tipo de dados. Nossa investigação revela que além da memória longa, existe forte sazonalidade intradiária, mas não encontramos evidências de um fato estilizado de retornos de ações, o efeito alavancagem. Utilizamos modelos capazes de captar a memória longa na variância condicional dos retornos dessazonalizados, com resultados superiores a modelos tradicionais de memória curta, com implicações importantes para precificação de opções e de risco de mercado
Resumo:
Examinamos a relação entre anomalias de temperatura e séries de sinistros diretos do mercado segurador brasileiro, bem como seu efeito sobre um modelo de precificação de ativos de consumo. Nossa metodologia consistiu na análise da correlação das anomalias de temperatura com a série de sinistros e no efeito dessas séries nas oportunidades futuras de investimento. Testamos um modelo de precificação de ativos de consumo (CCAPM) condicional com as séries temporais brasileiras. Duas séries de consumo, duas séries de sinistros diretos e quatro séries de anomalias de temperatura foram utilizadas na realização dos testes. Todas as séries pertenceram ao período de setembro de 1996 a dezembro de 2007, com freqüência trimestral, dois anos posteriores ao início do plano Real e um ano antes da crise de crédito de 2008. Em alguns casos utilizamos séries mensais. Observamos a existência de correlação positiva e significativa entre as séries de sinistro direto e as anomalias de temperatura. Dois modelos se apresentaram melhores que o CCAPM clássico. O primeiro com a taxa de crescimento da série de sinistros, com pontos que poderíamos considerar como outliers, e o segundo com a série de anomalias de temperatura do hemisfério sul elaborada pelo Goddard Institute of Space Sciences (GISS/NASA). Como resultado observamos que a série de anomalias de temperatura elaborada pelo GISS é capaz de afetar as oportunidades futuras de investimento no mercado de capitais brasileiro.
Resumo:
O trabalho tem como objetivo descrever um processo de transmis são de choques na correlação da taxa de câmbio do Brasil, Chile, Euro e México com base no modelo de correlação dinâmica de [Engle, 2002]. O modelo é estendido para capturar efeitos assi métricos na volatilidade e na correlação. A trajetória estimada da correlação mostra-se com desvios significativos em relação a correla ção incondicional, a amplitude da correlação condicional é elevada e há inclusive alteração de sinal quando a correlação é feita em relação ao Euro. Num calculo de valor em risco, o modelo com correlação dinâmica tem uma performance muito superior a um modelo com correlação constante, levando-se em conta os mesmos processos de volatilidade.
Resumo:
Este trabalho examina hipóteses de microestrutura de mercado nos dados de minicontratos futuros do Ibovespa divulgados em alta frequência pelo sinal de market data da BM&FBOVESPA. Para a análise, foi utilizado o modelo de duração condicional autoregressivo, o qual permite o tratamento estatístico de séries financeiras que possuem distribuição em espaços irregulares de tempo e padrões condicionais ao conjunto de informações disponíveis no mercado. A contribuição deste trabalho reside na validação das premissas sobre microestrutura nos mercados de futuros de índice, que são diferentes dos mercados de ações, pois não existe a figura do formador de mercado, e a literatura global sugere que o efeito da assimetria de informação é insignificante na formação de preços devido à diversificação de ativos dos índices. Em contrapartida, o especulador é o provedor de liquidez neste mercado, e seu papel na intensidade de negociação, volume e spread é avaliado. Os resultados confirmam a relação negativa entre intensidade de negociação, volume e spread e corroboram a tese de que a liquidez de mercado pode ser entendida como o preço pela demanda por execução imediata de negócios.
Resumo:
O objetivo deste trabalho é realizar uma análise empírica dos processos judiciais envolvendo as principais agências reguladoras e o Conselho Administrativo de Defesa Econômica (CADE) e verificar se existe incentivo ao litígio quando estes processos envolvem uma decisão punitiva, ou seja, que requer o pagamento de multas. Este incentivo à litigar seria motivado, principalmente, por benefícios econômicos e estaria contribuindo para agravar os problemas do judiciário brasileiro, tais como morosidade e acúmulo de processos. Para a realização do estudo empírico proposto, foi utilizada uma base de dados construída especialmente para uma pesquisa do Conselho Nacional de Justiça (CNJ). Dadas as limitações desta base de dados, a estratégia adotada foi de verificar se existe uma correlação condicional positiva entre o fato de a decisão envolver multa e a probabilidade do resultado em primeira instância ser favorável à agência. Os resultados encontrados indicam que essa correlação condicional é realmente positiva. Nesse caso, os indivíduos ou empresas estariam recorrendo à justiça com o mero intuito de protelar o pagamento, mesmo sabendo que a probabilidade de que a decisão inicial da agência seja mantida é relativamente elevada. Este interesse em protelar seria motivado por ganhos financeiros, como diferenciais da taxa de juros de mercado e a correção monetária ou atualização da multa na justiça.
Resumo:
Este trabalho tem como objetivo fazer uma avaliação sobre a correlação entre os preços de açúcar crú e petróleo crú. Até poucos anos atrás, commodities agrícolas e energéticas possuíam uma baixa, ou até mesmo insignificante correlação entre as séries de preços. Este cenário vem se modificando nos últimos anos e este trabalho re-avalia a existência de correlação entre os mercados de açúcar crú e petróleo crú. Uma possível causa para este efeito é a utilização de commodities agrícolas na produção de combustíveis líquidos, como o etanol, sendo este o elo de conexão entre o mundo fossil e o mundo agrícola. Através de indices como o de correlação fica possível encontrar mecanismos de precificação e hedge em outros mercados mais líquidos e consequetemente mitigar o risco de comercialização de produtos como o açúcar e o etanol de origem de cana-de-açúcar. Em primeiro lugar procurou-se traçar um esboço das possíveis causas desta nova correlação entre commodities agrícolas e energéticas. Em seguida foram utilizados métodos estatísticos e econométricos para avaliar a existência de correlação significativa entre os preços das commodities escolhidas e como estas correlações tem se alterado ao longo do tempo. O modelo GARCH pode ser utilizado para descrever a volatilidade com menos parâmetros do que um modelo ARCH. Neste trabalho, foi selecionado primeiramente o melhor modelo GARCH para esta avaliação e, subsequentemente, este foi usado para avaliar a existência de alteração de correlação entre as variáveis escolhidas. Os resultados revelaram que o índice de correlação entre os preços do açúcar crú e do petróleo crú é estatisticamente diferente de zero e é crescente ao longo do período de tempo estudado. Contudo, apenas a variância condicional do preço do petróleo crú se alterou ao longo do tempo, não acontecendo o mesmo com o açúcar crú. Assim sendo, ainda não é possível afirmar que a correlação crescente observada entre os preços de açúcar crú e petróleo crú é decorrente da relação desses mercados com o mercado de biocombustíveis.
Resumo:
O objetivo do presente trabalho é verificar se, ao levar-se em consideração momentos de ordem superior (assimetria e curtose) na alocação de uma carteira de carry trade, há ganhos em relação à alocação tradicional que prioriza somente os dois primeiros momentos (média e variância). A hipótese da pesquisa é que moedas de carry trade apresentam retornos com distribuição não-Normal, e os momentos de ordem superior desta têm uma dinâmica, a qual pode ser modelada através de um modelo da família GARCH, neste caso IC-GARCHSK. Este modelo consiste em uma equação para cada momento condicional dos componentes independentes, explicitamente: o retorno, a variância, a assimetria, e a curtose. Outra hipótese é que um investidor com uma função utilidade do tipo CARA (constant absolute risk aversion), pode tê-la aproximada por uma expansão de Taylor de 4ª ordem. A estratégia do trabalho é modelar a dinâmica dos momentos da série dos logartimos neperianos dos retornos diários de algumas moedas de carry trade através do modelo IC-GARCHSK, e estimar a alocação ótima da carteira dinamicamente, de tal forma que se maximize a função utilidade do investidor. Os resultados mostram que há ganhos sim, ao levar-se em consideração os momentos de ordem superior, uma vez que o custo de oportunidade desta foi menor que o de uma carteira construída somente utilizando como critérios média e variância.
Resumo:
A Execução Condicional Dinâmica (DCE) é uma alternativa para redução dos custos relacionados a desvios previstos incorretamente. A idéia básica é buscar todos os fluxos produzidos por um desvio que obedecem algumas restrições relativas à complexidade e tamanho. Como conseqüência, um número menor de previsões é executado, e assim, um número mais baixo de desvios é incorretamente previsto. Contudo, tal como outras soluções multi-fluxo, o DCE requer uma estrutura de controle mais complexa. Na arquitetura DCE, é observado que várias réplicas da mesma instrução são despachadas para as unidades funcionais, bloqueando recursos que poderiam ser utilizados por outras instruções. Essas réplicas são geradas após o ponto de convergência dos diversos fluxos em execução e são necessárias para garantir a semântica correta entre instruções dependentes de dados. Além disso, o DCE continua produzindo réplicas até que o desvio que gerou os fluxos seja resolvido. Assim, uma seção completa do código pode ser replicado, reduzindo o desempenho. Uma alternativa natural para esse problema é reusar essas seções (ou traços) que são replicadas. O objetivo desse trabalho é analisar e avaliar a efetividade do reuso de valores na arquitetura DCE. Como será apresentado, o princípio do reuso, em diferentes granularidades, pode reduzir efetivamente o problema das réplicas e levar a aumentos de desempenho.
Resumo:
O primeiro artigo desta tese procura medir o impacto do programa Bolsa Familia sobre a gravidez juvenil, discutindo também a utilização de programas de transferência condicional de renda para a diminuição da fecundidade em áreas de pobreza. O segundo artigo realiza um exercício contrafactual para estimar o impacto de aumentos no investimento em educação sobre o consumo, considerando não só o aumento da produtividade, mas também o impacto da nova educação sobre a fecundidade das pessoas.
Resumo:
Apresento aqui uma abordagem que unifica a literatura sobre os vários modelos de apreçamento de derivativos que consiste em obter por argumentos intuitivos de não arbitragem uma Equação Diferencial Parcial(EDP) e através do método de Feynman-Kac uma solução que é representada por uma esperança condicional de um processo markoviano do preço do derivativo descontado pela taxa livre de risco. Por este resultado, temos que a esperança deve ser tomada com relação a processos que crescem à taxa livre de risco e por este motivo dizemos que a esperança é tomada em um mundo neutro ao risco(ou medida neutra ao risco). Apresento ainda como realizar uma mudança de medida pertinente que conecta o mundo real ao mundo neutro ao risco e que o elemento chave para essa mudança de medida é o preço de mercado dos fatores de risco. No caso de mercado completo o preço de mercado do fator de risco é único e no caso de mercados incompletos existe uma variedade de preços aceitáveis para os fatores de risco pelo argumento de não arbitragem. Neste último caso, os preços de mercado são geralmente escolhidos de forma a calibrar o modelo com os dados de mercado.
Resumo:
Este estudo compara previsões de volatilidade de sete ações negociadas na Bovespa usando 02 diferentes modelos de volatilidade realizada e 03 de volatilidade condicional. A intenção é encontrar evidências empíricas quanto à diferença de resultados que são alcançados quando se usa modelos de volatilidade realizada e de volatilidade condicional para prever a volatilidade de ações no Brasil. O período analisado vai de 01 de Novembro de 2007 a 30 de Março de 2011. A amostra inclui dados intradiários de 5 minutos. Os estimadores de volatilidade realizada que serão considerados neste estudo são o Bi-Power Variation (BPVar), desenvolvido por Barndorff-Nielsen e Shephard (2004b), e o Realized Outlyingness Weighted Variation (ROWVar), proposto por Boudt, Croux e Laurent (2008a). Ambos são estimadores não paramétricos, e são robustos a jumps. As previsões de volatilidade realizada foram feitas através de modelos autoregressivos estimados para cada ação sobre as séries de volatilidade estimadas. Os modelos de variância condicional considerados aqui serão o GARCH(1,1), o GJR (1,1), que tem assimetrias em sua construção, e o FIGARCH-CHUNG (1,d,1), que tem memória longa. A amostra foi divida em duas; uma para o período de estimação de 01 de Novembro de 2007 a 30 de Dezembro de 2010 (779 dias de negociação) e uma para o período de validação de 03 de Janeiro de 2011 a 31 de Março de 2011 (61 dias de negociação). As previsões fora da amostra foram feitas para 1 dia a frente, e os modelos foram reestimados a cada passo, incluindo uma variável a mais na amostra depois de cada previsão. As previsões serão comparadas através do teste Diebold-Mariano e através de regressões da variância ex-post contra uma constante e a previsão. Além disto, o estudo também apresentará algumas estatísticas descritivas sobre as séries de volatilidade estimadas e sobre os erros de previsão.
Resumo:
Motivados pelo debate envolvendo modelos estruturais e na forma reduzida, propomos nesse artigo uma abordagem empírica com o objetivo de ver se a imposição de restrições estruturais melhoram o poder de previsibilade vis-a-vis modelos irrestritos ou parcialmente restritos. Para respondermos nossa pergunta, realizamos previsões utilizando dados agregados de preços e dividendos de ações dos EUA. Nesse intuito, exploramos as restrições de cointegração, de ciclo comum em sua forma fraca e sobre os parâmetros do VECM impostas pelo modelo de Valor Presente. Utilizamos o teste de igualdade condicional de habilidade de previsão de Giacomini e White (2006) para comparar as previsões feitas por esse modelo com outros menos restritos. No geral, encontramos que os modelos com restrições parciais apresentaram os melhores resultados, enquanto o modelo totalmente restrito de VP não obteve o mesmo sucesso.