915 resultados para Bivariate BEKK-GARCH
Resumo:
Esta dissertação tem três objetivos. O primeiro é encontrar o melhor método para se calcular a taxa ótima de “hedge” no mercado brasileiro do boi gordo. Para isso, foram testados cinco modelos: BEKK, DCC de Tse e Tsui (2002), DCC de Engle e Sheppard (2001), BEKK com dummy de safra e BEKK com dummy de entressafra. O segundo é calcular o diferencial de razões de “hedge” entre a safra e entressafra, pois a taxa de “hedge” na entressafra deve ser maior devido a uma maior incerteza sobre um possível choque de oferta, o que afetaria negativamente os custos dos frigoríficos. O terceiro e último objetivo é desvendar o porquê da literatura brasileira de taxa ótima de “hedge” estar encontrando estimativas muito pequenas das taxas quando comparadas às realizadas no mercado. Conclui-se que os modelos DCC’s são os que, no geral, obtém um desempenho melhor pelo critério de redução de variância e aumento do índice de Sharpe e que a taxa de “hedge” na entressafra não deve ser maior que na safra. Nota-se também que a quebra da expectativa intertemporal com a mudança de contratos faz com que a variância da série dos retornos futuros aumente muito, diminuindo assim a taxa de “hedge”.
Resumo:
A previsão dos preços do petróleo é fundamental para o planejamento energético e oferece subsídio a tomada de decisões de longo prazo, que envolvem custos irrecuperáveis. No entanto, os preços do petróleo são muito instáveis sujeitos a choques como resultado de questões geopolíticas, poder de mercado da OPEP (Organização dos Países Exportadores de Petróleo) e pressões de demanda resultando numa série sujeita a quebras estruturais, prejudicando a estimação e previsão de modelos de série temporal. Dada a limitação dos modelos de volatilidade da família GARCH, que são instáveis e apresentam elevada persistência em séries com mudanças estruturais, este trabalho compara a previsão da volatilidade, em termos de intervalos de confiança e persistência, dos modelos de volatilidade com mudança de regime markoviana em relação aos modelos de volatilidade determinísticos. Os modelos de volatilidade com mudança de regime considerados são o modelo SWARCH (Markov Switch ARCH) e introduz-se o modelo MSIH (Markov Switch Intercept Heteroskedasticity) para o estudo da volatilidade. Como resultado as previsões de volatilidade dos modelos com mudança de regime permitem uma estimação da volatilidade que reduz substancialmente a persistência em relação aos modelos GARCH.
Resumo:
O trabalho testa o poder de previsão da volatilidade futura, de cinco modelos : um modelo ingênuo, do tipo martingale, o modelo sugerido pelo JPMorgan em seu RiskMetrics™, o modelo GARCH-Generalized Autoregressive Conditional Heteroscedasticity, o modelo da volatilidade implícita e combinações de Risk:MetricsTM com volatilidade implícita e de GARCH com volatilidade implícita. A série estudada é a volatilidade para vinte e cinco dias, dos retornos diários do contrato futuro de Ibovespa, negociado na BM&F - Bolsa de Mercadorias e Futuros. Particularidades brasileiras são introduzidas na. estimação dos parâmetros do modelo GARCH. O poder de previsão é testado com medidas estatísticas, envolvendo equações de perdas (loss functions) simétricas e assimétricas, e com uma medida econômica, dada pelo lucro obtido a partir da simulação da realização de operações hedgeadas, sugeridas pelas previsões de volatilidade. Tanto com base nas medidas estatísticas como na medida econômica, o modelo GARCH emerge como o de melhor desempenho. Com base nas medidas estatísticas, esse modelo é particularmente melhor em período de mais alta volatilidade. Com base na medida econômica, contudo, o lucro obtido não é estatisticamente diferente de zero, indicando eficiência do mercado de opções de compra do contrato futuro de Ibovespa, negociado na mesmaBM&F.
Resumo:
This paper uses a multivariate response surface methodology to analyze the size distortion of the BDS test when applied to standardized residuals of rst-order GARCH processes. The results show that the asymptotic standard normal distribution is an unreliable approximation, even in large samples. On the other hand, a simple log-transformation of the squared standardized residuals seems to correct most of the size problems. Nonethe-less, the estimated response surfaces can provide not only a measure of the size distortion, but also more adequate critical values for the BDS test in small samples.
Resumo:
Com o objetivo de mostrar uma aplicação dos modelos da família GARCH a taxas de câmbio, foram utilizadas técnicas estatísticas englobando análise multivariada de componentes principais e análise de séries temporais com modelagem de média e variância (volatilidade), primeiro e segundo momentos respectivamente. A utilização de análise de componentes principais auxilia na redução da dimensão dos dados levando a estimação de um menor número de modelos, sem contudo perder informação do conjunto original desses dados. Já o uso dos modelos GARCH justifica-se pela presença de heterocedasticidade na variância dos retornos das séries de taxas de câmbio. Com base nos modelos estimados foram simuladas novas séries diárias, via método de Monte Carlo (MC), as quais serviram de base para a estimativa de intervalos de confiança para cenários futuros de taxas de câmbio. Para a aplicação proposta foram selecionadas taxas de câmbio com maior market share de acordo com estudo do BIS, divulgado a cada três anos.
Resumo:
This paper develops a methodology for testing the term structure of volatility forecasts derived from stochastic volatility models, and implements it to analyze models of S&P500 index volatility. U sing measurements of the ability of volatility models to hedge and value term structure dependent option positions, we fmd that hedging tests support the Black-Scholes delta and gamma hedges, but not the simple vega hedge when there is no model of the term structure of volatility. With various models, it is difficult to improve on a simple gamma hedge assuming constant volatility. Ofthe volatility models, the GARCH components estimate of term structure is preferred. Valuation tests indicate that all the models contain term structure information not incorporated in market prices.
Resumo:
O objetivo deste estudo é propor a implementação de um modelo estatístico para cálculo da volatilidade, não difundido na literatura brasileira, o modelo de escala local (LSM), apresentando suas vantagens e desvantagens em relação aos modelos habitualmente utilizados para mensuração de risco. Para estimação dos parâmetros serão usadas as cotações diárias do Ibovespa, no período de janeiro de 2009 a dezembro de 2014, e para a aferição da acurácia empírica dos modelos serão realizados testes fora da amostra, comparando os VaR obtidos para o período de janeiro a dezembro de 2014. Foram introduzidas variáveis explicativas na tentativa de aprimorar os modelos e optou-se pelo correspondente americano do Ibovespa, o índice Dow Jones, por ter apresentado propriedades como: alta correlação, causalidade no sentido de Granger, e razão de log-verossimilhança significativa. Uma das inovações do modelo de escala local é não utilizar diretamente a variância, mas sim a sua recíproca, chamada de “precisão” da série, que segue uma espécie de passeio aleatório multiplicativo. O LSM captou todos os fatos estilizados das séries financeiras, e os resultados foram favoráveis a sua utilização, logo, o modelo torna-se uma alternativa de especificação eficiente e parcimoniosa para estimar e prever volatilidade, na medida em que possui apenas um parâmetro a ser estimado, o que representa uma mudança de paradigma em relação aos modelos de heterocedasticidade condicional.
Resumo:
A presente dissertação tem como objetivo apresentar dois importantes modelos usados na análise de risco. Essa análise culmina em uma aplicação empírica para cada um deles. Apresenta-se primeiro o modelo Nelson-Siegel dinâmico, que estima a curva de juros usando um modelo paramétrico exponencial parcimonioso. É citada a referência criadora dessa abordagem, que é Nelson & Siegel (1987), passa-se pela apresentação da mais importante abordagem moderna que é a de Diebold & Li (2006), que é quem cria a abordagem dinâmica do modelo Nelson-Siegel, e que é inspiradora de diversas extensões. Muitas dessas extensões também são apresentadas aqui. Na parte empírica, usando dados da taxa a termo americana de Janeiro de 2004 a Março de 2015, estimam-se os modelos Nelson-Siegel dinâmico e de Svensson e comparam-se os resultados numa janela móvel de 12 meses e comparamos seus desempenhos com aqueles de um passeio aleatório. Em seguida, são apresentados os modelos ARCH e GARCH, citando as obras originais de Engle (1982) e Bolleslev (1986) respectivamente, discutem-se características destes modelos e apresentam-se algumas extensões ao modelo GARCH, incluindo aí alguns modelos GARCH multivariados. Passa-se então por uma rápida apresentação do conceito de VaR (Value at Risk), que será o objetivo da parte empírica. Nesta, usando dados de 02 de Janeiro de 2004 até 25 de Fevereiro de 2015, são feitas uma estimação da variância de um portfólio usando os modelos GARCH, GJR-GARCH e EGARCH e uma previsão do VaR do portfólio a partir da estimação feita anteriormente. Por fim, são apresentados alguns trabalhos que usam os dois modelos conjuntamente, ou seja, que consideram que as taxas ou os fatores que as podem explicam possuem variância variante no tempo.
Resumo:
In this article we consider a control chart based on the sample variances of two quality characteristics. The points plotted on the chart correspond to the maximum value of these two statistics. The main reason to consider the proposed chart instead of the generalized variance |S| chart is its better diagnostic feature, that is, with the new chart it is easier to relate an out-of-control signal to the variables whose parameters have moved away from their in-control values. We study the control chart efficiency considering different shifts in the covariance matrix. In this way, we obtain the average run length (ARL) that measures the effectiveness of a control chart in detecting process shifts. The proposed chart always detects process disturbances faster than the generalized variance |S| chart. The same is observed when the size of the samples is variable, except in a few cases in which the size of the samples switches between small size and very large size.
Resumo:
In this article, we propose new control charts for monitoring the mean vector and the covariance matrix of bivariate processes. The traditional tools used for this purpose are the T (2) and the |S| charts. However, these charts have two drawbacks: (1) the T (2) and the |S| statistics are not easy to compute, and (2) after a signal, they do not distinguish the variable affected by the assignable cause. As an alternative to (1), we propose the MVMAX chart, which only requires the computation of sample means and sample variances. As an alternative to (2), we propose the joint use of two charts based on the non-central chi-square statistic (NCS statistic), named as the NCS charts. Once the NCS charts signal, the user can immediately identify the out-of-control variable. In general, the synthetic MVMAX chart is faster than the NCS charts and the joint T (2) and |S| charts in signaling processes disturbances.
Resumo:
In this article, we consider the T(2) chart with double sampling to control bivariate processes (BDS chart). During the first stage of the sampling, n(1) items of the sample are inspected and two quality characteristics (x; y) are measured. If the Hotelling statistic T(1)(2) for the mean vector of (x; y) is less than w, the sampling is interrupted. If the Hotelling statistic T(1)(2) is greater than CL(1), where CL(1) > w, the control chart signals an out-of-control condition. If w < T(1)(2) <= CL(1), the sampling goes on to the second stage, where the remaining n(2) items of the sample are inspected and T(2)(2) for the mean vector of the whole sample is computed. During the second stage of the sampling, the control chart signals an out-of-control condition when the statistic T(2)(2) is larger than CL(2). A comparative study shows that the BDS chart detects process disturbances faster than the standard bivariate T(2) chart and the adaptive bivariate T(2) charts with variable sample size and/or variable sampling interval.
Resumo:
In this paper, three single-control charts are proposed to monitor individual observations of a bivariate Poisson process. The specified false-alarm risk, their control limits, and ARLs were determined to compare their performances for different types and sizes of shifts. In most of the cases, the single charts presented better performance rather than two separate control charts ( one for each quality characteristic). A numerical example illustrates the proposed control charts.
Resumo:
Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)
Resumo:
The aim of this study was to analyze the weight at birth (BW) and adjusted at 205 (W205), 365 (W365) and 550 (W55O) days in beef buffaloes from Brazil, using two approaches: parametric, by normal distribution, and non-parametric, by kernel function, and thus estimating the genetic, environmental and phenotypic correlation among traits. Information of 5,169 animals at birth (BW), 3,792 at 205 days (W205), 3.883 at 365 days (W365) and 1,524 at 550 days of age (W550) were used. The birth weight distribution presented an evident discrepancy in relation to the normal distribution. However, W205, W365 and W550 presented normal distributions. The birth weight presented weak genetic, environmental, and phenotypic associations with the other weight measurements. on the other hand, the weight traits at 205, 365, 550 days of age showed a high genetic correlation.
Resumo:
Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)