963 resultados para Rischio finanziario, Value-at-Risk, Expected Shortfall


Relevância:

100.00% 100.00%

Publicador:

Resumo:

The argument for the inclusion of real estate in the mixed-asset portfolio has concentrated on examining its effect in reducing the portfolio risk - the time series standard deviation (TSSD), mainly using ex-post time series data. However, the past as such is not really relevant to the long-term institutional investors, such as the insurance companies and pension funds, who are more concerned the terminal wealth (TW) of their investments and the variability of this wealth, the terminal wealth standard deviation (TWSD), since it is from the TW of their investment portfolio that policyholders and pensioners will derive their benefits. These kinds of investors with particular holding period requirements will be less concerned about the within period volatility of their portfolios and more by the possibility that their portfolio returns will fail to finance their liabilities. This variability in TW will be closely linked to the risk of shortfall in the quantity of assets needed to match the institution’s liabilities. The question remains therefore can real estate enhance the TW of the mixed-asset portfolio and/or reduce the variability of the TW. This paper uses annual data from the United Kingdom (UK) for the period 1972-2001 to test whether real estate is an asset class that not only reduces ex-post portfolio risk but also enhances portfolio TW and/or reduces the variability of TW.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

It is widely accepted that some of the most accurate Value-at-Risk (VaR) estimates are based on an appropriately specified GARCH process. But when the forecast horizon is greater than the frequency of the GARCH model, such predictions have typically required time-consuming simulations of the aggregated returns distributions. This paper shows that fast, quasi-analytic GARCH VaR calculations can be based on new formulae for the first four moments of aggregated GARCH returns. Our extensive empirical study compares the Cornish–Fisher expansion with the Johnson SU distribution for fitting distributions to analytic moments of normal and Student t, symmetric and asymmetric (GJR) GARCH processes to returns data on different financial assets, for the purpose of deriving accurate GARCH VaR forecasts over multiple horizons and significance levels.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Quantile forecasts are central to risk management decisions because of the widespread use of Value-at-Risk. A quantile forecast is the product of two factors: the model used to forecast volatility, and the method of computing quantiles from the volatility forecasts. In this paper we calculate and evaluate quantile forecasts of the daily exchange rate returns of five currencies. The forecasting models that have been used in recent analyses of the predictability of daily realized volatility permit a comparison of the predictive power of different measures of intraday variation and intraday returns in forecasting exchange rate variability. The methods of computing quantile forecasts include making distributional assumptions for future daily returns as well as using the empirical distribution of predicted standardized returns with both rolling and recursive samples. Our main findings are that the Heterogenous Autoregressive model provides more accurate volatility and quantile forecasts for currencies which experience shifts in volatility, such as the Canadian dollar, and that the use of the empirical distribution to calculate quantiles can improve forecasts when there are shifts

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The purpose of this article is to explore customer retention strategies and tactics implemented by firms in recession. Our investigations show just how big a challenge many organizations face in their ability to manage customer retention effectively. While leading organizations have embedded real-time customer life cycle management, developed accurate early warning systems, price elasticity models and ‘deal calculators’, the organizations we spoke to have only gone as far as calculating the value at risk and building simple predictive models.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this paper, we study jumps in commodity prices. Unlike assumed in existing models of commodity price dynamics, a simple analysis of the data reveals that the probability of tail events is not constant but depends on the time of the year, i.e. exhibits seasonality. We propose a stochastic volatility jump–diffusion model to capture this seasonal variation. Applying the Markov Chain Monte Carlo (MCMC) methodology, we estimate our model using 20 years of futures data from four different commodity markets. We find strong statistical evidence to suggest that our model with seasonal jump intensity outperforms models featuring a constant jump intensity. To demonstrate the practical relevance of our findings, we show that our model typically improves Value-at-Risk (VaR) forecasts.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this paper, we consider an extension of the recently proposed bivariate Markov-switching multifractal model of Calvet, Fisher, and Thompson [2006. "Volatility Comovement: A Multifrequency Approach." Journal of Econometrics {131}: 179-215]. In particular, we allow correlations between volatility components to be non-homogeneous with two different parameters governing the volatility correlations at high and low frequencies. Specification tests confirm the added explanatory value of this specification. In order to explore its practical performance, we apply the model for computing value-at-risk statistics for different classes of financial assets and compare the results with the baseline, homogeneous bivariate multifractal model and the bivariate DCC-GARCH of Engle [2002. "Dynamic Conditional Correlation: A Simple Class of Multivariate Generalized Autoregressive Conditional Heteroskedasticity Models." Journal of Business & Economic Statistics 20 (3): 339-350]. As it turns out, the multifractal model with heterogeneous volatility correlations provides more reliable results than both the homogeneous benchmark and the DCC-GARCH model. © 2014 Taylor & Francis.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This Thesis is the result of my Master Degree studies at the Graduate School of Economics, Getúlio Vargas Foundation, from January 2004 to August 2006. am indebted to my Thesis Advisor, Professor Luiz Renato Lima, who introduced me to the Econometrics' world. In this Thesis, we study time-varying quantile process and we develop two applications, which are presented here as Part and Part II. Each of these parts was transformed in paper. Both papers were submitted. Part shows that asymmetric persistence induces ARCH effects, but the LMARCH test has power against it. On the other hand, the test for asymmetric dynamics proposed by Koenker and Xiao (2004) has correct size under the presence of ARCH errors. These results suggest that the LM-ARCH and the Koenker-Xiao tests may be used in applied research as complementary tools. In the Part II, we compare four different Value-at-Risk (VaR) methodologies through Monte Cario experiments. Our results indicate that the method based on quantile regression with ARCH effect dominates other methods that require distributional assumption. In particular, we show that the non-robust method ologies have higher probability to predict VaRs with too many violations. We illustrate our findings with an empirical exercise in which we estimate VaR for returns of São Paulo stock exchange index, IBOVESPA, during periods of market turmoil. Our results indicate that the robust method based on quantile regression presents the least number of violations.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nos últimos tempos, mensurar o Risco Operacional (RO) tornou-se o grande desafio para instituições financeiras no mundo todo, principalmente com a implementação das regras de alocação de capital regulatório do Novo Acordo de Capital da Basiléia (NACB). No Brasil, ao final de 2004, o Banco Central (BACEN) estabeleceu um cronograma de metas e disponibilizou uma equipe responsável pela adaptação e implementação dessas regras no sistema financeiro nacional. A Federação de Bancos Brasileiros (FEBRABAN) também divulgou recente pesquisa de gestão de RO envolvendo vários bancos. Todo esse processo trouxe uma vasta e crescente pesquisa e atividades voltadas para a modelagem de RO no Brasil. Em nosso trabalho, medimos o impacto geral nos banco brasileiros, motivado pelas novas regras de alocação de capital de RO envolvendo os modelos mais básicos do NACB. Também introduzimos um modelo avançado de mensuração de risco, chamado Loss Data Distribution (LDA), que alguns especialistas, provenientes do Risco de Mercado, convencionaram chamar de Value-at-Risk Operacional (VaR Operacional.). Ao final desse trabalho apresentamos um caso prático baseado na implementação do LDA ou VaR

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This thesis is composed of three essays referent to the subjects of macroeconometrics and Önance. In each essay, which corresponds to one chapter, the objective is to investigate and analyze advanced econometric techniques, applied to relevant macroeconomic questions, such as the capital mobility hypothesis and the sustainability of public debt. A Önance topic regarding portfolio risk management is also investigated, through an econometric technique used to evaluate Value-at-Risk models. The Örst chapter investigates an intertemporal optimization model to analyze the current account. Based on Campbell & Shillerís (1987) approach, a Wald test is conducted to analyze a set of restrictions imposed to a VAR used to forecast the current account. The estimation is based on three di§erent procedures: OLS, SUR and the two-way error decomposition of Fuller & Battese (1974), due to the presence of global shocks. A note on Granger causality is also provided, which is shown to be a necessary condition to perform the Wald test with serious implications to the validation of the model. An empirical exercise for the G-7 countries is presented, and the results substantially change with the di§erent estimation techniques. A small Monte Carlo simulation is also presented to investigate the size and power of the Wald test based on the considered estimators. The second chapter presents a study about Öscal sustainability based on a quantile autoregression (QAR) model. A novel methodology to separate periods of nonstationarity from stationary ones is proposed, which allows one to identify trajectories of public debt that are not compatible with Öscal sustainability. Moreover, such trajectories are used to construct a debt ceiling, that is, the largest value of public debt that does not jeopardize long-run Öscal sustainability. An out-of-sample forecast of such a ceiling is also constructed, and can be used by policy makers interested in keeping the public debt on a sustainable path. An empirical exercise by using Brazilian data is conducted to show the applicability of the methodology. In the third chapter, an alternative backtest to evaluate the performance of Value-at-Risk (VaR) models is proposed. The econometric methodology allows one to directly test the overall performance of a VaR model, as well as identify periods of an increased risk exposure, which seems to be a novelty in the literature. Quantile regressions provide an appropriate environment to investigate VaR models, since they can naturally be viewed as a conditional quantile function of a given return series. An empirical exercise is conducted for daily S&P500 series, and a Monte Carlo simulation is also presented, revealing that the proposed test might exhibit more power in comparison to other backtests.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Neste trabalho, analisamos a metodologia de cálculo do capital exigido aos bancos brasileiros pelo Banco Central do Brasil, segundo as regras de Basiléia II. O objetivo foi comparar capital regulamentar com capital econômico, medido por modelos de Value at Risk (VaR). Apresentamos exemplos de aplicação destes conceitos em carteiras normalmente negociadas por bancos brasileiros, mostrando a relação entre capital regulamentar e econômico para diversos mercados e estratégias. Tendo em vista as análises realizadas, realçamos os pontos de maior divergência entre os dois tipos de capital. Concluímos enfatizando a importância da revisão de alguns aspectos das regras de Basiléia II no sentido de promover maior convergência entre capital econômico e regulamentar.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A presente dissertação tem como objeto de estudo a superfície de volatilidade implícita de opções européias da paridade Real / Dólar no mercado brasileiro. Este trabalho não tenta explicar as deformações ou os desvios da volatilidade implícita com relação à hipótese de volatilidade constante do modelo de Black & Scholes (1973), mas trata a volatilidade implícita como uma variável financeira interessante por si só, procurando analisar a dinâmica de sua superfície. Para a análise desta superfície, o presente estudo propõe a utilização de uma ferramenta empregada em estudos empíricos de diversos ramos da ciência: a Análise de Componentes Principais – ACP (Principal Component Analysis). As mudanças na superfície de volatilidade alteram o apreçamento das opções de uma carteira. Desta forma, constituem um fator de risco que precisa ser estudado e entendido para o desenvolvimento de estratégias de imunização e de técnicas de gerenciamento de risco, dentre elas o cálculo de Valor em Risco (V@R – Value at Risk). De posse dos resultados obtidos com a análise de componentes principais da superfície de volatilidade implícita, o presente estudo tem por objetivo obter valores limite de variação desta volatilidade implícita, como forma de estimar as conseqüentes variações extremas nos valores de uma carteira de opções. Para tanto, baseia-se em estudos sobre a aplicação da análise de componentes principais da superfície de volatilidade implícita desenvolvidos por Alexander (2001). Estes estudos, por sua vez, são derivados de estudo sobre a dinâmica de curvas de volatilidade proposto por Derman (1999). Para se verificar a eficiência da metodologia proposta, os valores extremos obtidos são testados de acordo com os critérios de teste retroativo propostos pela emenda ao comitê da Basiléia de 1996.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho explora com cuidado o lado específico da implementação de um modelo de alocação de ativos em que o risco é tratado de maneira integrada, não somente através do desvio padrão do portfólio, mas também considerando outras métricas de risco como, por exemplo, o Expected Shortfall. Além disso, utilizamos algumas técnicas de como trabalhar com as variáveis de modo a extrair do mercado os chamados “invariantes de mercado”, fenômenos que se repetem e podem ser modelados como variáveis aleatórias independentes e identicamente distribuídas. Utilizamos as distribuições empíricas dos invariantes, juntamente com o método de Cópulas para gerar um conjunto de cenários multivariados simulados de preços. Esses cenários são independentes de distribuição, portanto são não paramétricos. Através dos mesmos, avaliamos a distribuição de retornos simulados de um portfólio através de um índice de satisfação que é baseado em uma função de utilidade quadrática e utiliza o Expected Shortfall como métrica de risco. O índice de satisfação incorpora o trade-off do investidor entre risco e retorno. Finalmente, escolhemos como alocação ótima aquela que maximiza o índice de satisfação ajustado a um parâmetro de aversão ao risco. Perseguindo esses passos, é possível obter um portfólio no qual a alocação em cada ativo, ou classe de ativos, reflete o prêmio esperado ao risco incorrido.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O objetivo do trabalho é demonstrar que a otimização de uma carteira composta por fundos multimercados brasileiros gera melhores resultados quando a medida de risco utilizada é o Conditional Value-at-Risk. Modelos de otimização de carteira têm como objetivo selecionar ativos que maximizem o retorno do investidor para um determinado nível de risco. Assim, a definição de uma medida apropriada de risco é de fundamental importância para o processo de alocação. A metodologia tradicional de otimização de carteiras, desenvolvida por Markowitz, utiliza como medida de risco a variância dos retornos. Entretanto, a variância é uma medida apenas apropriada para casos em que os retornos são normalmente distribuídos ou em que os investidores possuem funções de utilidade quadrática. Porém, o trabalho mostra que os retornos dos fundos multimercados brasileiros tendem a não apresentar distribuição normal. Logo, para efetuar a otimização de uma carteira composta por fundos multimercados brasileiros é necessário utilizar uma medida de risco alternativa.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O objetivo deste trabalho é analisar o desempenho de estimadores de volatilidade que utilizam valores extremos (máximo, mínimo, abertura e fechamento) para ativos no mercado brasileiro. Discute-se o viés dos estimadores usando como referências o estimador clássico, a volatilidade realizada e a volatilidade implícita de 1 mês da série de opções no dinheiro (ATM - at the money); discute-se a eficiência quanto à previsibilidade da volatilidade futura usando o estimador clássico e a volatilidade implícita defasados um período para frente como variáveis dependentes e a eficiência em si, isto é, quanto ao tamanho da variância do estima-dor. Como representantes de ativos brasileiros, foram escolhidos a paridade BRL/USD spot e o Índice Bovespa. Além de bastante líquidos, esses dois ativos têm bastante importância no mercado brasileiro, seja como benchmark para investimentos, bem como ativos-base para muitos derivativos operados na Bolsa de Mercadorias e Futuros (BM&F) e na Bolsa de Va-lores de São Paulo (Bovespa). A volatilidade do ativo-base é uma das variáveis para o apre-çamento de derivativos como opções; muitas estratégias são montadas, no mercado financei-ro, utilizando-a como referência. A volatilidade também é bastante usada no gerenciamento de riscos, em modelos como o Value at Risk (VaR), por exemplo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Várias metodologias de mensuração de risco de mercado foram desenvolvidas e aprimoradas ao longo das últimas décadas. Enquanto algumas metodologias usam abordagens não-paramétricas, outras usam paramétricas. Algumas metodologias são mais teóricas, enquanto outras são mais práticas, usando recursos computacionais através de simulações. Enquanto algumas metodologias preservam sua originalidade, outras metodologias têm abordagens híbridas, juntando características de 2 ou mais metodologias. Neste trabalho, fizemos uma comparação de metodologias de mensuração de risco de mercado para o mercado financeiro brasileiro. Avaliamos os resultados das metodologias não-paramétricas e paramétricas de mensuração de VaR aplicados em uma carteira de renda fixa, renda variável e renda mista durante o período de 2000 a 2006. As metodologias não-paramétricas avaliadas foram: Simulação Histórica pesos fixos, Simulação Histórica Antitética pesos fixos, Simulação Histórica exponencial e Análise de Cenário. E as metodologias paramétricas avaliadas foram: VaR Delta-Normal pesos fixos, VaR Delta-Normal exponencial (EWMA), Simulação de Monte Carlo pesos fixos e Simulação de Monte Carlo exponencial. A comparação destas metodologias foi feita com base em medidas estatísticas de conservadorismo, precisão e eficiência.