268 resultados para Garch
Resumo:
Este texto describe en detalle diversas metodologías que permiten calcular dos medidas utilizadas para cuantificar el riesgo de mercado asociado a un activo financiero: el valor en riesgo VAR y el Expected Shortfall (ES). Los métodos analizados se basan en técnicas estadísticas apropiadas para el caso de series financieras, como son los modelos ARIMA, GARCH y modelos basados en la teoría del valor extremo. Estas metodologías se aplican a las variaciones diarias de la tasa interbancaria de Colombia para el período comprendido entre 1995 y 2004. Los conceptos utilizados en este texto suponen que el lector esté familiarizado con algunos elementos básicos de estadística, series de tiempo y finanzas. Se trata, por tanto, de un texto escrito para estudiantes de economía y finanzas de últimos cursos de pregrado, maestría y para profesionales interesados en el tema.
Resumo:
Este trabajo se concentra en el estudio de los mecanismos de transmisión de información entre las volatilidades del diferencial de tasas de interés de Colombia y Estados Unidos tanto en el corto como en el largo plazo y la tasa de cambio usando tres diferentes tipos de modelos GARCH multivariados, encontrando que hay evidencia de spillovers de volatilidad de los diferenciales de tasas de interés hacia la tasa de cambio, que esta transmisión de información persiste en el tiempo y que los choques exógenos a estos mercados no tienen carácter asimétrico.
Resumo:
En este trabajo se realiza la medición del riesgo de mercado para el portafolio de TES de un banco colombiano determinado, abordando el pronóstico de valor en riesgo (VaR) mediante diferentes modelos multivariados de volatilidad: EWMA, GARCH ortogonal, GARCH robusto, así como distintos modelos de VaR con distribución normal y distribución t-student, evaluando su eficiencia con las metodologías de backtesting propuestas por Candelon et al. (2011) con base en el método generalizado de momentos, junto con los test de independencia y de cobertura condicional planteados por Christoffersen y Pelletier (2004) y por Berkowitz, Christoffersen y Pelletier (2010). Los resultados obtenidos demuestran que la mejor especificación del VaR para la medición del riesgo de mercado del portafolio de TES de los bancos colombianos, es el construido a partir de volatilidades EWMA y basado en la distribución normal, ya que satisface las hipótesis de cobertura no condicional, independencia y cobertura condicional, al igual que los requerimientos estipulados en Basilea II y en la normativa vigente en Colombia.
Resumo:
La dependencia entre las series financieras, es un parámetro fundamental para la estimación de modelos de Riesgo. El Valor en Riesgo (VaR) es una de las medidas más importantes utilizadas para la administración y gestión de Riesgos Financieros, en la actualidad existen diferentes métodos para su estimación, como el método por simulación histórica, el cual no asume ninguna distribución sobre los retornos de los factores de riesgo o activos, o los métodos paramétricos que asumen normalidad sobre las distribuciones. En este documento se introduce la teoría de cópulas, como medida de dependencia entre las series, se estima un modelo ARMA-GARCH-Cópula para el cálculo del Valor en Riesgo de un portafolio compuesto por dos series financiera, la tasa de cambio Dólar-Peso y Euro-Peso. Los resultados obtenidos muestran que la estimación del VaR por medio de copulas es más preciso en relación a los métodos tradicionales.
Resumo:
This paper analyzes the measure of systemic importance ∆CoV aR proposed by Adrian and Brunnermeier (2009, 2010) within the context of a similar class of risk measures used in the risk management literature. In addition, we develop a series of testing procedures, based on ∆CoV aR, to identify and rank the systemically important institutions. We stress the importance of statistical testing in interpreting the measure of systemic importance. An empirical application illustrates the testing procedures, using equity data for three European banks.
Resumo:
In this paper we analyze the spread of shocks across assets markets in eight Latin American countries. First, we measure the extent of markets reactions with the Principal Components Analysis. And second, we investigate the volatility of assets markets based in ARCH-GARCH models in function of the principal components retained in the first stage. Our results do not support the existence of financial contagion, but of interdependence in most of the cases and a slight increase in the sensibility of markets to recent shocks.
Resumo:
Financial integration has been pursued aggressively across the globe in the last fifty years; however, there is no conclusive evidence on the diversification gains (or losses) of such efforts. These gains (or losses) are related to the degree of comovements and synchronization among increasingly integrated global markets. We quantify the degree of comovements within the integrated Latin American market (MILA). We use dynamic correlation models to quantify comovements across securities as well as a direct integration measure. Our results show an increase in comovements when we look at the country indexes, however, the increase in the trend of correlation is previous to the institutional efforts to establish an integrated market in the region. On the other hand, when we look at sector indexes and an integration measure, we find a decreased in comovements among a representative sample of securities form the integrated market.
Resumo:
Este documento revisa y aplica técnicas recientemente desarrolladas para la estimación bayesiana y la selección de modelos en el contexto del modelaje de series de tiempo para la volatilidad estocástica. Luego de ofrecer una revisión de la literatura sobre modelos generalizados autorregresivos condicionales, modelos de volatilidad estocástica y los resultados relevantes en métodos de cadenas de Markov y Montecarlo, se muestra un ejemplo aplicando dichas técnicas. La metodología de siete modelos diferentes se aplica a una serie de tiempo de la tasa de cambio semanal entre Estados Unidos y Colombia. El modelo GARCH, que utiliza una distribución Pearson tipo IV, se prefiere por su técnica de selección (Salto Reversible MCMC) en comparación a otros modelos, entre los cuales se incluyen modelos de volatilidad estocástica con una distribución probabilística T-student.
Resumo:
El presente estudio está dirigido al análisis del cálculo de volatilidad de la norma de liquidez estructural del sistema financiero ecuatoriano, tomando en consideración, que hace más de una década que se emitió la respectiva normativa, no ha sufrido cambios de fondo, no obstante de que el riesgo de liquidez al que se encuentran expuestas las instituciones financieras, y en particular la banca privada en el Ecuador materia de este estudio, es el de mayor sensibilidad e impacto en la sociedad. Dentro de este contexto, se realizó un análisis del marco teórico de la volatilidad, con la finalidad de identificar, las metodologías de valor en riesgo utilizadas, la forma de cálculo aplicado en países vecinos como Perú y Colombia y, la simulación de diferentes escenarios de horizontes de tiempo e intervalos utilizados para el cálculo de rendimientos, esto último, con el propósito de justificar un mayor requerimiento de liquidez, en resguardo de las amenazas a las que se encuentra expuesta la banca privada, por el retiro de recursos de los depositantes y de eventos que le pueden impactar adversamente del entorno económico; adicionalmente, se analizan las distribuciones de frecuencias de las series de activos líquidos y fuentes de fondeo para el período enero 2007 a septiembre 2014, con el propósito de identificar, si cumplen con la teoría de límite central, y descartar de que exista el fenómeno de heterocedasticidad condicionada, para ello necesariamente, hubo que aplicar los modelos Arima y Garch. Concluye el estudio, con la cuantificación de pérdidas esperadas, propuesto a través de un ajuste al cálculo de volatilidad, estimado a través de la Simulación de Montecarlo y de la incorporación de un riesgo adicional identificado en el rubro de activos líquidos y de aspectos que debería incorporar la normativa, a efectos de establecer umbrales de riesgo e indicadores que permitan realizar un monitoreo prudencial de los componentes de la liquidez de los bancos privados y establecer resguardos para épocas en decadencia.
Resumo:
La gestión del riesgo de liquidez es fundamental en las instituciones de seguridad social como el ISSFA -más aún cuando sus fuentes de ingreso dependen exclusivamente de la caja fiscal-, cuyo fondo de liquidez estructurado con parte de sus reservas, se mantienen en inversiones en el sistema financiero con rendimientos reales negativos por aplicación normativa del Banco Central. La presente investigación de carácter descriptivo, analiza el comportamiento de las prestaciones y del fondo de liquidez en el periodo 2012-2014, identificando ineficiencias en el uso de los recursos producto de la metodología presupuestaria utilizada para determinar el monto del fondo, por lo que se plantea la aplicación de modelos como el VaR Paramétrico, VaR Histórico y de volatilidad condicional GARCH, para el cálculo del máximo requerimiento de liquidez como base para la definición de un fondo óptimo. Se aplican los modelos sobre la serie de diferencias logarítmicas de los pagos diarios de la prestación de salud del periodo 2010-2014, que presenta alta volatilidad afectada por la naturaleza estocástica de la contingencia que genera la prestación y por factores de riesgo operativo, siendo necesario un ajuste a la fórmula del VaR por cuanto no se calcula la máxima pérdida esperada sino el máximo requerimiento de liquidez. El VaR Paramétrico y el VaR Histórico no generan resultados consistentes sobreestimado el requerimiento de liquidez. El VaR calculado con la esperanza y varianza estimados con el modelo GARCH, tiene un mejor ajuste con los datos reales ya que captura eventos de alta y baja volatilidad, permite reducir en un 84,3% el nivel de excedentes de liquidez observado en el periodo 2012-2014 en la seguridad social militar lo que favorecería la capitalización de sus reservas, siendo una base adecuada para la determinación del fondo de liquidez tomando como referencia el valor mínimo del coeficiente de cobertura de liquidez que recomienda el Comité de Basilea para la gestión del riesgo de liquidez, por lo que se recomienda el uso de este modelo.
Resumo:
This paper compares a number of different extreme value models for determining the value at risk (VaR) of three LIFFE futures contracts. A semi-nonparametric approach is also proposed, where the tail events are modeled using the generalised Pareto distribution, and normal market conditions are captured by the empirical distribution function. The value at risk estimates from this approach are compared with those of standard nonparametric extreme value tail estimation approaches, with a small sample bias-corrected extreme value approach, and with those calculated from bootstrapping the unconditional density and bootstrapping from a GARCH(1,1) model. The results indicate that, for a holdout sample, the proposed semi-nonparametric extreme value approach yields superior results to other methods, but the small sample tail index technique is also accurate.
Resumo:
Major research on equity index dynamics has investigated only US indices (usually the S&P 500) and has provided contradictory results. In this paper a clarification and extension of that previous research is given. We find that European equity indices have quite different dynamics from the S&P 500. Each of the European indices considered may be satisfactorily modelled using either an affine model with price and volatility jumps or a GARCH volatility process without jumps. The S&P 500 dynamics are much more difficult to capture in a jump-diffusion framework.
Resumo:
Recent research has suggested that forecast evaluation on the basis of standard statistical loss functions could prefer models which are sub-optimal when used in a practical setting. This paper explores a number of statistical models for predicting the daily volatility of several key UK financial time series. The out-of-sample forecasting performance of various linear and GARCH-type models of volatility are compared with forecasts derived from a multivariate approach. The forecasts are evaluated using traditional metrics, such as mean squared error, and also by how adequately they perform in a modern risk management setting. We find that the relative accuracies of the various methods are highly sensitive to the measure used to evaluate them. Such results have implications for any econometric time series forecasts which are subsequently employed in financial decisionmaking.
Resumo:
This article examines the characteristics of key measures of volatility for different types of futures contracts to provide a better foundation for modeling volatility behavior and derivative values. Particular attention is focused on analyzing how different measures of volatility affect volatility persistence relationships. Intraday realized measures of volatility are found to be more persistent than daily measures, the type of GARCH procedure used for conditional volatility analysis is critical, and realized volatility persistence is not coherent with conditional volatility persistence. Specifically, although there is a good fit between the realized and conditional volatilities, no coherence exists between their degrees of persistence, a counterintuitive finding that shows realized and conditional volatility measures are not a substitute for one another
Resumo:
This paper investigates the frequency of extreme events for three LIFFE futures contracts for the calculation of minimum capital risk requirements (MCRRs). We propose a semiparametric approach where the tails are modelled by the Generalized Pareto Distribution and smaller risks are captured by the empirical distribution function. We compare the capital requirements form this approach with those calculated from the unconditional density and from a conditional density - a GARCH(1,1) model. Our primary finding is that both in-sample and for a hold-out sample, our extreme value approach yields superior results than either of the other two models which do not explicitly model the tails of the return distribution. Since the use of these internal models will be permitted under the EC-CAD II, they could be widely adopted in the near future for determining capital adequacies. Hence, close scrutiny of competing models is required to avoid a potentially costly misallocation capital resources while at the same time ensuring the safety of the financial system.