869 resultados para Value-at-Risk


Relevância:

60.00% 60.00%

Publicador:

Resumo:

We propose two simple evaluation methods for time varying density forecasts of continuous higher dimensional random variables. Both methods are based on the probability integral transformation for unidimensional forecasts. The first method tests multinormal densities and relies on the rotation of the coordinate system. The advantage of the second method is not only its applicability to any continuous distribution but also the evaluation of the forecast accuracy in specific regions of its domain as defined by the user’s interest. We show that the latter property is particularly useful for evaluating a multidimensional generalization of the Value at Risk. In simulations and in an empirical study, we examine the performance of both tests.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Les adolescents qui décrochent de l’école secondaire arrivent difficilement à s’intégrer dans une économie axée sur le savoir et éprouvent plusieurs problèmes d’ajustement à l’adolescence et à l’âge adulte. Pour prévenir le décrochage scolaire, une étape cruciale consiste à dépister efficacement les élèves les plus à risque. Deux formes de dépistage axées sur des données peuvent être utilisées en milieu scolaire: une forme utilisant des informations auto-rapportées par les élèves à partir de questionnaires, et une autre fondée sur des informations administratives consignées au dossier des élèves. Toutefois, à notre connaissance, l’efficacité de ces différentes modalités n’a jamais été comparée directement. De plus, il est possible que l’efficacité relative de ces outils de dépistage soit différente selon le sexe de l’élève. Cette étude vise à comparer différents outils de dépistage pour prédire le décrochage scolaire, en tenant compte de l’effet modérateur du sexe. Les outils utilisés seront a) un questionnaire auto-rapporté validé (Archambault et Janosz, 2009) et b) un outil conçu à l’aide de données administratives, créé par une commission scolaire du Québec. La comparaison de ces outils est effectuée en termes de qualités psychométriques et d’aspect pratique pour le milieu scolaire. Pour ce faire, un échantillon de 1557 élèves (50% de garçons), âgé entre 14 et 18 ans est utilisé. Les résultats indiquent que l’indice administratif possède une capacité discriminante adéquate, mais inférieure à celle de l’indice auto-rapportée, jugée excellente. L’effet modérateur du sexe n’a pas été confirmé. Les avantages et inconvénients respectifs de ces deux modes de dépistage sont discutés.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

El presente proyecto tiene como objeto identificar cuáles son los conceptos de salud, enfermedad, epidemiología y riesgo aplicables a las empresas del sector de extracción de petróleo y gas natural en Colombia. Dado, el bajo nivel de predicción de los análisis financieros tradicionales y su insuficiencia, en términos de inversión y toma de decisiones a largo plazo, además de no considerar variables como el riesgo y las expectativas de futuro, surge la necesidad de abordar diferentes perspectivas y modelos integradores. Esta apreciación es pertinente dentro del sector de extracción de petróleo y gas natural, debido a la creciente inversión extranjera que ha reportado, US$2.862 millones en el 2010, cifra mayor a diez veces su valor en el año 2003. Así pues, se podrían desarrollar modelos multi-dimensional, con base en los conceptos de salud financiera, epidemiológicos y estadísticos. El termino de salud y su adopción en el sector empresarial, resulta útil y mantiene una coherencia conceptual, evidenciando una presencia de diferentes subsistemas o factores interactuantes e interconectados. Es necesario mencionar también, que un modelo multidimensional (multi-stage) debe tener en cuenta el riesgo y el análisis epidemiológico ha demostrado ser útil al momento de determinarlo e integrarlo en el sistema junto a otros conceptos, como la razón de riesgo y riesgo relativo. Esto se analizará mediante un estudio teórico-conceptual, que complementa un estudio previo, para contribuir al proyecto de finanzas corporativas de la línea de investigación en Gerencia.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

El presente trabajo de grado busca definir cuál es el mejor método para determinar el valor en riesgo del contrato de futuro de energía eléctrica que se transa en Colombia, para cumplir con este objetivo se toma como referencia el marco histórico del VaR y de los futuros seguido de las características de la fijación de precios, la estructura del contrato, que políticas y métodos hay para cubrirse del riesgo y como se realiza en otros países, realizando algunos cálculos de los modelos más tradicionales del Var para luego incorporarlo al marco colombiano y al ente supervisor en este caso la Superintendencia Financiera de Colombia.. Además de revisar las diferentes teorías de internacionalización económicas, de proceso y redes aplicadas al sector energético en Colombia., evaluando su proceso, alcance y posibles mercados futuros.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

En este trabajo se implementa una metodología para incluir momentos de orden superior en la selección de portafolios, haciendo uso de la Distribución Hiperbólica Generalizada, para posteriormente hacer un análisis comparativo frente al modelo de Markowitz.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

En este trabajo se realiza la medición del riesgo de mercado para el portafolio de TES de un banco colombiano determinado, abordando el pronóstico de valor en riesgo (VaR) mediante diferentes modelos multivariados de volatilidad: EWMA, GARCH ortogonal, GARCH robusto, así como distintos modelos de VaR con distribución normal y distribución t-student, evaluando su eficiencia con las metodologías de backtesting propuestas por Candelon et al. (2011) con base en el método generalizado de momentos, junto con los test de independencia y de cobertura condicional planteados por Christoffersen y Pelletier (2004) y por Berkowitz, Christoffersen y Pelletier (2010). Los resultados obtenidos demuestran que la mejor especificación del VaR para la medición del riesgo de mercado del portafolio de TES de los bancos colombianos, es el construido a partir de volatilidades EWMA y basado en la distribución normal, ya que satisface las hipótesis de cobertura no condicional, independencia y cobertura condicional, al igual que los requerimientos estipulados en Basilea II y en la normativa vigente en Colombia.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Las actividades de mantenimiento automotriz en el sector de autopartes conlleva el uso de agentes químicos bajo diversas circunstancias de exposición, tanto en las condiciones de manipulación de productos químicos como a las características propias de cada actividad de mantenimiento asociado a las tareas específicas del trabajo. Tradicionalmente la evaluación de contaminantes químicos desde la visión de la Higiene Ocupacional incluye la evaluación cuantitativa de la exposición mediante técnicas instrumentales concretas y estandarizadas, determinando el nivel de concentración en aire a la cual un trabajador se ve expuesto y que, en comparación con valores límites permisibles (VLPs), inducen el establecimiento de medidas de control y vigilancia, según el nivel de riesgo caracterizado. Sin embargo es evidente la limitación de la implementación de esta sistemática en particular en micros y pequeñas empresas que carecen de los recursos suficientes para abordar la problemática de forma objetiva. En este contexto diversas metodologías de evaluación cualitativa o subjetiva se han desarrollado por distintas organizaciones en el mundo con el fin de disminuir la brecha entre el establecimiento de medidas de control y la valoración del riesgo, ofreciendo alternativas confiables para la toma de decisiones preventivas sin la necesidad de acudir a mediciones cuantitativas. Mediante la presente investigación se pretende validar la efectividad en el uso de una herramienta de evaluación simplificada del riesgo químico propuesta por el INRS (Institut National de Recherche et de Sécurité Francés) mediante la determinación del perfil de exposición potencial a contaminantes químicos de la población laboral de 36 almacenes de autopartes ubicados en el barrio la Paz de la ciudad de Bogotá, Colombia, divididos según énfasis de actividades en Partes Externas, Partes Eléctricas e Inyección, Partes Mecánicas, Partes Múltiples, a través de un estudio de corte transversal. El estudio permitió Jerarquizar el riesgo potencial, valorar el riesgo vía inhalatoria y dérmica para finalmente construir el perfil de exposición potencial a contaminantes químicos de trabajadores. La información de las variables de análisis fue consolidada en una herramienta informática diseñada para tal fin, la cual facilito la administración de los datos y su respectivo análisis. Con base en los hallazgos fue posible establecer los productos químicos que de acuerdo a las condiciones de trabajo y circunstancias de exposición sugieren medidas específicas para la disminución del riesgo potencial de acuerdo a la calificación global de los agentes, permitiendo deducir la viabilidad de la aplicación de herramientas de valoración cualitativa para la evaluación del riesgo químico como estrategia de prevención primaria.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La dependencia entre las series financieras, es un parámetro fundamental para la estimación de modelos de Riesgo. El Valor en Riesgo (VaR) es una de las medidas más importantes utilizadas para la administración y gestión de Riesgos Financieros, en la actualidad existen diferentes métodos para su estimación, como el método por simulación histórica, el cual no asume ninguna distribución sobre los retornos de los factores de riesgo o activos, o los métodos paramétricos que asumen normalidad sobre las distribuciones. En este documento se introduce la teoría de cópulas, como medida de dependencia entre las series, se estima un modelo ARMA-GARCH-Cópula para el cálculo del Valor en Riesgo de un portafolio compuesto por dos series financiera, la tasa de cambio Dólar-Peso y Euro-Peso. Los resultados obtenidos muestran que la estimación del VaR por medio de copulas es más preciso en relación a los métodos tradicionales.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

This paper analyzes the measure of systemic importance ∆CoV aR proposed by Adrian and Brunnermeier (2009, 2010) within the context of a similar class of risk measures used in the risk management literature. In addition, we develop a series of testing procedures, based on ∆CoV aR, to identify and rank the systemically important institutions. We stress the importance of statistical testing in interpreting the measure of systemic importance. An empirical application illustrates the testing procedures, using equity data for three European banks.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

This paper introduces a method for simulating multivariate samples that have exact means, covariances, skewness and kurtosis. We introduce a new class of rectangular orthogonal matrix which is fundamental to the methodology and we call these matrices L matrices. They may be deterministic, parametric or data specific in nature. The target moments determine the L matrix then infinitely many random samples with the same exact moments may be generated by multiplying the L matrix by arbitrary random orthogonal matrices. This methodology is thus termed “ROM simulation”. Considering certain elementary types of random orthogonal matrices we demonstrate that they generate samples with different characteristics. ROM simulation has applications to many problems that are resolved using standard Monte Carlo methods. But no parametric assumptions are required (unless parametric L matrices are used) so there is no sampling error caused by the discrete approximation of a continuous distribution, which is a major source of error in standard Monte Carlo simulations. For illustration, we apply ROM simulation to determine the value-at-risk of a stock portfolio.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

It is widely accepted that some of the most accurate Value-at-Risk (VaR) estimates are based on an appropriately specified GARCH process. But when the forecast horizon is greater than the frequency of the GARCH model, such predictions have typically required time-consuming simulations of the aggregated returns distributions. This paper shows that fast, quasi-analytic GARCH VaR calculations can be based on new formulae for the first four moments of aggregated GARCH returns. Our extensive empirical study compares the Cornish–Fisher expansion with the Johnson SU distribution for fitting distributions to analytic moments of normal and Student t, symmetric and asymmetric (GJR) GARCH processes to returns data on different financial assets, for the purpose of deriving accurate GARCH VaR forecasts over multiple horizons and significance levels.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Quantile forecasts are central to risk management decisions because of the widespread use of Value-at-Risk. A quantile forecast is the product of two factors: the model used to forecast volatility, and the method of computing quantiles from the volatility forecasts. In this paper we calculate and evaluate quantile forecasts of the daily exchange rate returns of five currencies. The forecasting models that have been used in recent analyses of the predictability of daily realized volatility permit a comparison of the predictive power of different measures of intraday variation and intraday returns in forecasting exchange rate variability. The methods of computing quantile forecasts include making distributional assumptions for future daily returns as well as using the empirical distribution of predicted standardized returns with both rolling and recursive samples. Our main findings are that the Heterogenous Autoregressive model provides more accurate volatility and quantile forecasts for currencies which experience shifts in volatility, such as the Canadian dollar, and that the use of the empirical distribution to calculate quantiles can improve forecasts when there are shifts

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The purpose of this article is to explore customer retention strategies and tactics implemented by firms in recession. Our investigations show just how big a challenge many organizations face in their ability to manage customer retention effectively. While leading organizations have embedded real-time customer life cycle management, developed accurate early warning systems, price elasticity models and ‘deal calculators’, the organizations we spoke to have only gone as far as calculating the value at risk and building simple predictive models.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

In this paper, we study jumps in commodity prices. Unlike assumed in existing models of commodity price dynamics, a simple analysis of the data reveals that the probability of tail events is not constant but depends on the time of the year, i.e. exhibits seasonality. We propose a stochastic volatility jump–diffusion model to capture this seasonal variation. Applying the Markov Chain Monte Carlo (MCMC) methodology, we estimate our model using 20 years of futures data from four different commodity markets. We find strong statistical evidence to suggest that our model with seasonal jump intensity outperforms models featuring a constant jump intensity. To demonstrate the practical relevance of our findings, we show that our model typically improves Value-at-Risk (VaR) forecasts.