951 resultados para risk measurement
Resumo:
Bármennyire szeretne is egy bank (vállalat, biztosító) csak az üzletre koncentrálni, nem térhet ki a pénzügyi (hitel-, piaci, operációs, egyéb) kockázatok elől, amelyeket mérnie és fedeznie kell. A teljes fedezés vagy nagyon költséges, vagy nem is lehetséges, így a csőd elkerülésre minden gazdálkodó egységnek tartania kell valamennyi kockázatmentes, likvid tőkét. Koherens kockázatmérésre van szükség: az allokált tőkének tükröznie kell a kockázatokat - azonban még akkor is felmerül elosztási probléma, ha jól tudjuk mérni azokat. A diverzifikációs hatásoknak köszönhetően egy portfólió teljes kockázata általában kisebb, mint a portfóliót alkotó alportfóliók kockázatának összege. A koherens tőkeallokáció során azzal a kérdéssel kell foglalkoznunk, hogy mennyi tőkét osszunk az alportfóliókra, vagyis hogyan osszuk el „korrekt” módon a diverzifikáció előnyeit. Így megkapjuk az eszközök kockázathoz való hozzájárulását. A tanulmányban játékelmélet alkalmazásával, összetett opciós példákon keresztül bemutatjuk a kockázatok következetes mérését és felosztását, felhívjuk a figyelmet a következetlenségek veszélyeire, valamint megvizsgáljuk, hogy a gyakorlatban alkalmazott kockázatmérési módszerek [különösen a kockáztatott érték (VaR)] mennyire felelnek meg az elmélet által szabott követelményeknek. ____________________ However much a bank (or company or insurance provider) concentrates only on business, it cannot avoid financial (credit, market, operational or other) risks that need to be measured and covered. Total cover is either very expensive or not even possible, so that every business unit has to hold some risk-free liquid capital to avoid insolvency. What it needs is coherent risk measurement: the capital allocated has to match the risks, but even if the risks are measured well, distribution problems can still arise. Thanks to diversification effects, the total risk of a portfolio is less than the sum of the risks of its sub-portfolios. Coherent capital allocation entails addressing the question of how much capital to divide among the sub-portfolios, or how to distribute ‘correctly’ the advantages of diversification. This yields the contribution of the assets to the risk. The study employs game theory and examples of compound options to demonstrate coherent measurement and distribution of risks. Attention is drawn to the dangers of inconsistencies. The authors examine how far the methods of risk measurement applied in practice (notably VaR—value at risk) meet the requirements set in theory.
Resumo:
Traditionally navigational safety analyses rely on historical collision data which is often hampered because of low collision counts, insufficiency in explaining collision causation, and reactive approach to safety. A promising alternative approach that overcomes these problems is using navigational traffic conflicts or near-misses as an alternative to the collision data. This book discusses how traffic conflicts can effectively be used in modeling of port water collision risks. Techniques for measuring and predicting collision risks in fairways, intersections, and anchorages are discussed by utilizing advanced statistical models. Risk measurement models, which quantitatively measure collision risks in waterways, are discussed. To predict risks, a hierarchical statistical modeling technique is discussed which identifies the factors influencing the risks. The modeling techniques are illustrated for Singapore port data. Results showed that traffic conflicts are an ethically appealing alternative to collision data for fast, reliable and effective safety assessment, thus possessing great potential for managing collision risks in port waters.
Resumo:
In this paper, a stochastic programming approach is proposed for trading wind energy in a market environment under uncertainty. Uncertainty in the energy market prices is the main cause of high volatility of profits achieved by power producers. The volatile and intermittent nature of wind energy represents another source of uncertainty. Hence, each uncertain parameter is modeled by scenarios, where each scenario represents a plausible realization of the uncertain parameters with an associated occurrence probability. Also, an appropriate risk measurement is considered. The proposed approach is applied on a realistic case study, based on a wind farm in Portugal. Finally, conclusions are duly drawn. (C) 2011 Elsevier Ltd. All rights reserved.
Resumo:
Le sujet principal de cette thèse porte sur les mesures de risque. L'objectif général est d'investiguer certains aspects des mesures de risque dans les applications financières. Le cadre théorique de ce travail est celui des mesures cohérentes de risque telle que définie dans Artzner et al (1999). Mais ce n'est pas la seule classe de mesure du risque que nous étudions. Par exemple, nous étudions aussi quelques aspects des "statistiques naturelles de risque" (en anglais natural risk statistics) Kou et al (2006) et des mesures convexes du risque Follmer and Schied(2002). Les contributions principales de cette thèse peuvent être regroupées selon trois axes: allocation de capital, évaluation des risques et capital requis et solvabilité. Dans le chapitre 2 nous caractérisons les mesures de risque avec la propriété de Lebesgue sur l'ensemble des processus bornés càdlàg (continu à droite, limité à gauche). Cette caractérisation nous permet de présenter deux applications dans l'évaluation des risques et l'allocation de capital. Dans le chapitre 3, nous étendons la notion de statistiques naturelles de risque à l'espace des suites infinies. Cette généralisation nous permet de construire de façon cohérente des mesures de risque pour des bases de données de n'importe quelle taille. Dans le chapitre 4, nous discutons le concept de "bonnes affaires" (en anglais Good Deals), pour notamment caractériser les situations du marché où ces positions pathologiques sont présentes. Finalement, dans le chapitre 5, nous essayons de relier les trois chapitres en étendant la définition de "bonnes affaires" dans un cadre plus large qui comprendrait les mesures de risque analysées dans les chapitres 2 et 3.
Resumo:
Traditional inventory models focus on risk-neutral decision makers, i.e., characterizing replenishment strategies that maximize expected total profit, or equivalently, minimize expected total cost over a planning horizon. In this paper, we propose a framework for incorporating risk aversion in multi-period inventory models as well as multi-period models that coordinate inventory and pricing strategies. In each case, we characterize the optimal policy for various measures of risk that have been commonly used in the finance literature. In particular, we show that the structure of the optimal policy for a decision maker with exponential utility functions is almost identical to the structure of the optimal risk-neutral inventory (and pricing) policies. Computational results demonstrate the importance of this approach not only to risk-averse decision makers, but also to risk-neutral decision makers with limited information on the demand distribution.
Resumo:
In the article the author considers and analyzes operations and functions on risk variables. She takes into account the following variables: the sum of risk variables, its product, multiplication by a constant, division, maximum, minimum and median of a sum of random variables. She receives the formulas for probability distribution and basic distribution parameters. She conducts the analysis for dependent and independent random variables. She propose the examples of the situations in the economy and production management of risk modelled by this operations. The analysis is conducted with the way of mathematical proving. Some of the formulas presented are taken from the literature but others are the permanent results of the author.
Resumo:
O objetivo deste estudo é propor a implementação de um modelo estatístico para cálculo da volatilidade, não difundido na literatura brasileira, o modelo de escala local (LSM), apresentando suas vantagens e desvantagens em relação aos modelos habitualmente utilizados para mensuração de risco. Para estimação dos parâmetros serão usadas as cotações diárias do Ibovespa, no período de janeiro de 2009 a dezembro de 2014, e para a aferição da acurácia empírica dos modelos serão realizados testes fora da amostra, comparando os VaR obtidos para o período de janeiro a dezembro de 2014. Foram introduzidas variáveis explicativas na tentativa de aprimorar os modelos e optou-se pelo correspondente americano do Ibovespa, o índice Dow Jones, por ter apresentado propriedades como: alta correlação, causalidade no sentido de Granger, e razão de log-verossimilhança significativa. Uma das inovações do modelo de escala local é não utilizar diretamente a variância, mas sim a sua recíproca, chamada de “precisão” da série, que segue uma espécie de passeio aleatório multiplicativo. O LSM captou todos os fatos estilizados das séries financeiras, e os resultados foram favoráveis a sua utilização, logo, o modelo torna-se uma alternativa de especificação eficiente e parcimoniosa para estimar e prever volatilidade, na medida em que possui apenas um parâmetro a ser estimado, o que representa uma mudança de paradigma em relação aos modelos de heterocedasticidade condicional.
Resumo:
This report fully summarises a project designed to enhance commercial real estate performance within both operational and investment contexts through the development of a model aimed at supporting improved decision-making. The model is based on a risk adjusted discounted cash flow, providing a valuable toolkit for building managers, owners, and potential investors for evaluating individual building performance in terms of financial, social and environmental criteria over the complete life-cycle of the asset. The ‘triple bottom line’ approach to the evaluation of commercial property has much significance for the administrators of public property portfolios in particular. It also has applications more generally for the wider real estate industry given that the advent of ‘green’ construction requires new methods for evaluating both new and existing building stocks. The research is unique in that it focuses on the accuracy of the input variables required for the model. These key variables were largely determined by market-based research and an extensive literature review, and have been fine-tuned with extensive testing. In essence, the project has considered probability-based risk analysis techniques that required market-based assessment. The projections listed in the partner engineers’ building audit reports of the four case study buildings were fed into the property evaluation model developed by the research team. The results are strongly consistent with previously existing, less robust evaluation techniques. And importantly, this model pioneers an approach for taking full account of the triple bottom line, establishing a benchmark for related research to follow. The project’s industry partners expressed a high degree of satisfaction with the project outcomes at a recent demonstration seminar. The project in its existing form has not been geared towards commercial applications but it is anticipated that QDPW and other industry partners will benefit greatly by using this tool for the performance evaluation of property assets. The project met the objectives of the original proposal as well as all the specified milestones. The project has been completed within budget and on time. This research project has achieved the objective by establishing research foci on the model structure, the key input variable identification, the drivers of the relevant property markets, the determinants of the key variables (Research Engine no.1), the examination of risk measurement, the incorporation of risk simulation exercises (Research Engine no.2), the importance of both environmental and social factors and, finally the impact of the triple bottom line measures on the asset (Research Engine no. 3).
Resumo:
Malgré les avancées médicales, la prédiction précoce du devenir développemental des enfants nés prématurément demeure un défi. Ces enfants sont à risque de séquelles plus ou moins sévères telles l'infirmité motrice d'origine cérébrale, les déficiences intellectuelles et sensorielles ainsi que les difficultés d'apprentissage. Afin de diminuer l’impact fonctionnel de ces séquelles, l’identification de marqueurs précoces devient un enjeu important. Dans le contexte actuel de ressources financières et humaines limitées, seuls les enfants nés avant 29 semaines de gestation ou avec un poids de naissance (PN) <1250g sont systématiquement suivis, laissant pour compte 95% des enfants prématurés. L’identification de marqueurs précoces permettrait de cibler les enfants nés après 28 semaines de gestation porteurs de séquelles. Le principal objectif des présents travaux visait à évaluer l’utilité de l’Évaluation neurologique d’Amiel-Tison (ENAT) dans l’identification et le suivi des enfants nés entre 29 et 37 semaines de gestation et qui présenteront des problèmes neurodéveloppementaux à l’âge corrigé (AC) de 24 mois. Plus précisément, la fidélité inter-examinateurs, la stabilité ainsi que la validité prédictive de l’ENAT ont été évaluées. La cohorte était composée initialement de 173 enfants nés entre 290/7 et 370/7 semaines de gestation, avec un PN<2500g et ayant passé au moins 24 heures à l’unité de soins néonatals du CHU Sainte-Justine. Les enfants étaient évalués avec l’ENAT à terme et aux AC de 4, 8, 12 et 24 mois. À l’AC de 24 mois, leur développement était évalué à l’aide du Bayley Scales of Infant Development–II. Les principaux résultats révèlent une excellente fidélité inter-examinateurs ainsi qu’une bonne stabilité au cours des deux premières années de vie du statut et des signes neurologiques. Des différences significatives à l’AC de deux ans ont été relevées aux performances développementales en fonction du statut neurologique à terme, qui constitue l’un des meilleurs facteurs prédictifs de ces performances. Les résultats encouragent l’intégration du statut neurologique tel que mesuré par l’ENAT comme marqueur précoce dans le cours d’une surveillance neurodéveloppementale des enfants les plus à risque.
Resumo:
La présente étude offre un panorama sur les interactions et les liens qui existent entre la volatilité des taux de change et les échanges internationaux. L’objectif de ce travail est donc de présenter théoriquement cette relation, puis d’examiner empiriquement l’existence de cette relation de causalité entre le commerce international et la variabilité des taux de change. La littérature portant sur la question se considère dans l'ensemble comme contradictoire et supporte plusieurs controverses qui ne nous permettent pas de conclure clairement quant à la relation en question. Nous essayerons de pousser ces recherches un peu plus loin en réexaminant cette évidence pour le canada et en offrant une investigation empirique sur l’existence éventuelle d'un impact significatif de la volatilité sur les flux désagrégées des exportations sectoriels du canada vers son partenaire, les États-Unis. Nous y examinons la réponse empirique de 5 secteurs d’exportations canadiennes aux variations du taux de change réel effectif entre le canada et les États- Unis. Toutefois, nos résultats obtenus ne nous permettent pas de conclure quant à la significativité relative d’un impact de volatilité de taux de change sur les exportations sectoriels désagrégées destinées aux États-Unis. Dans l’ensemble, même si on admet que les signe des coefficients estimés de la variable de risque dans chaque secteur est négatif, nous arrivons à la conclusion que la volatilité ne semble pas avoir un impact statistiquement significatif sur le volume réelle des exportations du Canada vers les États-Unis.
Resumo:
Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.
Resumo:
Actualmente se considera que las organizaciones con resultados positivos y rendimientos crecientes tienen aspectos y características particulares que las diferencian de aquellas organizaciones que no obtienen los mejores resultados en el mercado. Para que las organizaciones sean saludables deben garantizar el bienestar del empleado y comprometerse con el mejoramiento continuo del mismo. Es así como surgen las escalas de medidas de bienestar, las cuales contribuyen directamente al bienestar del empleado y sus resultados positivos dentro de la organización. Este estudio hace referencia a las medidas de bienestar más utilizadas en un periodo de diez años (2002-2012), con el propósito de establecer la relación entre las medidas de bienestar, el bienestar de los empleados y las organizaciones saludables. Para determinar dicha relación, se llevó a cabo un análisis detallado de los estudios realizados sobre las escalas de medidas de bienestar utilizadas durante el periodo de tiempo 2002 y 2012. Los resultados arrojados señalan que las medidas de bienestar más utilizadas durante este periodo son: Satisfacción laboral, Clima organizacional, Engagement y Calidad de vida laboral, mientras que las cuatro medidas de bienestar menos utilizadas son: Remuneración y Bienestar subjetivo.
Resumo:
En este trabajo se realiza la medición del riesgo de mercado para el portafolio de TES de un banco colombiano determinado, abordando el pronóstico de valor en riesgo (VaR) mediante diferentes modelos multivariados de volatilidad: EWMA, GARCH ortogonal, GARCH robusto, así como distintos modelos de VaR con distribución normal y distribución t-student, evaluando su eficiencia con las metodologías de backtesting propuestas por Candelon et al. (2011) con base en el método generalizado de momentos, junto con los test de independencia y de cobertura condicional planteados por Christoffersen y Pelletier (2004) y por Berkowitz, Christoffersen y Pelletier (2010). Los resultados obtenidos demuestran que la mejor especificación del VaR para la medición del riesgo de mercado del portafolio de TES de los bancos colombianos, es el construido a partir de volatilidades EWMA y basado en la distribución normal, ya que satisface las hipótesis de cobertura no condicional, independencia y cobertura condicional, al igual que los requerimientos estipulados en Basilea II y en la normativa vigente en Colombia.
Resumo:
This paper analyzes the measure of systemic importance ∆CoV aR proposed by Adrian and Brunnermeier (2009, 2010) within the context of a similar class of risk measures used in the risk management literature. In addition, we develop a series of testing procedures, based on ∆CoV aR, to identify and rank the systemically important institutions. We stress the importance of statistical testing in interpreting the measure of systemic importance. An empirical application illustrates the testing procedures, using equity data for three European banks.
Resumo:
Thesis (Master's)--University of Washington, 2016-06