39 resultados para VOLATILITY


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Latent variable models in finance originate both from asset pricing theory and time series analysis. These two strands of literature appeal to two different concepts of latent structures, which are both useful to reduce the dimension of a statistical model specified for a multivariate time series of asset prices. In the CAPM or APT beta pricing models, the dimension reduction is cross-sectional in nature, while in time-series state-space models, dimension is reduced longitudinally by assuming conditional independence between consecutive returns, given a small number of state variables. In this paper, we use the concept of Stochastic Discount Factor (SDF) or pricing kernel as a unifying principle to integrate these two concepts of latent variables. Beta pricing relations amount to characterize the factors as a basis of a vectorial space for the SDF. The coefficients of the SDF with respect to the factors are specified as deterministic functions of some state variables which summarize their dynamics. In beta pricing models, it is often said that only the factorial risk is compensated since the remaining idiosyncratic risk is diversifiable. Implicitly, this argument can be interpreted as a conditional cross-sectional factor structure, that is, a conditional independence between contemporaneous returns of a large number of assets, given a small number of factors, like in standard Factor Analysis. We provide this unifying analysis in the context of conditional equilibrium beta pricing as well as asset pricing with stochastic volatility, stochastic interest rates and other state variables. We address the general issue of econometric specifications of dynamic asset pricing models, which cover the modern literature on conditionally heteroskedastic factor models as well as equilibrium-based asset pricing models with an intertemporal specification of preferences and market fundamentals. We interpret various instantaneous causality relationships between state variables and market fundamentals as leverage effects and discuss their central role relative to the validity of standard CAPM-like stock pricing and preference-free option pricing.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this paper, we characterize the asymmetries of the smile through multiple leverage effects in a stochastic dynamic asset pricing framework. The dependence between price movements and future volatility is introduced through a set of latent state variables. These latent variables can capture not only the volatility risk and the interest rate risk which potentially affect option prices, but also any kind of correlation risk and jump risk. The standard financial leverage effect is produced by a cross-correlation effect between the state variables which enter into the stochastic volatility process of the stock price and the stock price process itself. However, we provide a more general framework where asymmetric implied volatility curves result from any source of instantaneous correlation between the state variables and either the return on the stock or the stochastic discount factor. In order to draw the shapes of the implied volatility curves generated by a model with latent variables, we specify an equilibrium-based stochastic discount factor with time non-separable preferences. When we calibrate this model to empirically reasonable values of the parameters, we are able to reproduce the various types of implied volatility curves inferred from option market data.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper assesses the empirical performance of an intertemporal option pricing model with latent variables which generalizes the Hull-White stochastic volatility formula. Using this generalized formula in an ad-hoc fashion to extract two implicit parameters and forecast next day S&P 500 option prices, we obtain similar pricing errors than with implied volatility alone as in the Hull-White case. When we specialize this model to an equilibrium recursive utility model, we show through simulations that option prices are more informative than stock prices about the structural parameters of the model. We also show that a simple method of moments with a panel of option prices provides good estimates of the parameters of the model. This lays the ground for an empirical assessment of this equilibrium model with S&P 500 option prices in terms of pricing errors.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this paper, we provide both qualitative and quantitative measures of the cost of measuring the integrated volatility by the realized volatility when the frequency of observation is fixed. We start by characterizing for a general diffusion the difference between the realized and the integrated volatilities for a given frequency of observations. Then, we compute the mean and variance of this noise and the correlation between the noise and the integrated volatility in the Eigenfunction Stochastic Volatility model of Meddahi (2001a). This model has, as special examples, log-normal, affine, and GARCH diffusion models. Using some previous empirical works, we show that the standard deviation of the noise is not negligible with respect to the mean and the standard deviation of the integrated volatility, even if one considers returns at five minutes. We also propose a simple approach to capture the information about the integrated volatility contained in the returns through the leverage effect.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper develops a model of money demand where the opportunity cost of holding money is subject to regime changes. The regimes are fully characterized by the mean and variance of inflation and are assumed to be the result of alternative government policies. Agents are unable to directly observe whether government actions are indeed consistent with the inflation rate targeted as part of a stabilization program but can construct probability inferences on the basis of available observations of inflation and money growth. Government announcements are assumed to provide agents with additional, possibly truthful information regarding the regime. This specification is estimated and tested using data from the Israeli and Argentine high inflation periods. Results indicate the successful stabilization program implemented in Israel in July 1985 was more credible than either the earlier Israeli attempt in November 1984 or the Argentine programs. Government’s signaling might substantially simplify the inference problem and increase the speed of learning on the part of the agents. However, under certain conditions, it might increase the volatility of inflation. After the introduction of an inflation stabilization plan, the welfare gains from a temporary increase in real balances might be high enough to induce agents to raise their real balances in the short-term, even if they are uncertain about the nature of government policy and the eventual outcome of the stabilization attempt. Statistically, the model restrictions cannot be rejected at the 1% significance level.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper develops a general stochastic framework and an equilibrium asset pricing model that make clear how attitudes towards intertemporal substitution and risk matter for option pricing. In particular, we show under which statistical conditions option pricing formulas are not preference-free, in other words, when preferences are not hidden in the stock and bond prices as they are in the standard Black and Scholes (BS) or Hull and White (HW) pricing formulas. The dependence of option prices on preference parameters comes from several instantaneous causality effects such as the so-called leverage effect. We also emphasize that the most standard asset pricing models (CAPM for the stock and BS or HW preference-free option pricing) are valid under the same stochastic setting (typically the absence of leverage effect), regardless of preference parameter values. Even though we propose a general non-preference-free option pricing formula, we always keep in mind that the BS formula is dominant both as a theoretical reference model and as a tool for practitioners. Another contribution of the paper is to characterize why the BS formula is such a benchmark. We show that, as soon as we are ready to accept a basic property of option prices, namely their homogeneity of degree one with respect to the pair formed by the underlying stock price and the strike price, the necessary statistical hypotheses for homogeneity provide BS-shaped option prices in equilibrium. This BS-shaped option-pricing formula allows us to derive interesting characterizations of the volatility smile, that is, the pattern of BS implicit volatilities as a function of the option moneyness. First, the asymmetry of the smile is shown to be equivalent to a particular form of asymmetry of the equivalent martingale measure. Second, this asymmetry appears precisely when there is either a premium on an instantaneous interest rate risk or on a generalized leverage effect or both, in other words, whenever the option pricing formula is not preference-free. Therefore, the main conclusion of our analysis for practitioners should be that an asymmetric smile is indicative of the relevance of preference parameters to price options.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this paper, we consider testing marginal normal distributional assumptions. More precisely, we propose tests based on moment conditions implied by normality. These moment conditions are known as the Stein (1972) equations. They coincide with the first class of moment conditions derived by Hansen and Scheinkman (1995) when the random variable of interest is a scalar diffusion. Among other examples, Stein equation implies that the mean of Hermite polynomials is zero. The GMM approach we adopted is well suited for two reasons. It allows us to study in detail the parameter uncertainty problem, i.e., when the tests depend on unknown parameters that have to be estimated. In particular, we characterize the moment conditions that are robust against parameter uncertainty and show that Hermite polynomials are special examples. This is the main contribution of the paper. The second reason for using GMM is that our tests are also valid for time series. In this case, we adopt a Heteroskedastic-Autocorrelation-Consistent approach to estimate the weighting matrix when the dependence of the data is unspecified. We also make a theoretical comparison of our tests with Jarque and Bera (1980) and OPG regression tests of Davidson and MacKinnon (1993). Finite sample properties of our tests are derived through a comprehensive Monte Carlo study. Finally, three applications to GARCH and realized volatility models are presented.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper derives the ARMA representation of integrated and realized variances when the spot variance depends linearly on two autoregressive factors, i.e., SR SARV(2) models. This class of processes includes affine, GARCH diffusion, CEV models, as well as the eigenfunction stochastic volatility and the positive Ornstein-Uhlenbeck models. We also study the leverage effect case, the relationship between weak GARCH representation of returns and the ARMA representation of realized variances. Finally, various empirical implications of these ARMA representations are considered. We find that it is possible that some parameters of the ARMA representation are negative. Hence, the positiveness of the expected values of integrated or realized variances is not guaranteed. We also find that for some frequencies of observations, the continuous time model parameters may be weakly or not identified through the ARMA representation of realized variances.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper documents and discusses a dramatic change in the cyclical behavior of aggregate hours worked by individuals with a college degree (skilled workers) since the mid-1980’s. Using the CPS outgoing rotation data set for the period 1979:1-2003:4, we find that the volatility of aggregate skilled hours relative to the volatility of GDP has nearly tripled since 1984. In contrast, the cyclical properties of unskilled hours have remained essentially unchanged. We evaluate the extent to which a simple supply/demand model for skilled and unskilled labor with capital-skill complementarity in production can help explain this stylized fact. Within this framework, we identify three effects which would lead to an increase in the relative volatility of skilled hours: (i) a reduction in the degree of capital-skill complementarity, (ii) a reduction in the absolute volatility of GDP (and unskilled hours), and (iii) an increase in the level of capital equipment relative to skilled labor. We provide empirical evidence in support of each of these effects. Our conclusion is that these three mechanisms can jointly explain about sixty percent of the observed increase in the relative volatility of skilled labor. The reduction in the degree of capital-skill complementarity contributes the most to this result.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The attached file is created with Scientific Workplace Latex

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this paper we provide a thorough characterization of the asset returns implied by a simple general equilibrium production economy with Chew–Dekel risk preferences and convex capital adjustment costs. When households display levels of disappointment aversion consistent with the experimental evidence, a version of the model parameterized to match the volatility of output and consumption growth generates unconditional expected asset returns and price of risk in line with the historical data. For the model with Epstein–Zin preferences to generate similar statistics, the relative risk aversion coefficient needs to be about 55, two orders of magnitude higher than the available estimates. We argue that this is not surprising, given the limited risk imposed on agents by a reasonably calibrated stochastic growth model.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We estimate firm–level idiosyncratic risk in the U.S. manufacturing sector. Our proxy for risk is the volatility of the portion of growth in sales or TFP which is not explained by either industry– or economy–wide factors, or firm characteristics systematically associated with growth itself. We find that idiosyncratic risk accounts for about 90% of the overall uncertainty faced by firms. The extent of cross–sectoral variation in idiosyncratic risk is remarkable. Firms in the most volatile sector are subject to at least three times as much uncertainty as firms in the least volatile. Our evidence indicates that idiosyncratic risk is higher in industries where the extent of creative destruction is likely to be greater.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La substitution est une méthode de prévention primaire qui permet l’élimination à la source des dangers pour les travailleurs. Une des étapes de la démarche est la comparaison des options afin de procéder au choix final. Divers indices de comparaison, basés sur des paramètres physicochimiques, sanitaires et environnementaux des substances, permettent de guider ce choix. Toutefois, aucune évaluation de ces indices n’a été effectuée dans le cas de la substitution des solvants. Une recherche de développement a été entreprise afin de proposer une méthodologie améliorée de comparaison des solvants. La démarche d’analyse de substitution et la comparaison des options de remplacement à l’aide du rapport de danger de vapeur (« Vapour Hazard Ratio », VHR) ont été appliquées à un cas réel de substitution de solvants en entreprise. Trois indices de potentiel de surexposition (IPS) (VHR, « Måleteknisk Arbejdshygiejnisk Luftbehov » (MAL) et « SUBstitution FACtor » (SUBFAC)) et trois indices globaux de hiérarchisation des dangers (indice air (ψiair), « Indiana Relative Chemical Hazard Score » (IRCHS) et « Final Hazard Score » (FHS)) ont été évalués et comparés à partir de listes de 56 et 67 solvants respectivement. La problématique de la non-idéalité des mélanges a aussi été considérée par rapport aux IPS par l’évaluation et la comparaison de 50 mélanges de solvant. Une méthodologie d’établissement d’une valeur limite d’exposition (VLE), pour les solvants n’en possédant pas, a été développée par modélisation de type relations quantitatives propriété-propriété (QPPR). La modélisation QPPR des VLE, effectuée sur une liste de 88 solvants possédant une VLE, a été effectuée à partir des coefficients de partage octanol:air, octanol:eau, sang:air et des constantes métaboliques. L’étude de cas a montré que l’utilisation du VHR facilitait la comparaison des options, bien qu’elle puisse se heurter à l’absence de VLE. Les indices VHR et SUBFAC ont été identifiés comme des méthodes très proches, caractérisées par une forte corrélation (R=0,99) alors que l’indice MAL se distingue des deux autres IPS par une perte d’information sur la volatilité résultant en une corrélation plus faible avec le VHR (R=0,75). L’impact de la non idealité, évalué par le calcul de coefficients d’activité sur une série de 50 mélanges, a permis d’établir que les ratios entre les indices VHR corrigés et non corrigés variaient entre 0,57 et 2,7, suggérant un facteur de sécurité de cinq lors de la comparaison de mélanges. Les analyses de corrélation et de sensibilité ont montré que les indices de hiérarchisation des dangers différaient de façon importante sur leur prise en compte de paramètres comme la volatilité, les VLE, l’exposition cutanée, l’inflammabilité, la cancérogénicité et les divers paramètres environnementaux. Aucun de ces indices ne peut être recommandé pour la substitution des solvants. Deux modèles QPPR ont été développés afin de prédire des VLE et des VHR, et 61 % et 87 % des VHR prédits variaient respectivement d’un facteur maximal de deux et de cinq par rapport aux VHR calculés. Nos résultats mènent à proposer une démarche améliorée de comparaison en deux étapes. Après un tri selon des critères prioritaires de santé, de sécurité et d’environnement, la comparaison devrait se baser sur le calcul du VHR tout en considérant d’autres paramètres selon la situation concrète de l’entreprise ou du procédé. La comparaison devra tenir compte de la non-idéalité pour les mélanges, et de VLE estimées pour les solvants n’en possédant pas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente étude offre un panorama sur les interactions et les liens qui existent entre la volatilité des taux de change et les échanges internationaux. L’objectif de ce travail est donc de présenter théoriquement cette relation, puis d’examiner empiriquement l’existence de cette relation de causalité entre le commerce international et la variabilité des taux de change. La littérature portant sur la question se considère dans l'ensemble comme contradictoire et supporte plusieurs controverses qui ne nous permettent pas de conclure clairement quant à la relation en question. Nous essayerons de pousser ces recherches un peu plus loin en réexaminant cette évidence pour le canada et en offrant une investigation empirique sur l’existence éventuelle d'un impact significatif de la volatilité sur les flux désagrégées des exportations sectoriels du canada vers son partenaire, les États-Unis. Nous y examinons la réponse empirique de 5 secteurs d’exportations canadiennes aux variations du taux de change réel effectif entre le canada et les États- Unis. Toutefois, nos résultats obtenus ne nous permettent pas de conclure quant à la significativité relative d’un impact de volatilité de taux de change sur les exportations sectoriels désagrégées destinées aux États-Unis. Dans l’ensemble, même si on admet que les signe des coefficients estimés de la variable de risque dans chaque secteur est négatif, nous arrivons à la conclusion que la volatilité ne semble pas avoir un impact statistiquement significatif sur le volume réelle des exportations du Canada vers les États-Unis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.