732 resultados para Mesure de Mahler
Resumo:
This paper develops a general stochastic framework and an equilibrium asset pricing model that make clear how attitudes towards intertemporal substitution and risk matter for option pricing. In particular, we show under which statistical conditions option pricing formulas are not preference-free, in other words, when preferences are not hidden in the stock and bond prices as they are in the standard Black and Scholes (BS) or Hull and White (HW) pricing formulas. The dependence of option prices on preference parameters comes from several instantaneous causality effects such as the so-called leverage effect. We also emphasize that the most standard asset pricing models (CAPM for the stock and BS or HW preference-free option pricing) are valid under the same stochastic setting (typically the absence of leverage effect), regardless of preference parameter values. Even though we propose a general non-preference-free option pricing formula, we always keep in mind that the BS formula is dominant both as a theoretical reference model and as a tool for practitioners. Another contribution of the paper is to characterize why the BS formula is such a benchmark. We show that, as soon as we are ready to accept a basic property of option prices, namely their homogeneity of degree one with respect to the pair formed by the underlying stock price and the strike price, the necessary statistical hypotheses for homogeneity provide BS-shaped option prices in equilibrium. This BS-shaped option-pricing formula allows us to derive interesting characterizations of the volatility smile, that is, the pattern of BS implicit volatilities as a function of the option moneyness. First, the asymmetry of the smile is shown to be equivalent to a particular form of asymmetry of the equivalent martingale measure. Second, this asymmetry appears precisely when there is either a premium on an instantaneous interest rate risk or on a generalized leverage effect or both, in other words, whenever the option pricing formula is not preference-free. Therefore, the main conclusion of our analysis for practitioners should be that an asymmetric smile is indicative of the relevance of preference parameters to price options.
Resumo:
The GARCH and Stochastic Volatility paradigms are often brought into conflict as two competitive views of the appropriate conditional variance concept : conditional variance given past values of the same series or conditional variance given a larger past information (including possibly unobservable state variables). The main thesis of this paper is that, since in general the econometrician has no idea about something like a structural level of disaggregation, a well-written volatility model should be specified in such a way that one is always allowed to reduce the information set without invalidating the model. To this respect, the debate between observable past information (in the GARCH spirit) versus unobservable conditioning information (in the state-space spirit) is irrelevant. In this paper, we stress a square-root autoregressive stochastic volatility (SR-SARV) model which remains true to the GARCH paradigm of ARMA dynamics for squared innovations but weakens the GARCH structure in order to obtain required robustness properties with respect to various kinds of aggregation. It is shown that the lack of robustness of the usual GARCH setting is due to two very restrictive assumptions : perfect linear correlation between squared innovations and conditional variance on the one hand and linear relationship between the conditional variance of the future conditional variance and the squared conditional variance on the other hand. By relaxing these assumptions, thanks to a state-space setting, we obtain aggregation results without renouncing to the conditional variance concept (and related leverage effects), as it is the case for the recently suggested weak GARCH model which gets aggregation results by replacing conditional expectations by linear projections on symmetric past innovations. Moreover, unlike the weak GARCH literature, we are able to define multivariate models, including higher order dynamics and risk premiums (in the spirit of GARCH (p,p) and GARCH in mean) and to derive conditional moment restrictions well suited for statistical inference. Finally, we are able to characterize the exact relationships between our SR-SARV models (including higher order dynamics, leverage effect and in-mean effect), usual GARCH models and continuous time stochastic volatility models, so that previous results about aggregation of weak GARCH and continuous time GARCH modeling can be recovered in our framework.
Resumo:
This note develops general model-free adjustment procedures for the calculation of unbiased volatility loss functions based on practically feasible realized volatility benchmarks. The procedures, which exploit the recent asymptotic distributional results in Barndorff-Nielsen and Shephard (2002a), are both easy to implement and highly accurate in empirically realistic situations. On properly accounting for the measurement errors in the volatility forecast evaluations reported in Andersen, Bollerslev, Diebold and Labys (2003), the adjustments result in markedly higher estimates for the true degree of return-volatility predictability.
Resumo:
This paper studies the transition between exchange rate regimes using a Markov chain model with time-varying transition probabilities. The probabilities are parameterized as nonlinear functions of variables suggested by the currency crisis and optimal currency area literature. Results using annual data indicate that inflation, and to a lesser extent, output growth and trade openness help explain the exchange rate regime transition dynamics.
Resumo:
This paper employs the one-sector Real Business Cycle model as a testing ground for four different procedures to estimate Dynamic Stochastic General Equilibrium (DSGE) models. The procedures are: 1 ) Maximum Likelihood, with and without measurement errors and incorporating Bayesian priors, 2) Generalized Method of Moments, 3) Simulated Method of Moments, and 4) Indirect Inference. Monte Carlo analysis indicates that all procedures deliver reasonably good estimates under the null hypothesis. However, there are substantial differences in statistical and computational efficiency in the small samples currently available to estimate DSGE models. GMM and SMM appear to be more robust to misspecification than the alternative procedures. The implications of the stochastic singularity of DSGE models for each estimation method are fully discussed.
Resumo:
We propose an alternate parameterization of stationary regular finite-state Markov chains, and a decomposition of the parameter into time reversible and time irreversible parts. We demonstrate some useful properties of the decomposition, and propose an index for a certain type of time irreversibility. Two empirical examples illustrate the use of the proposed parameter, decomposition and index. One involves observed states; the other, latent states.
Resumo:
The purpose of this paper is to characterize the optimal time paths of production and water usage by an agricultural and an oil sector that have to share a limited water resource. We show that for any given water stock, if the oil stock is sufficiently large, it will become optimal to have a phase during which the agricultural sector is inactive. This may mean having an initial phase during which the two sectors are active, then a phase during which the water is reserved for the oil sector and the agricultural sector is inactive, followed by a phase during which both sectors are active again. The agricultural sector will always be active in the end as the oil stock is depleted and the demand for water from the oil sector decreases. In the case where agriculture is not constrained by the given natural inflow of water once there is no more oil, we show that oil extraction will always end with a phase during which oil production follows a pure Hotelling path, with the implicit price of oil net of extraction cost growing at the rate of interest. If the natural inflow of water does constitute a constraint for agriculture, then oil production never follows a pure Hotelling path, because its full marginal cost must always reflect not only the imputed rent on the finite oil stock, but also the positive opportunity cost of water.
Resumo:
RÉSUMÉ L‘hébergement en centre de soins de longue durée d'un parent âgé atteint de démence marque une transition pour les personnes qui occupent un rôle d’aidant familial principal. Ces personnes, principalement des femmes, poursuivent leur engagement après l’hébergement et souhaitent être impliquées dans les décisions concernant les soins offerts à leur parent. Souvent l'hébergement survient au moment où la personne âgée n'est plus en mesure, compte tenu de ses déficiences cognitives, d'exprimer clairement ses besoins; les aidantes accordent alors une place centrale au rôle de représentante de leur proche hébergé. Cette étude avait pour but d’expliquer la transformation du rôle de représentante chez des aidantes familiales dont le parent atteint de démence vit dans un centre d’hébergement et de soins de longue durée (CHSLD). La méthode qualitative de la théorisation ancrée a été retenue pour expliquer ce processus social. Les résultats obtenus reposent sur 14 entrevues en profondeur réalisées auprès de filles dont le parent atteint de démence était hébergé depuis plus de six mois dans un CHSLD. Ces aidantes ont été sélectionnées selon une procédure d’échantillonnage théorique et l’analyse des données a été réalisée à partir de la transcription intégrale des entrevues en suivant trois niveaux d'analyse, soit la codification ouverte, axiale et sélective. Une proposition théorique, générée par voie inductive, met en lumière trois processus intermédiaires interreliés expliquant la transformation du rôle de représentante pendant l’hébergement du proche : 1) l’intégration dans le milieu ; 2) l’évaluation de la qualité des soins et 3) le développement de la confiance envers le milieu d’hébergement. Plus précisément, les aidantes déploient différentes stratégies d’intégration dans le milieu d’hébergement, soit l’établissement de relations de réciprocité et d’une collaboration avec le personnel soignant, ainsi que l’utilisation d’un style de communication diplomatique. Parallèlement, elles évaluent la qualité des soins en trois étapes : jugement, pondération et action. Finalement, une relation de confiance avec les membres du personnel de l’établissement se développe en lien avec cinq facteurs spécifiques, soit les premières impressions, la comparaison avec d’autres CHSLD, l’intérêt démontré par le personnel envers le proche, le fait d’être entendue et prise au sérieux et la transparence du milieu d’hébergement. Ces trois processus contribuent au bien-être du parent hébergé et à celui de l’aidante. Le développement de la confiance étant associé aux deux autres processus intermédiaires ainsi qu’au bien-être de l’aidante, il est le processus central de la théorie contextuelle qui émerge de cette recherche. Cette étude contribue au développement des connaissances, notamment en fournissant plusieurs éléments inédits de compréhension du processus de transformation du rôle de représentante des aidantes familiales, de même que des pistes pour soutenir ces aidantes dont le parent, souffrant de démence, n’est plus en mesure de prendre des décisions. La théorie contextuelle proposée dans le cadre de cette étude constitue les prémices d’une théorie de niveau intermédiaire portant sur le rôle de représentant des aidants familiaux dans le contexte plus général du système de santé. Des études réalisées dans d’autres contextes de soins et auprès d’aidants de proches vulnérables ayant d’autres types d’affections sont ainsi recommandées.
Resumo:
Ce rapport de recherche porte sur une étude s’intéressant au transfert des connaissances tacites chez les gestionnaires, c’est-à-dire le partage de ces connaissances et leur utilisation informelle, durant une situation de coordination dans un service municipal. La thèse est articulée autour des questions suivantes : Quelles sont les situations de coordination vécues par les gestionnaires municipaux? Quelles sont les sources de connaissances tacites partagées et utilisées? Quelles sont les relations de connaissances mobilisées de façon informelle lors du transfert des connaissances tacites? Quels sont les facteurs encourageant ou inhibant le transfert informel des connaissances tacites? À partir d’un modèle basé sur une approche situationnelle (Taylor, 1989 et 1991), nous avons revu la documentation touchant nos questions de recherche. Nous avons défini notamment la récursivité des connaissances et le réseau de connaissances, de même que présenté le modèle de la conversion des connaissances (Nonaka, 1994) et celui de l’actualisation de soi (St-Arnaud, 1996). Nous avons questionné 22 répondants à l’aide d’instruments de mesure qui combinent les techniques de l’incident critique, de l’entrevue cognitive et réflexive, le questionnement sur les réseaux organisationnels et l’observation participante. Tels des filets, ces instruments ont permis de traquer et d’obtenir des données d’une grande richesse sur les connaissances tacites et les comportements informels durant le transfert de connaissances en situation de coordination. Ces données ont été analysées selon une approche méthodologique essentiellement qualitative combinant l’analyse de contenu, la schématisation heuristique et l’analyse des réseaux sociaux. Nos résultats montrent que la complexité d’une situation de coordination conditionne le choix des mécanismes de coordination. De plus, les sources de connaissances sont, du point de vue individuel, le gestionnaire et ses artefacts, de même que son réseau personnel avec ses propres artefacts. Du point de vue collectif, ces sources sont réifiées dans le réseau de connaissances. Les connaissances clés d’une situation de coordination sont celles sur le réseau organisationnel, le contexte, les expériences en gestion et en situation complexe de coordination, la capacité de communiquer, de négocier, d’innover et celle d’attirer l’attention. Individuellement, les gestionnaires privilégient l’actualisation de soi, l’autoformation et la formation contextualisée et, collectivement, la coprésence dans l’action, le réseautage et l’accompagnement. Cette étude fournit un modèle valide du transfert contextualisé des connaissances qui est un cas de coordination complexe d’activités en gestion des connaissances. Ce transfert est concomitant à d’autres situations de coordination. La nature tacite des connaissances prévaut, de même que le mode informel, les médias personnels et les mécanismes d’ajustement mutuel. Les connaissances tacites sont principalement transférées au début des processus de gestion de projet et continuellement durant la rétroaction et le suivi des résultats. Quant aux connaissances explicites, les gestionnaires les utilisent principalement comme un symbole à la fin des processus de gestion de projet. Parmi les personnes et les groupes de personnes d’une situation de transfert contextualisé des connaissances, 10 % jouent des rôles clés, soit ceux d’experts et d’intermédiaires de personnes et d’artefacts. Les personnes en périphérie possèdent un potentiel de structuration, c’est-à-dire de connexité, pour assurer la continuité du réseau de connaissances organisationnel. Notre étude a élargi le modèle général de la complexité d’une situation (Bystrom, 1999; Choo, 2006; Taylor, 1986 et 1991), la théorie de la coordination (Malone et Crowston, 1994), le modèle de la conversion des connaissances (Nonaka, 1994), celui de l’actualisation de soi (St-Arnaud, 1996) et la théorie des réseaux de connaissances (Monge et Contractor, 2003). Notre modèle réaffirme la concomitance de ces modèles généraux selon une approche constructiviste (Giddens, 1987) où la dualité du structurel et la compétence des acteurs sont confirmées et enrichies.
Resumo:
L’introduction éventuelle, au Québec, de la force exécutoire pour les actes notariés soulève, du point de vue économique, deux questions. La première porte sur les effets prévisibles de cette mesure, notamment sur le marché des services juridiques de rédaction d’actes. Du côté de l’offre, il convient de distinguer selon que l’acte notarié est obligatoire ou facultatif. Du côté de la demande, le changement tendrait à diminuer le coût de réalisation d’un droit. Le gain qui en résulte peut profiter, en partie, aux notaires. L’ampleur de l’effet dépend de la probabilité qu’il faille recourir à l’exécution forcée. L’effet irait dans le sens de réduire le coût du crédit et d’augmenter sa disponibilité. Pour le débiteur, l’engagement deviendrait plus risqué, mais du même coup, lui permettrait de signaler sa « crédibilité ». Les chiffres fournis dans une étude réalisée par le groupe Secor en 1995 font voir une économie plutôt modeste de ces mesures. Pour évaluer l’ampleur du désengorgement prévisible des tribunaux, il faudrait connaître l’importance des procédures essentiellement engagées pour la perception de créances. Au-delà des effets immédiats, les enjeux de cette mesure sont de deux ordres. D’abord, ils soulèvent la question de la justification d’accorder l’avantage comparatif de la force exécutoire aux actes notariés et à eux seuls. Cette question nous conduit à celle du statut d’officier public des notaires, plus précisément aux caractéristiques qui doivent être jugées essentielles pour ce statut. Car si l’on ne peut prêter au notaire une aussi grande confiance qu’au juge, il convient de s’interroger, aux fins de l’exécution forcée, sur les limites à imposer au contenu des actes ayant force exécutoire. Les réponses à ces questions présupposent des données qu’on peut difficilement obtenir autrement que par l’expérience prudente. Les chiffres disponibles permettent de prévoir des économies modestes. L’introduction de la force exécutoire doit s’accompagner de mesures de stricte surveillance, notamment en matière de conflits d’intérêt potentiels.
Resumo:
Un résumé en anglais est également disponible.
Resumo:
Un résumé en anglais est également disponible.
Resumo:
Les employés d’un organisme utilisent souvent un schéma de classification personnel pour organiser les documents électroniques qui sont sous leur contrôle direct, ce qui suggère la difficulté pour d’autres employés de repérer ces documents et la perte possible de documentation pour l’organisme. Aucune étude empirique n’a été menée à ce jour afin de vérifier dans quelle mesure les schémas de classification personnels permettent, ou même facilitent, le repérage des documents électroniques par des tiers, dans le cadre d’un travail collaboratif par exemple, ou lorsqu’il s’agit de reconstituer un dossier. Le premier objectif de notre recherche était de décrire les caractéristiques de schémas de classification personnels utilisés pour organiser et classer des documents administratifs électroniques. Le deuxième objectif consistait à vérifier, dans un environnement contrôlé, les différences sur le plan de l’efficacité du repérage de documents électroniques qui sont fonction du schéma de classification utilisé. Nous voulions vérifier s’il était possible de repérer un document avec la même efficacité, quel que soit le schéma de classification utilisé pour ce faire. Une collecte de données en deux étapes fut réalisée pour atteindre ces objectifs. Nous avons d’abord identifié les caractéristiques structurelles, logiques et sémantiques de 21 schémas de classification utilisés par des employés de l’Université de Montréal pour organiser et classer les documents électroniques qui sont sous leur contrôle direct. Par la suite, nous avons comparé, à partir d'une expérimentation contrôlée, la capacité d’un groupe de 70 répondants à repérer des documents électroniques à l’aide de cinq schémas de classification ayant des caractéristiques structurelles, logiques et sémantiques variées. Trois variables ont été utilisées pour mesurer l’efficacité du repérage : la proportion de documents repérés, le temps moyen requis (en secondes) pour repérer les documents et la proportion de documents repérés dès le premier essai. Les résultats révèlent plusieurs caractéristiques structurelles, logiques et sémantiques communes à une majorité de schémas de classification personnels : macro-structure étendue, structure peu profonde, complexe et déséquilibrée, regroupement par thème, ordre alphabétique des classes, etc. Les résultats des tests d’analyse de la variance révèlent des différences significatives sur le plan de l’efficacité du repérage de documents électroniques qui sont fonction des caractéristiques structurelles, logiques et sémantiques du schéma de classification utilisé. Un schéma de classification caractérisé par une macro-structure peu étendue et une logique basée partiellement sur une division par classes d’activités augmente la probabilité de repérer plus rapidement les documents. Au plan sémantique, une dénomination explicite des classes (par exemple, par utilisation de définitions ou en évitant acronymes et abréviations) augmente la probabilité de succès au repérage. Enfin, un schéma de classification caractérisé par une macro-structure peu étendue, une logique basée partiellement sur une division par classes d’activités et une sémantique qui utilise peu d’abréviations augmente la probabilité de repérer les documents dès le premier essai.
Resumo:
Un résumé en anglais est également disponible.
Resumo:
Un résumé en anglais est également disponible.