1000 resultados para Volatilité réalisée
Resumo:
Rapport de recherche
Resumo:
Rapport de recherche
Resumo:
Le prix efficient est latent, il est contaminé par les frictions microstructurelles ou bruit. On explore la mesure et la prévision de la volatilité fondamentale en utilisant les données à haute fréquence. Dans le premier papier, en maintenant le cadre standard du modèle additif du bruit et le prix efficient, on montre qu’en utilisant le volume de transaction, les volumes d’achat et de vente, l’indicateur de la direction de transaction et la différence entre prix d’achat et prix de vente pour absorber le bruit, on améliore la précision des estimateurs de volatilité. Si le bruit n’est que partiellement absorbé, le bruit résiduel est plus proche d’un bruit blanc que le bruit original, ce qui diminue la misspécification des caractéristiques du bruit. Dans le deuxième papier, on part d’un fait empirique qu’on modélise par une forme linéaire de la variance du bruit microstructure en la volatilité fondamentale. Grâce à la représentation de la classe générale des modèles de volatilité stochastique, on explore la performance de prévision de différentes mesures de volatilité sous les hypothèses de notre modèle. Dans le troisième papier, on dérive de nouvelles mesures réalizées en utilisant les prix et les volumes d’achat et de vente. Comme alternative au modèle additif standard pour les prix contaminés avec le bruit microstructure, on fait des hypothèses sur la distribution du prix sans frictions qui est supposé borné par les prix de vente et d’achat.
Resumo:
In this paper, we provide both qualitative and quantitative measures of the cost of measuring the integrated volatility by the realized volatility when the frequency of observation is fixed. We start by characterizing for a general diffusion the difference between the realized and the integrated volatilities for a given frequency of observations. Then, we compute the mean and variance of this noise and the correlation between the noise and the integrated volatility in the Eigenfunction Stochastic Volatility model of Meddahi (2001a). This model has, as special examples, log-normal, affine, and GARCH diffusion models. Using some previous empirical works, we show that the standard deviation of the noise is not negligible with respect to the mean and the standard deviation of the integrated volatility, even if one considers returns at five minutes. We also propose a simple approach to capture the information about the integrated volatility contained in the returns through the leverage effect.
Resumo:
This paper derives the ARMA representation of integrated and realized variances when the spot variance depends linearly on two autoregressive factors, i.e., SR SARV(2) models. This class of processes includes affine, GARCH diffusion, CEV models, as well as the eigenfunction stochastic volatility and the positive Ornstein-Uhlenbeck models. We also study the leverage effect case, the relationship between weak GARCH representation of returns and the ARMA representation of realized variances. Finally, various empirical implications of these ARMA representations are considered. We find that it is possible that some parameters of the ARMA representation are negative. Hence, the positiveness of the expected values of integrated or realized variances is not guaranteed. We also find that for some frequencies of observations, the continuous time model parameters may be weakly or not identified through the ARMA representation of realized variances.
Resumo:
This note develops general model-free adjustment procedures for the calculation of unbiased volatility loss functions based on practically feasible realized volatility benchmarks. The procedures, which exploit the recent asymptotic distributional results in Barndorff-Nielsen and Shephard (2002a), are both easy to implement and highly accurate in empirically realistic situations. On properly accounting for the measurement errors in the volatility forecast evaluations reported in Andersen, Bollerslev, Diebold and Labys (2003), the adjustments result in markedly higher estimates for the true degree of return-volatility predictability.
Resumo:
The attached file is created with Scientific Workplace Latex
Resumo:
Ma thèse est composée de trois chapitres reliés à l'estimation des modèles espace-état et volatilité stochastique. Dans le première article, nous développons une procédure de lissage de l'état, avec efficacité computationnelle, dans un modèle espace-état linéaire et gaussien. Nous montrons comment exploiter la structure particulière des modèles espace-état pour tirer les états latents efficacement. Nous analysons l'efficacité computationnelle des méthodes basées sur le filtre de Kalman, l'algorithme facteur de Cholesky et notre nouvelle méthode utilisant le compte d'opérations et d'expériences de calcul. Nous montrons que pour de nombreux cas importants, notre méthode est plus efficace. Les gains sont particulièrement grands pour les cas où la dimension des variables observées est grande ou dans les cas où il faut faire des tirages répétés des états pour les mêmes valeurs de paramètres. Comme application, on considère un modèle multivarié de Poisson avec le temps des intensités variables, lequel est utilisé pour analyser le compte de données des transactions sur les marchés financières. Dans le deuxième chapitre, nous proposons une nouvelle technique pour analyser des modèles multivariés à volatilité stochastique. La méthode proposée est basée sur le tirage efficace de la volatilité de son densité conditionnelle sachant les paramètres et les données. Notre méthodologie s'applique aux modèles avec plusieurs types de dépendance dans la coupe transversale. Nous pouvons modeler des matrices de corrélation conditionnelles variant dans le temps en incorporant des facteurs dans l'équation de rendements, où les facteurs sont des processus de volatilité stochastique indépendants. Nous pouvons incorporer des copules pour permettre la dépendance conditionnelle des rendements sachant la volatilité, permettant avoir différent lois marginaux de Student avec des degrés de liberté spécifiques pour capturer l'hétérogénéité des rendements. On tire la volatilité comme un bloc dans la dimension du temps et un à la fois dans la dimension de la coupe transversale. Nous appliquons la méthode introduite par McCausland (2012) pour obtenir une bonne approximation de la distribution conditionnelle à posteriori de la volatilité d'un rendement sachant les volatilités d'autres rendements, les paramètres et les corrélations dynamiques. Le modèle est évalué en utilisant des données réelles pour dix taux de change. Nous rapportons des résultats pour des modèles univariés de volatilité stochastique et deux modèles multivariés. Dans le troisième chapitre, nous évaluons l'information contribuée par des variations de volatilite réalisée à l'évaluation et prévision de la volatilité quand des prix sont mesurés avec et sans erreur. Nous utilisons de modèles de volatilité stochastique. Nous considérons le point de vue d'un investisseur pour qui la volatilité est une variable latent inconnu et la volatilité réalisée est une quantité d'échantillon qui contient des informations sur lui. Nous employons des méthodes bayésiennes de Monte Carlo par chaîne de Markov pour estimer les modèles, qui permettent la formulation, non seulement des densités a posteriori de la volatilité, mais aussi les densités prédictives de la volatilité future. Nous comparons les prévisions de volatilité et les taux de succès des prévisions qui emploient et n'emploient pas l'information contenue dans la volatilité réalisée. Cette approche se distingue de celles existantes dans la littérature empirique en ce sens que ces dernières se limitent le plus souvent à documenter la capacité de la volatilité réalisée à se prévoir à elle-même. Nous présentons des applications empiriques en utilisant les rendements journaliers des indices et de taux de change. Les différents modèles concurrents sont appliqués à la seconde moitié de 2008, une période marquante dans la récente crise financière.
Resumo:
Nous développons dans cette thèse, des méthodes de bootstrap pour les données financières de hautes fréquences. Les deux premiers essais focalisent sur les méthodes de bootstrap appliquées à l’approche de "pré-moyennement" et robustes à la présence d’erreurs de microstructure. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. En se basant sur cette ap- proche d’estimation de la volatilité intégrée en présence d’erreurs de microstructure, nous développons plusieurs méthodes de bootstrap qui préservent la structure de dépendance et l’hétérogénéité dans la moyenne des données originelles. Le troisième essai développe une méthode de bootstrap sous l’hypothèse de Gaussianité locale des données financières de hautes fréquences. Le premier chapitre est intitulé: "Bootstrap inference for pre-averaged realized volatility based on non-overlapping returns". Nous proposons dans ce chapitre, des méthodes de bootstrap robustes à la présence d’erreurs de microstructure. Particulièrement nous nous sommes focalisés sur la volatilité réalisée utilisant des rendements "pré-moyennés" proposés par Podolskij et Vetter (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à hautes fréquences consécutifs qui ne se chevauchent pas. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. Le non-chevauchement des blocs fait que les rendements "pré-moyennés" sont asymptotiquement indépendants, mais possiblement hétéroscédastiques. Ce qui motive l’application du wild bootstrap dans ce contexte. Nous montrons la validité théorique du bootstrap pour construire des intervalles de type percentile et percentile-t. Les simulations Monte Carlo montrent que le bootstrap peut améliorer les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques, pourvu que le choix de la variable externe soit fait de façon appropriée. Nous illustrons ces méthodes en utilisant des données financières réelles. Le deuxième chapitre est intitulé : "Bootstrapping pre-averaged realized volatility under market microstructure noise". Nous développons dans ce chapitre une méthode de bootstrap par bloc basée sur l’approche "pré-moyennement" de Jacod et al. (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à haute fréquences consécutifs qui se chevauchent. Le chevauchement des blocs induit une forte dépendance dans la structure des rendements "pré-moyennés". En effet les rendements "pré-moyennés" sont m-dépendant avec m qui croît à une vitesse plus faible que la taille d’échantillon n. Ceci motive l’application d’un bootstrap par bloc spécifique. Nous montrons que le bloc bootstrap suggéré par Bühlmann et Künsch (1995) n’est valide que lorsque la volatilité est constante. Ceci est dû à l’hétérogénéité dans la moyenne des rendements "pré-moyennés" au carré lorsque la volatilité est stochastique. Nous proposons donc une nouvelle procédure de bootstrap qui combine le wild bootstrap et le bootstrap par bloc, de telle sorte que la dépendance sérielle des rendements "pré-moyennés" est préservée à l’intérieur des blocs et la condition d’homogénéité nécessaire pour la validité du bootstrap est respectée. Sous des conditions de taille de bloc, nous montrons que cette méthode est convergente. Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques. Nous illustrons cette méthode en utilisant des données financières réelles. Le troisième chapitre est intitulé: "Bootstrapping realized covolatility measures under local Gaussianity assumption". Dans ce chapitre nous montrons, comment et dans quelle mesure on peut approximer les distributions des estimateurs de mesures de co-volatilité sous l’hypothèse de Gaussianité locale des rendements. En particulier nous proposons une nouvelle méthode de bootstrap sous ces hypothèses. Nous nous sommes focalisés sur la volatilité réalisée et sur le beta réalisé. Nous montrons que la nouvelle méthode de bootstrap appliquée au beta réalisé était capable de répliquer les cummulants au deuxième ordre, tandis qu’il procurait une amélioration au troisième degré lorsqu’elle est appliquée à la volatilité réalisée. Ces résultats améliorent donc les résultats existants dans cette littérature, notamment ceux de Gonçalves et Meddahi (2009) et de Dovonon, Gonçalves et Meddahi (2013). Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques et les résultats de bootstrap existants. Nous illustrons cette méthode en utilisant des données financières réelles.
Resumo:
I. Facteurs associés avec l'infection tuberculose latent chez les requérants d'asile entrant dans le canton de Vaud : Une étude transversale dans le canton de Vaud. Objectifs : Les objectifs de cette étude étaient l'identification des facteurs associés à l'infection tuberculeuse latente (ITBL) chez les requérants d'asile récemment arrivés au Canton de Vaud et leur utilisation pondérée pour l'élaboration d'un score prédictif qui pourrait permettre la meilleure sélection des individus à dépister avec les Interferon Gamma Release Assays (IGRA). Méthode : Le protocole de l'étude prévoyait l'inclusion des requérants d'asile de plus de 16 ans, récemment arrivés dans deux centre de requérant du canton de Vaud ceux de Sainte-Croix et de Crissier. De septembre 2009 à juillet 2010 les requérants d'asile ont bénéficié lors des visites au centre de soins infirmier (CSI) d'informations sur l'ITBL et le protocole et les enjeux de l'étude. Les requérants d'asile ont d'emblée été informées que leur participation à l'étude n'aurait pas d'impact sur le débouché de leur dossier d'asile et qu'il n'y aurait pas de compensation financière à leur participation. Après avoir signé le consentement éclairé les requérants d'asile bénéficiaient d'une entrevue avec l'infirmière du centre où un questionnaire démographique et médical était remplit. 10cc de sang étaient prélevés à la fin de l'entrevue pour l'examen IGRA. Les patients présentant des symptômes évocateurs de tuberculose active ou un anamnèse de traitement pour une tuberculose active étaient exclus de l'étude et adressés au médecin référant du centre pour une visite médicale. Selon les résultats du test T-SPOT.TB (IGRA), les requérants étaient classés en deux groupes : positifs et négatifs. Le groupe IGRA positif était adressé au médecin référant. L'analyse statistique des données de l'étude a été réalisée par le logiciel STATA 11.2. Les coefficients de l'analyse multivariée ont été combinées pour la création d'un score pronostic dont la puissance de discrimination a été évaluée par une courbe ROC. Le protocole de l'étude avait reçu l'aval de la commission d'éthique de l'Université de Lausanne. Résultats : Durant la période de l'étude, 788 requérants d'asile ont été hébergés dans les deux centres de l'étude. 639 avaient plus de 16 ans et 393 d'entre eux ont participé à l'étude (61.50%). 295 (75.06%) avaient un IGRA négatif et 98 (24.93%) étaient positifs. A noter que parmi les 98 positifs, 5 avaient une tuberculose active non détecté précédemment. Les analyses univarié et multivarié ont permis d'identifier 6 facteurs associées à l'ITBL : Région d'origine, moyen de transport, état civil, âge, toux et antécédent d'exposition à la tuberculose. Le score élaboré en combinant ces 6 facteurs présente un AUC de 81% avec une sensibilité de 80%, une spécificité de 70% et des valeurs prédictive positive et négative respectivement de 45% et 92% quant un seuil de 13 est utilisé. Conclusion : Les requérants d'asile qui immigrent en Suisse proviennent de pays où l'incidence de la tuberculose est supérieure à celle des pays de l'Europe occidentale et présentent un risque élevé pour l'infection tuberculose latente (ITBL). L'origine comme seul facteur n'est pas suffisant pour stratifier le risque d'ITBL et ne peut pas justifier la prescription d'un traitement préventif d'ITBL. L'introduction des tests de détection, hautement spécifiques de l'infection au M. tuberculosis tel que les IGRA ainsi que le taux élevé de réussite des traitements préventifs de l'infection latente ont ouvert la voie à un dépistage précoce de l'ITBL qui compléterait le dépistage de la tuberculose active actuellement effectué à la frontière. Afin de mieux cibler le dépistage par ces tests une meilleure sélection des individus à dépister est impérative. Elle pourrait se faire en évaluant le score individuel de risque ITBL par requérant. -- II. Taux élevé d'adhérence au traitement préventif de l'infection tuberculeuse latente prescrit à un collectif de requérants d'asile dans un canton suisse. Objectifs: L'efficacité du traitement préventif de l'infection tuberculeuse latente dépend de l'adherence du sujet au traitement. Un traitement bien conduit pour une duré prévue est en mesure de prévenir l'activation des cas d'infection tuberculeuse latente (ITBL). Le plus grand enjeu dans un programme préventif pour la tuberculose est, outre de cibler la détection des individus les plus à risque pour l'ITBL, de pouvoir traiter efficacement le collectif dépisté positif. Cette étude évaluait la faisabilité d'un traitement préventif court parmi un collectif de requérants d'asile porteurs d'une ITBL dans le canton de Vaud. Méthode: Nous avons effectué une étude prospective de cohorte parmi des requérants d'asile récemment attribués dans le canton de Vaud, âgés de plus de 16 ans et qui avaient été dépistés positifs par IGRA. L'ensemble du collectif selon le protocole de l'étude était adressé au médecin référant afin d'exclure une tuberculose active et pour discuter du traitement préventif si le diagnostic d'ITBL était confirmé. Lors de la première visite médicale, outre l'examen clinique, un bilan radiologique avec une radiographie du thorax et un bilan de la biologie hépatique ainsi qu'un test de dépistage HIV était proposé à l'ensemble du collectif. En cas de suspicion clinique ou d'image radiologique suspecte de tuberculose active le sujet était adressé pour des examens complémentaires. Les sujets porteurs d'ITBL se voyaient proposés, en l'absence de contre indications, un traitement de rifampicine de quatre mois. En acceptant de participer à l'étude ils s'engageaient de se présenter à leur contrôle médical mensuel où était évaluée l'adhérence au traitement et l'apparition d'effets indésirable ou de complications. Si l'adhérence était jugée correcte l'ordonnance du traitement était renouvelée d'un mois et le requérant recevait son prochain rendez-vous de contrôle. L'adhérence était considéré satisfaisante si le patient était adhérent à son schéma de visites médicales et demandait le renouvellement de son ordonnance. Si le requérant d'asile ne se présentait pas à deux contrôles il était considéré comme non adhérent et son traitement est suspendu. Résultats : Notre collectif comptait 98 sujet présument atteint de ITBL sur la base du test T-SPOT.TB ce qui représentait 24.9% du collectif initial. L'âge moyen était de 26.7 ans, 74% était des hommes. La majorité étaient des africains: 66 %, 17% étaient asiatiques et les populations balkaniques et de l'exunion soviétique étaient représentés à part égale d'huit pourcent. Parmi notre collectif nous n'avions pas de sujet immunodéficient notamment HIV positif. Des 98 sujets, 11 ne se sont pas présenté à leur visite médicale initiale. La visite médicale initiale a permis la détection de 8 patients porteurs d'une tuberculose active, dont cinq ont reçu un traitement antituberculeux, ou d'une autre affection pulmonaire non tuberculeuse. Chez deux patients il y avait une contre-indication au traitement préventif et deux avaient un anamnèse positif de traitement antituberculeux non précédemment déclaré. Le traitement préventif a été prescrit à 74 requérants d'asile. Durant le suivi mensuel trois requérants ne se sont pas présentés lors de la première visite de suivi, trois lors de la seconde et sept lors de la troisième pour un total de 13 sujets. Chez deux sujets le traitement préventif a du être suspendu à cause d'une adhérence problématique secondaire à des abus de substances illégales. Durant le suivi, nous n'avons pas eu de sérieuses complications ni d'effets indésirables au traitement qui auraient nécessité son arrêt. En final 60/75 des sujets ont achevé leur traitement soit 80% du collectif. Conclusion: Malgré la vulnérabilité et la volatilité inhérente à cette population qui est d'ailleurs la plus à risqué de réactivation d'une ITBL, cette étude montre que il est possible d'obtenir de taux d'adhérence très élevés au traitement préventif. Nous considérons que les conditions qui ont permis ces résultats sont la prescription d'un schéma de traitement préventif court, un suivi médico-soignant régulier et l'hébergement contrôlée et stable où résidait notre collectif.
Resumo:
L' évaluation quantitative des dangers et des expositions aux nanomatériaux se heurte à de nombreuses incertitudes qui ne seront levées qu'à mesure de la progression des connaissances scientifiques de leurs propriétés. L' une des conséquences de ces incertitudes est que les valeurs limites d'exposition professionnelle définies actuellement pour les poussières ne sont pas nécessairement pertinentes aux nanomatériaux. En l'absence de référentiel quantitatif et, à la demande de la DGS pour éclairer les réflexions de l' AFNOR et de l'ISO sur le sujet, une démarche de gestion graduée des risques (control banding) a été élaborée au sein de l' Anses. Ce développement a été réalisé à l'aide d'un groupe d'experts rapporteurs rattaché au Comité d'experts spécialisés évaluation des risques liés aux agents physiques, aux nouvelles technologies et aux grands aménagements. La mise en oeuvre de la démarche de gestion graduée des risques proposée repose sur quatre grandes étapes: 1. Le recueil des informations. Cette étape consiste à réunir les informations disponibles sur les dangers du nanomatériau manufacturé considéré ; ainsi que sur l'exposition potentielle des personnes aux postes de travail (observation sur le terrain, mesures, etc.). 2. L'attribution d'une bande de danger. Le danger potentiel du nanomatériau manufacturé présent, qu'il soit brut où incorporé dans une matrice (liquide ou solide) est évalué dans cette étape. La bande danger attribuée tient compte de la dangerosité du produit bulk ou de sa substance analogue à l'échelle non-nanométrique, de la bio-persistance du matériau (pour les matériaux fibreux), de sa solubilité et de son éventuelle réactivité. 3. Attribution d'une bande d'exposition. La bande d'exposition du nanomatériau manufacturé considéré ou du produit en contenant est définie par le niveau de potentiel d'émission du produit. Elle tient compte de sa forme physique (solide, liquide, poudre aérosol), de sa pulvérulence et de sa volatilité. Le nombre de travailleurs, la fréquence, la durée d'exposition ainsi que la quantité mise en oeuvre ne sont pas pris en compte, contrairement à une évaluation classique des risques chimiques. 4. Obtention d'une bande de maîtrise des risques. Le croisement des bandes de dangers et d'exposition préalablement attribuées permet de défi nir le niveau de maîtrise du risque. Il fait correspondre les moyens techniques et organisationnels à mettre en oeuvre pour maintenir le risque au niveau le plus faible possible. Un plan d'action est ensuite défi ni pour garantir l'effi cacité de la prévention recommandée par le niveau de maîtrise déterminé. Il tient compte des mesures de prévention déjà existantes et les renforce si nécessaire. Si les mesures indiquées par le niveau de maîtrise de risque ne sont pas réalisables, par exemple, pour des raisons techniques ou budgétaires, une évaluation de risque approfondie devra être réalisée par un expert. La gestion graduée des risques est une méthode alternative pour réaliser une évaluation qualitative de risques et mettre en place des moyens de prévention sans recourir à une évaluation quantitative des risques. Son utilisation semble particulièrement adaptée au contexte des nanomatériaux manufacturés, pour lequel les choix de valeurs de référence (Valeurs limites d'exposition en milieu professionnel) et des techniques de mesurage appropriées souffrent d'une grande incertitude. La démarche proposée repose sur des critères simples, accessibles dans la littérature scientifi que ou via les données techniques relatives aux produits utilisés. Pour autant, sa mise en oeuvre requiert des compétences minimales dans les domaines de la prévention des risques chimiques (chimie, toxicologie, etc.), des nanosciences et des nanotechnologies.
Resumo:
[Table des matières] Description du Centre de gériatrie et des autres institutions assurant la prise en charge des personnes âgées. Analyse des informations disponibles sur la population âgée et sa prise en charge dans le canton de Genève. Les analyses du CEGER (Centre de Gériatrie, consultation ambulatoire). Les médecins généralistes et internistes installés dans le canton de Genève. Le CEGER et les médecins installés. Consultation de psycho-gériatrie (COPSY).