980 resultados para stochastic load factor


Relevância:

30.00% 30.00%

Publicador:

Resumo:

A study was conducted in 54 wetlands of 13 districts of Assam, India to evaluate the causes of fish depletion. Twenty-two variables were considered for the study. Seven factors were extracted through factor analysis (Principal Component Analysis) based on Eigen Value Criteria of more than one. These seven factors together accounted for 69.3% of the total variance. Based on the characteristics of the variables, all the factors were given descriptive names. These variables can be used to measure the extent of management deficiency of the causes of fish depletion in the wetlands. The factors are management deficiency, organic load interference, catchment condition, extrinsic influence, fishermen’s ignorance, external environment and aquaculture program. Management deficiency accounted for a substantial portion of the total variance.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Given a spectral density matrix or, equivalently, a real autocovariance sequence, the author seeks to determine a finite-dimensional linear time-invariant system which, when driven by white noise, will produce an output whose spectral density is approximately PHI ( omega ), and an approximate spectral factor of PHI ( omega ). The author employs the Anderson-Faurre theory in his analysis.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

We consider the problem of task assignment in a distributed system (such as a distributed Web server) in which task sizes are drawn from a heavy-tailed distribution. Many task assignment algorithms are based on the heuristic that balancing the load at the server hosts will result in optimal performance. We show this conventional wisdom is less true when the task size distribution is heavy-tailed (as is the case for Web file sizes). We introduce a new task assignment policy, called Size Interval Task Assignment with Variable Load (SITA-V). SITA-V purposely operates the server hosts at different loads, and directs smaller tasks to the lighter-loaded hosts. The result is that SITA-V provably decreases the mean task slowdown by significant factors (up to 1000 or more) where the more heavy-tailed the workload, the greater the improvement factor. We evaluate the tradeoff between improvement in slowdown and increase in waiting time in a system using SITA-V, and show conditions under which SITA-V represents a particularly appealing policy. We conclude with a discussion of the use of SITA-V in a distributed Web server, and show that it is attractive because it has a simple implementation which requires no communication from the server hosts back to the task router.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Long-term consumption of a high glycaemic index (GI) or glycaemic load (GL) diet may lead to chronic hyperinsulinaemia, which is a potential risk factor for cancer. To date, many studies have examined the association between GI, GL and cancer risk, although results have been inconsistent, therefore our objective was to conduct a systematic review of the literature. Medline and Embase were systematically searched using terms for GI, GL and cancer to identify studies published before December 2007. Random effects meta-analyses were performed for endometrial cancer, combining maximally adjusted results that compared risk for those in the highest versus the lowest category of intake. Separate analysis examined risk by body mass index categories. Five studies examining GI and/or GL intake and endometrial cancer risk were identified. Pooled effect estimates for endometrial cancer showed an increased risk for high GL consumers (RR 1.20; 95% CI: 1.06-1.37), further elevated in obese women (RR 1.54; 95% CI: 1.18-2.03). No significant associations were observed for GI. Only two studies examined ovarian cancer and therefore no meta-analysis was performed, but results indicate positive associations for GL also. A high GL, but not a high GI, diet is positively associated with the risk of endometrial cancer, particularly among obese women. © 2008 Cancer Research UK All rights reserved.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Background: Habitual consumption of diets with a high glycemic index (GI) and a high glycemic load (GL) may influence cancer risk via hyperinsulinemia and the insulin-like growth factor axis.
Objective: The objective was to conduct a systematic review to assess the association between GI, GL, and risk of digestive tract cancers.
Design: Medline and Embase were searched for relevant publications from inception to July 2008. When possible, adjusted results from a comparison of cancer risk of the highest compared with the lowest category of GI and GL intake were combined by using random-effects meta-analyses.
Results: Cohort and case-control studies that examined the risk between GI or GL intake and colorectal cancer (n = 12) and adenomas (n = 2), pancreatic cancer (n = 6), gastric cancer (n = 2), and squamous-cell esophageal carcinoma (n = 1) were retrieved. Most case-control studies observed positive associations between GI and GL intake and these cancers. However, pooled cohort study results showed no associations between colorectal cancer risk and GI intake [relative risk (RR): 1.04; 95% CI: 0.92, 1.12; n = 7 studies] or GL intake (RR: 1.06; 95% CI: 0.95, 1.17; n = 8 studies). Furthermore, no significant associations were observed in meta-analyses of cohort study results of colorectal cancer subsites and GI and GL intake. Similarly, no significant associations emerged between pancreatic cancer risk and GI intake (RR: 0.99; 95% CI: 0.83, 1.19; n = 5 studies) or GL intake (RR: 1.01; 95% CI: 0.86, 1.19; n = 6 studies) in combined cohort studies.
Conclusions: The findings from our meta-analyses indicate that GI and GL intakes are not associated with risk of colorectal or pancreatic cancers. There were insufficient data available regarding other digestive tract cancers to make any conclusions about GI or GL intake and risk.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The Strengths and Difficulties Questionnaire (SDQ) is a widely used 25-item screening test for emotional and behavioral problems in children and adolescents. This study attempted to critically examine the factor structure of the adolescent self-report version. As part of an ongoing longitudinal cohort study, a total of 3,753 pupils completed the SDQ when aged 12. Both three- and five-factor exploratory factor analysis models were estimated. A number of deviations from the hypothesized SDQ structure were observed, including a lack of unidimensionality within particular subscales, cross-loadings, and items failing to load on any factor. Model fit of the confirmatory factor analysis model was modest, providing limited support for the hypothesized five-component structure. The analyses suggested a number of weaknesses within the component structure of the self-report SDQ, particularly in relation to the reverse-coded items.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

BACKGROUND: Neisseria meningitidis can cause severe infection in humans. Polymorphism of Complement Factor H (CFH) is associated with altered risk of invasive meningococcal disease (IMD). We aimed to find whether polymorphism of other complement genes altered risk and whether variation of N. meningitidis factor H binding protein (fHBP) affected the risk association.

METHODS: We undertook a case-control study with 309 European cases and 5,200 1958 Birth Cohort and National Blood Service cohort controls. We used additive model logistic regression, accepting P<0.05 as significant after correction for multiple testing. The effects of fHBP subfamily on the age at infection and severity of disease was tested using the independent samples median test and Student's T test. The effect of CFH polymorphism on the N. meningitidis fHBP subfamily was investigated by logistic regression and Chi squared test.

RESULTS: Rs12085435 A in C8B was associated with odds ratio (OR) of IMD (0.35 [95% CI 0.19-0.67]; P = 0.03 after correction). A CFH haplotype tagged by rs3753396 G was associated with IMD (OR 0.56 [95% CI 0.42-0.76], P = 1.6x10-4). There was no bacterial load (CtrA cycle threshold) difference associated with carriage of this haplotype. Host CFH haplotype and meningococcal fHBP subfamily were not associated. Individuals infected with meningococci expressing subfamily A fHBP were younger than those with subfamily B fHBP meningococci (median 1 vs 2 years; P = 0.025).

DISCUSSION: The protective CFH haplotype alters odds of IMD without affecting bacterial load for affected heterozygotes. CFH haplotype did not affect the likelihood of infecting meningococci having either fHBP subfamily. The association between C8B rs12085435 and IMD requires independent replication. The CFH association is of interest because it is independent of known functional polymorphisms in CFH. As fHBP-containing vaccines are now in use, relationships between CFH polymorphism and vaccine effectiveness and side-effects may become important.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

There are many uncertainties in forecasting the charging and discharging capacity required by electric vehicles (EVs) often as a consequence of stochastic usage and intermittent travel. In terms of large-scale EV integration in future power networks this paper develops a capacity forecasting model which considers eight particular uncertainties in three categories. Using the model, a typical application of EVs to load levelling is presented and exemplified using a UK 2020 case study. The results presented in this paper demonstrate that the proposed model is accurate for charge and discharge prediction and a feasible basis for steady-state analysis required for large-scale EV integration.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The impact of urban waste-water and non-point nitrate discharges in estuarine and near-shore coastal waters are analyzed. The study is focused on the effects of applying the European directives 91/271/EEC and 91/676/EEC to these systems. 4 Portuguese estuaries and two coastal lagoons with different characteristics are studied. A modelling system is applied and calibrated in each system. Three nitrate load scenarios are examined. It is shown that the morphologic and hydrodynamic characteristics of the domain largely control the ecological processes in these systems. The primary production limitation factors are split into “biologic” and “hydrodynamic” components. The physical limitation due to hydrodynamic and residence time is the most important factor. The combined limitation of “biologic” factors (temperature, light and nutrients availability) control productivity only in the systems where physical limitation is not important.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Recently there has been an increase of interest in implementing a new set of home appliances, known as Smart Appliances that integrate Information Technologies, the Internet of Things and the ability of communicating with other devices. While Smart Appliances are characterized as an important milestone on the path to the Smart Grid, by being able to automatically schedule their loads according to a tariff or reflecting the power that is generated using renewable sources, there is not a clear understanding on the impact that the behavior of such devices will have in the comfort levels of users, when they shift their working periods to earlier, or later than, a preset time. Given these considerations, in this work we analyse the results of an assessment survey carried out to a group of Home Appliance users regarding their habits when dealing with these machines and the subjective impact in quality caused by either finishing its programs before or after the time limit set by the user. The results of this work are expected to be used as input for the evaluation of load scheduling algorithms running in energy management systems. © 2014 Springer International Publishing.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Traditional psychometric theory and practice classify people according to broad ability dimensions but do not examine how these mental processes occur. Hunt and Lansman (1975) proposed a 'distributed memory' model of cognitive processes with emphasis on how to describe individual differences based on the assumption that each individual possesses the same components. It is in the quality of these components ~hat individual differences arise. Carroll (1974) expands Hunt's model to include a production system (after Newell and Simon, 1973) and a response system. He developed a framework of factor analytic (FA) factors for : the purpose of describing how individual differences may arise from them. This scheme is to be used in the analysis of psychometric tes ts . Recent advances in the field of information processing are examined and include. 1) Hunt's development of differences between subjects designated as high or low verbal , 2) Miller's pursuit of the magic number seven, plus or minus two, 3) Ferguson's examination of transfer and abilities and, 4) Brown's discoveries concerning strategy teaching and retardates . In order to examine possible sources of individual differences arising from cognitive tasks, traditional psychometric tests were searched for a suitable perceptual task which could be varied slightly and administered to gauge learning effects produced by controlling independent variables. It also had to be suitable for analysis using Carroll's f ramework . The Coding Task (a symbol substitution test) found i n the Performance Scale of the WISe was chosen. Two experiments were devised to test the following hypotheses. 1) High verbals should be able to complete significantly more items on the Symbol Substitution Task than low verbals (Hunt, Lansman, 1975). 2) Having previous practice on a task, where strategies involved in the task may be identified, increases the amount of output on a similar task (Carroll, 1974). J) There should be a sUbstantial decrease in the amount of output as the load on STM is increased (Miller, 1956) . 4) Repeated measures should produce an increase in output over trials and where individual differences in previously acquired abilities are involved, these should differentiate individuals over trials (Ferguson, 1956). S) Teaching slow learners a rehearsal strategy would improve their learning such that their learning would resemble that of normals on the ,:same task. (Brown, 1974). In the first experiment 60 subjects were d.ivided·into high and low verbal, further divided randomly into a practice group and nonpractice group. Five subjects in each group were assigned randomly to work on a five, seven and nine digit code throughout the experiment. The practice group was given three trials of two minutes each on the practice code (designed to eliminate transfer effects due to symbol similarity) and then three trials of two minutes each on the actual SST task . The nonpractice group was given three trials of two minutes each on the same actual SST task . Results were analyzed using a four-way analysis of variance . In the second experiment 18 slow learners were divided randomly into two groups. one group receiving a planned strategy practioe, the other receiving random practice. Both groups worked on the actual code to be used later in the actual task. Within each group subjects were randomly assigned to work on a five, seven or nine digit code throughout. Both practice and actual tests consisted on three trials of two minutes each. Results were analyzed using a three-way analysis of variance . It was found in t he first experiment that 1) high or low verbal ability by itself did not produce significantly different results. However, when in interaction with the other independent variables, a difference in performance was noted . 2) The previous practice variable was significant over all segments of the experiment. Those who received previo.us practice were able to score significantly higher than those without it. J) Increasing the size of the load on STM severely restricts performance. 4) The effect of repeated trials proved to be beneficial. Generally, gains were made on each successive trial within each group. S) In the second experiment, slow learners who were allowed to practice randomly performed better on the actual task than subjeots who were taught the code by means of a planned strategy. Upon analysis using the Carroll scheme, individual differences were noted in the ability to develop strategies of storing, searching and retrieving items from STM, and in adopting necessary rehearsals for retention in STM. While these strategies may benef it some it was found that for others they may be harmful . Temporal aspects and perceptual speed were also found to be sources of variance within individuals . Generally it was found that the largest single factor i nfluencing learning on this task was the repeated measures . What e~ables gains to be made, varies with individuals . There are environmental factors, specific abilities, strategy development, previous learning, amount of load on STM , perceptual and temporal parameters which influence learning and these have serious implications for educational programs .

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Affiliation: Mark Daniel: Département de médecine sociale et préventive, Faculté de médecine, Université de Montréal et Centre de recherche du Centre hospitalier de l'Université de Montréal

Relevância:

30.00% 30.00%

Publicador:

Resumo:

We study the workings of the factor analysis of high-dimensional data using artificial series generated from a large, multi-sector dynamic stochastic general equilibrium (DSGE) model. The objective is to use the DSGE model as a laboratory that allow us to shed some light on the practical benefits and limitations of using factor analysis techniques on economic data. We explain in what sense the artificial data can be thought of having a factor structure, study the theoretical and finite sample properties of the principal components estimates of the factor space, investigate the substantive reason(s) for the good performance of di¤usion index forecasts, and assess the quality of the factor analysis of highly dissagregated data. In all our exercises, we explain the precise relationship between the factors and the basic macroeconomic shocks postulated by the model.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ma thèse est composée de trois chapitres reliés à l'estimation des modèles espace-état et volatilité stochastique. Dans le première article, nous développons une procédure de lissage de l'état, avec efficacité computationnelle, dans un modèle espace-état linéaire et gaussien. Nous montrons comment exploiter la structure particulière des modèles espace-état pour tirer les états latents efficacement. Nous analysons l'efficacité computationnelle des méthodes basées sur le filtre de Kalman, l'algorithme facteur de Cholesky et notre nouvelle méthode utilisant le compte d'opérations et d'expériences de calcul. Nous montrons que pour de nombreux cas importants, notre méthode est plus efficace. Les gains sont particulièrement grands pour les cas où la dimension des variables observées est grande ou dans les cas où il faut faire des tirages répétés des états pour les mêmes valeurs de paramètres. Comme application, on considère un modèle multivarié de Poisson avec le temps des intensités variables, lequel est utilisé pour analyser le compte de données des transactions sur les marchés financières. Dans le deuxième chapitre, nous proposons une nouvelle technique pour analyser des modèles multivariés à volatilité stochastique. La méthode proposée est basée sur le tirage efficace de la volatilité de son densité conditionnelle sachant les paramètres et les données. Notre méthodologie s'applique aux modèles avec plusieurs types de dépendance dans la coupe transversale. Nous pouvons modeler des matrices de corrélation conditionnelles variant dans le temps en incorporant des facteurs dans l'équation de rendements, où les facteurs sont des processus de volatilité stochastique indépendants. Nous pouvons incorporer des copules pour permettre la dépendance conditionnelle des rendements sachant la volatilité, permettant avoir différent lois marginaux de Student avec des degrés de liberté spécifiques pour capturer l'hétérogénéité des rendements. On tire la volatilité comme un bloc dans la dimension du temps et un à la fois dans la dimension de la coupe transversale. Nous appliquons la méthode introduite par McCausland (2012) pour obtenir une bonne approximation de la distribution conditionnelle à posteriori de la volatilité d'un rendement sachant les volatilités d'autres rendements, les paramètres et les corrélations dynamiques. Le modèle est évalué en utilisant des données réelles pour dix taux de change. Nous rapportons des résultats pour des modèles univariés de volatilité stochastique et deux modèles multivariés. Dans le troisième chapitre, nous évaluons l'information contribuée par des variations de volatilite réalisée à l'évaluation et prévision de la volatilité quand des prix sont mesurés avec et sans erreur. Nous utilisons de modèles de volatilité stochastique. Nous considérons le point de vue d'un investisseur pour qui la volatilité est une variable latent inconnu et la volatilité réalisée est une quantité d'échantillon qui contient des informations sur lui. Nous employons des méthodes bayésiennes de Monte Carlo par chaîne de Markov pour estimer les modèles, qui permettent la formulation, non seulement des densités a posteriori de la volatilité, mais aussi les densités prédictives de la volatilité future. Nous comparons les prévisions de volatilité et les taux de succès des prévisions qui emploient et n'emploient pas l'information contenue dans la volatilité réalisée. Cette approche se distingue de celles existantes dans la littérature empirique en ce sens que ces dernières se limitent le plus souvent à documenter la capacité de la volatilité réalisée à se prévoir à elle-même. Nous présentons des applications empiriques en utilisant les rendements journaliers des indices et de taux de change. Les différents modèles concurrents sont appliqués à la seconde moitié de 2008, une période marquante dans la récente crise financière.