116 resultados para Partition de la variance


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Ce Texte Presente Plusieurs Resultats Exacts Sur les Seconds Moments des Autocorrelations Echantillonnales, Pour des Series Gaussiennes Ou Non-Gaussiennes. Nous Donnons D'abord des Formules Generales Pour la Moyenne, la Variance et les Covariances des Autocorrelations Echantillonnales, Dans le Cas Ou les Variables de la Serie Sont Interchangeables. Nous Deduisons de Celles-Ci des Bornes Pour les Variances et les Covariances des Autocorrelations Echantillonnales. Ces Bornes Sont Utilisees Pour Obtenir des Limites Exactes Sur les Points Critiques Lorsqu'on Teste le Caractere Aleatoire D'une Serie Chronologique, Sans Qu'aucune Hypothese Soit Necessaire Sur la Forme de la Distribution Sous-Jacente. Nous Donnons des Formules Exactes et Explicites Pour les Variances et Covariances des Autocorrelations Dans le Cas Ou la Serie Est un Bruit Blanc Gaussien. Nous Montrons Que Ces Resultats Sont Aussi Valides Lorsque la Distribution de la Serie Est Spheriquement Symetrique. Nous Presentons les Resultats D'une Simulation Qui Indiquent Clairement Qu'on Approxime Beaucoup Mieux la Distribution des Autocorrelations Echantillonnales En Normalisant Celles-Ci Avec la Moyenne et la Variance Exactes et En Utilisant la Loi N(0,1) Asymptotique, Plutot Qu'en Employant les Seconds Moments Approximatifs Couramment En Usage. Nous Etudions Aussi les Variances et Covariances Exactes D'autocorrelations Basees Sur les Rangs des Observations.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This paper develops a model of money demand where the opportunity cost of holding money is subject to regime changes. The regimes are fully characterized by the mean and variance of inflation and are assumed to be the result of alternative government policies. Agents are unable to directly observe whether government actions are indeed consistent with the inflation rate targeted as part of a stabilization program but can construct probability inferences on the basis of available observations of inflation and money growth. Government announcements are assumed to provide agents with additional, possibly truthful information regarding the regime. This specification is estimated and tested using data from the Israeli and Argentine high inflation periods. Results indicate the successful stabilization program implemented in Israel in July 1985 was more credible than either the earlier Israeli attempt in November 1984 or the Argentine programs. Government’s signaling might substantially simplify the inference problem and increase the speed of learning on the part of the agents. However, under certain conditions, it might increase the volatility of inflation. After the introduction of an inflation stabilization plan, the welfare gains from a temporary increase in real balances might be high enough to induce agents to raise their real balances in the short-term, even if they are uncertain about the nature of government policy and the eventual outcome of the stabilization attempt. Statistically, the model restrictions cannot be rejected at the 1% significance level.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This paper addresses the issue of estimating semiparametric time series models specified by their conditional mean and conditional variance. We stress the importance of using joint restrictions on the mean and variance. This leads us to take into account the covariance between the mean and the variance and the variance of the variance, that is, the skewness and kurtosis. We establish the direct links between the usual parametric estimation methods, namely, the QMLE, the GMM and the M-estimation. The ususal univariate QMLE is, under non-normality, less efficient than the optimal GMM estimator. However, the bivariate QMLE based on the dependent variable and its square is as efficient as the optimal GMM one. A Monte Carlo analysis confirms the relevance of our approach, in particular, the importance of skewness.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The GARCH and Stochastic Volatility paradigms are often brought into conflict as two competitive views of the appropriate conditional variance concept : conditional variance given past values of the same series or conditional variance given a larger past information (including possibly unobservable state variables). The main thesis of this paper is that, since in general the econometrician has no idea about something like a structural level of disaggregation, a well-written volatility model should be specified in such a way that one is always allowed to reduce the information set without invalidating the model. To this respect, the debate between observable past information (in the GARCH spirit) versus unobservable conditioning information (in the state-space spirit) is irrelevant. In this paper, we stress a square-root autoregressive stochastic volatility (SR-SARV) model which remains true to the GARCH paradigm of ARMA dynamics for squared innovations but weakens the GARCH structure in order to obtain required robustness properties with respect to various kinds of aggregation. It is shown that the lack of robustness of the usual GARCH setting is due to two very restrictive assumptions : perfect linear correlation between squared innovations and conditional variance on the one hand and linear relationship between the conditional variance of the future conditional variance and the squared conditional variance on the other hand. By relaxing these assumptions, thanks to a state-space setting, we obtain aggregation results without renouncing to the conditional variance concept (and related leverage effects), as it is the case for the recently suggested weak GARCH model which gets aggregation results by replacing conditional expectations by linear projections on symmetric past innovations. Moreover, unlike the weak GARCH literature, we are able to define multivariate models, including higher order dynamics and risk premiums (in the spirit of GARCH (p,p) and GARCH in mean) and to derive conditional moment restrictions well suited for statistical inference. Finally, we are able to characterize the exact relationships between our SR-SARV models (including higher order dynamics, leverage effect and in-mean effect), usual GARCH models and continuous time stochastic volatility models, so that previous results about aggregation of weak GARCH and continuous time GARCH modeling can be recovered in our framework.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

In this paper, we look at how labor market conditions at different points during the tenure of individuals with firms are correlated with current earnings. Using data on individuals from the German Socioeconomic Panel for the 1985-1994 period, we find that both the contemporaneous unemployment rate and prior values of the unemployment rate are significantly correlated with current earnings, contrary to results for the American labor market. Estimated elasticities vary between 9 and 15 percent for the elasticity of earnings with respect to current unemployment rates, and between 6 and 10 percent with respect to unemployment rates at the start of current firm tenure. Moreover, whereas local unemployment rates determine levels of earnings, national rates influence contemporaneous variations in earnings. We interpret this result as evidence that German unions do, in fact, bargain over wages and employment, but that models of individualistic contracts, such as the implicit contract model, may explain some of the observed wage drift and longer-term wage movements reasonably well. Furthermore, we explore the heterogeneity of contracts over a variety of worker and job characteristics. In particular, we find evidence that contracts differ across firm size and worker type. Workers of large firms are remarkably more insulated from the job market than workers for any other type of firm, indicating the importance of internal job markets.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

We examine the relationship between the risk premium on the S&P 500 index return and its conditional variance. We use the SMEGARCH - Semiparametric-Mean EGARCH - model in which the conditional variance process is EGARCH while the conditional mean is an arbitrary function of the conditional variance. For monthly S&P 500 excess returns, the relationship between the two moments that we uncover is nonlinear and nonmonotonic. Moreover, we find considerable persistence in the conditional variance as well as a leverage effect, as documented by others. Moreover, the shape of these relationships seems to be relatively stable over time.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Recent work suggests that the conditional variance of financial returns may exhibit sudden jumps. This paper extends a non-parametric procedure to detect discontinuities in otherwise continuous functions of a random variable developed by Delgado and Hidalgo (1996) to higher conditional moments, in particular the conditional variance. Simulation results show that the procedure provides reasonable estimates of the number and location of jumps. This procedure detects several jumps in the conditional variance of daily returns on the S&P 500 index.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This paper studies the proposition that an inflation bias can arise in a setup where a central banker with asymmetric preferences targets the natural unemployment rate. Preferences are asymmetric in the sense that positive unemployment deviations from the natural rate are weighted more (or less) severely than negative deviations in the central banker's loss function. The bias is proportional to the conditional variance of unemployment. The time-series predictions of the model are evaluated using data from G7 countries. Econometric estimates support the prediction that the conditional variance of unemployment and the rate of inflation are positively related.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This paper derives the ARMA representation of integrated and realized variances when the spot variance depends linearly on two autoregressive factors, i.e., SR SARV(2) models. This class of processes includes affine, GARCH diffusion, CEV models, as well as the eigenfunction stochastic volatility and the positive Ornstein-Uhlenbeck models. We also study the leverage effect case, the relationship between weak GARCH representation of returns and the ARMA representation of realized variances. Finally, various empirical implications of these ARMA representations are considered. We find that it is possible that some parameters of the ARMA representation are negative. Hence, the positiveness of the expected values of integrated or realized variances is not guaranteed. We also find that for some frequencies of observations, the continuous time model parameters may be weakly or not identified through the ARMA representation of realized variances.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les employés d’un organisme utilisent souvent un schéma de classification personnel pour organiser les documents électroniques qui sont sous leur contrôle direct, ce qui suggère la difficulté pour d’autres employés de repérer ces documents et la perte possible de documentation pour l’organisme. Aucune étude empirique n’a été menée à ce jour afin de vérifier dans quelle mesure les schémas de classification personnels permettent, ou même facilitent, le repérage des documents électroniques par des tiers, dans le cadre d’un travail collaboratif par exemple, ou lorsqu’il s’agit de reconstituer un dossier. Le premier objectif de notre recherche était de décrire les caractéristiques de schémas de classification personnels utilisés pour organiser et classer des documents administratifs électroniques. Le deuxième objectif consistait à vérifier, dans un environnement contrôlé, les différences sur le plan de l’efficacité du repérage de documents électroniques qui sont fonction du schéma de classification utilisé. Nous voulions vérifier s’il était possible de repérer un document avec la même efficacité, quel que soit le schéma de classification utilisé pour ce faire. Une collecte de données en deux étapes fut réalisée pour atteindre ces objectifs. Nous avons d’abord identifié les caractéristiques structurelles, logiques et sémantiques de 21 schémas de classification utilisés par des employés de l’Université de Montréal pour organiser et classer les documents électroniques qui sont sous leur contrôle direct. Par la suite, nous avons comparé, à partir d'une expérimentation contrôlée, la capacité d’un groupe de 70 répondants à repérer des documents électroniques à l’aide de cinq schémas de classification ayant des caractéristiques structurelles, logiques et sémantiques variées. Trois variables ont été utilisées pour mesurer l’efficacité du repérage : la proportion de documents repérés, le temps moyen requis (en secondes) pour repérer les documents et la proportion de documents repérés dès le premier essai. Les résultats révèlent plusieurs caractéristiques structurelles, logiques et sémantiques communes à une majorité de schémas de classification personnels : macro-structure étendue, structure peu profonde, complexe et déséquilibrée, regroupement par thème, ordre alphabétique des classes, etc. Les résultats des tests d’analyse de la variance révèlent des différences significatives sur le plan de l’efficacité du repérage de documents électroniques qui sont fonction des caractéristiques structurelles, logiques et sémantiques du schéma de classification utilisé. Un schéma de classification caractérisé par une macro-structure peu étendue et une logique basée partiellement sur une division par classes d’activités augmente la probabilité de repérer plus rapidement les documents. Au plan sémantique, une dénomination explicite des classes (par exemple, par utilisation de définitions ou en évitant acronymes et abréviations) augmente la probabilité de succès au repérage. Enfin, un schéma de classification caractérisé par une macro-structure peu étendue, une logique basée partiellement sur une division par classes d’activités et une sémantique qui utilise peu d’abréviations augmente la probabilité de repérer les documents dès le premier essai.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Dans le but d’examiner les mécanismes qui sous-tendent le développement de la sécurité d’attachement chez l’enfant, Grossmann et al. (1999; 2008) proposent une perspective plus vaste de l’étude de l’attachement chez l’enfant, examinant les comportements parentaux pertinents aux deux côtés de l’équilibre entre le système d’attachement et le système d’exploration. La thèse se base sur cette approche pour explorer la relation entre la sécurité d’attachement chez l’enfant et deux comportements maternels, soit la sensibilité maternelle et le soutien à l’autonomie maternel, de même que la relation entre ces deux comportements et l’état d’esprit maternel face à l’attachement. Le premier article propose que la théorie de l’autodétermination, avec ses études empiriques portant sur les comportements parentaux liés à l’exploration, offre une perspective utile pour l’étude des comportements d’exploration dans le cadre de l’équilibre attachement/exploration. L’article présente une revue théorique et empirique des domaines de l’attachement et de la théorie de l’autodétermination et souligne des analogies conceptuelles et empiriques entre les deux domaines, en plus de décrire la façon dont ils se complètent et se complémentent. Le deuxième article étudie les liens entre la sensibilité maternelle, le soutien à l’autonomie maternel et la sécurité d’attachement chez l’enfant. Soixante et onze dyades ont participé à deux visites à domicile. La sensibilité maternelle a été évaluée lorsque les enfants étaient âgés de 12 mois, alors que le soutien à l’autonomie maternel et la sécurité d’attachement chez l’enfant l’ont été lorsque les enfants avaient atteint l’âge de 15 mois. Les résultats indiquent que le soutien à l’autonomie maternel explique une portion significative de la variance de la sécurité d’attachement, et ce, après avoir contrôlé pour la sensibilité maternelle et le statut socio-économique. Le troisième article examine les relations entre deux dimensions de l’état d’esprit maternel face à l’attachement (esquivant et préoccupé/non-résolu), la sensibilité maternelle et le soutien à l’autonomie maternel. Soixante et onze dyades ont participé à trois visites à domicile. L’Entrevue d’Attachement Adulte (EAA) a été administrée lorsque les enfants étaient âgés de 8 mois, la sensibilité maternelle a été évaluée alors qu’ils avaient atteint l’âge de 12 mois et le soutien à l’autonomie maternel, lorsqu’ils avaient 15 mois. Les résultats révèlent qu’après avoir contrôlé pour le statut socio-économique, la sensibilité maternelle est liée de façon négative à la dimension « esquivant » de l’EAA, alors que le soutien à l’autonomie maternel est lié de façon négative à la dimension « préoccupé/non-résolu ». Les résultats présentés dans le deuxième et le troisième article sont discutés, de même que de leurs répercussions théoriques et cliniques. Des questions susceptibles de guider des recherches futures sont proposées.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

L'imputation est souvent utilisée dans les enquêtes pour traiter la non-réponse partielle. Il est bien connu que traiter les valeurs imputées comme des valeurs observées entraîne une sous-estimation importante de la variance des estimateurs ponctuels. Pour remédier à ce problème, plusieurs méthodes d'estimation de la variance ont été proposées dans la littérature, dont des méthodes adaptées de rééchantillonnage telles que le Bootstrap et le Jackknife. Nous définissons le concept de double-robustesse pour l'estimation ponctuelle et de variance sous l'approche par modèle de non-réponse et l'approche par modèle d'imputation. Nous mettons l'emphase sur l'estimation de la variance à l'aide du Jackknife qui est souvent utilisé dans la pratique. Nous étudions les propriétés de différents estimateurs de la variance à l'aide du Jackknife pour l'imputation par la régression déterministe ainsi qu'aléatoire. Nous nous penchons d'abord sur le cas de l'échantillon aléatoire simple. Les cas de l'échantillonnage stratifié et à probabilités inégales seront aussi étudiés. Une étude de simulation compare plusieurs méthodes d'estimation de variance à l'aide du Jackknife en terme de biais et de stabilité relative quand la fraction de sondage n'est pas négligeable. Finalement, nous établissons la normalité asymptotique des estimateurs imputés pour l'imputation par régression déterministe et aléatoire.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les logiciels utilisés sont Splus et R.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La forte prévalence des troubles des conduites alimentaires (TCA) chez les jeunes femmes et les faibles taux de rémission suite à un traitement ont encouragé les chercheurs à mieux comprendre les facteurs impliqués dans ce trouble mental. L’un des premiers modèles à mettre l’emphase sur des traits de personnalité associés au développement d’un TCA a été proposé par Hilde Bruch (1962, 1973, 1978) et a toujours une grande influence dans la recherche actuelle. Le modèle de Bruch inclue trois facteurs, soit l’insatisfaction corporelle, l’inefficacité et la conscience intéroceptive. Le but de cette thèse est d’apporter un support empirique au modèle de Bruch. En se basant sur une revue extensive des écrits scientifiques, cette thèse vise aussi à déterminer si deux facteurs reliés, soit l’alexithymie et le sentiment d’efficacité personnelle face à l’adoption de conduites alimentaires saines, améliorent la précision du modèle dans la prédiction de symptômes de TCA. Pour répondre empiriquement à cette question, il était d’abord nécessaire de disposer d’un questionnaire évaluant le sentiment d’efficacité personnelle en lien avec les conduites alimentaires qui peut être utilisé dans tout le spectre de présentation des TCA. Ainsi, le Eating Disorder Self-Efficacy Questionnaire (EDRSQ) a été adapté en français et ses propriétés psychométriques ont été évaluées. Une analyse factorielle confirmatoire a révélé une structure bi-factorielle, soit le sentiment d’efficacité personnelle en lien avec l’insatisfaction corporelle et avec l’adoption d’une alimentation normative. Chaque échelle a démontré une bonne fiabilité ainsi qu’une validité de construit cohérente avec la théorie. Par la suite, la capacité des facteurs proposés par Bruch à prédire les symptômes de TCA a été évaluée et comparée à des adaptations du modèle découlant des écrits. Au total, 203 étudiantes de premier cycle universitaire ont complété les versions validées en français du Eating Disorder Inventory 2, du Eating Attitudes Test, et du Toronto Alexithymia Scale en plus du EDRSQ. Les résultats montrent que le modèle de Bruch explique 46% de la variance des symptômes de TCA. Alors que l’insatisfaction corporelle et la conscience intéroceptive démontrent chacun une contribution importante dans la prédiction des symptômes de TCA, il a été démontré que l’inefficacité présente seulement une contribution spécifique négligeable. Le modèle de Bruch est amélioré par la substitution de l’inefficacité par le sentiment d’efficacité personnelle tel que mesuré par le EDRSQ; le modèle explique alors 64% de la variance des symptômes de TCA. Finalement, cette étude démontre que l’alexithymie n’a pas de contribution spécifique dans la prédiction des symptômes de TCA. Ainsi, la combinaison d’une faible conscience intéroceptive, de l’insatisfaction corporelle et d’un faible sentiment d’efficacité personnelle en lien avec les conduites alimentaires est fortement associée aux symptômes de TCA dans un échantillon non-clinique de jeunes femmes. Finalement, les implications conceptuelles et cliniques de ces résultats sont discutées.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The attached file is created with Scientific Workplace Latex