584 resultados para Problèmes extériorisés


Relevância:

10.00% 10.00%

Publicador:

Resumo:

In a recent paper, Bai and Perron (1998) considered theoretical issues related to the limiting distribution of estimators and test statistics in the linear model with multiple structural changes. In this companion paper, we consider practical issues for the empirical applications of the procedures. We first address the problem of estimation of the break dates and present an efficient algorithm to obtain global minimizers of the sum of squared residuals. This algorithm is based on the principle of dynamic programming and requires at most least-squares operations of order O(T 2) for any number of breaks. Our method can be applied to both pure and partial structural-change models. Secondly, we consider the problem of forming confidence intervals for the break dates under various hypotheses about the structure of the data and the errors across segments. Third, we address the issue of testing for structural changes under very general conditions on the data and the errors. Fourth, we address the issue of estimating the number of breaks. We present simulation results pertaining to the behavior of the estimators and tests in finite samples. Finally, a few empirical applications are presented to illustrate the usefulness of the procedures. All methods discussed are implemented in a GAUSS program available upon request for non-profit academic use.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We propose finite sample tests and confidence sets for models with unobserved and generated regressors as well as various models estimated by instrumental variables methods. The validity of the procedures is unaffected by the presence of identification problems or \"weak instruments\", so no detection of such problems is required. We study two distinct approaches for various models considered by Pagan (1984). The first one is an instrument substitution method which generalizes an approach proposed by Anderson and Rubin (1949) and Fuller (1987) for different (although related) problems, while the second one is based on splitting the sample. The instrument substitution method uses the instruments directly, instead of generated regressors, in order to test hypotheses about the \"structural parameters\" of interest and build confidence sets. The second approach relies on \"generated regressors\", which allows a gain in degrees of freedom, and a sample split technique. For inference about general possibly nonlinear transformations of model parameters, projection techniques are proposed. A distributional theory is obtained under the assumptions of Gaussian errors and strictly exogenous regressors. We show that the various tests and confidence sets proposed are (locally) \"asymptotically valid\" under much weaker assumptions. The properties of the tests proposed are examined in simulation experiments. In general, they outperform the usual asymptotic inference methods in terms of both reliability and power. Finally, the techniques suggested are applied to a model of Tobin’s q and to a model of academic performance.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Recent work shows that a low correlation between the instruments and the included variables leads to serious inference problems. We extend the local-to-zero analysis of models with weak instruments to models with estimated instruments and regressors and with higher-order dependence between instruments and disturbances. This makes this framework applicable to linear models with expectation variables that are estimated non-parametrically. Two examples of such models are the risk-return trade-off in finance and the impact of inflation uncertainty on real economic activity. Results show that inference based on Lagrange Multiplier (LM) tests is more robust to weak instruments than Wald-based inference. Using LM confidence intervals leads us to conclude that no statistically significant risk premium is present in returns on the S&P 500 index, excess holding yields between 6-month and 3-month Treasury bills, or in yen-dollar spot returns.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this paper, we propose several finite-sample specification tests for multivariate linear regressions (MLR) with applications to asset pricing models. We focus on departures from the assumption of i.i.d. errors assumption, at univariate and multivariate levels, with Gaussian and non-Gaussian (including Student t) errors. The univariate tests studied extend existing exact procedures by allowing for unspecified parameters in the error distributions (e.g., the degrees of freedom in the case of the Student t distribution). The multivariate tests are based on properly standardized multivariate residuals to ensure invariance to MLR coefficients and error covariances. We consider tests for serial correlation, tests for multivariate GARCH and sign-type tests against general dependencies and asymmetries. The procedures proposed provide exact versions of those applied in Shanken (1990) which consist in combining univariate specification tests. Specifically, we combine tests across equations using the MC test procedure to avoid Bonferroni-type bounds. Since non-Gaussian based tests are not pivotal, we apply the “maximized MC” (MMC) test method [Dufour (2002)], where the MC p-value for the tested hypothesis (which depends on nuisance parameters) is maximized (with respect to these nuisance parameters) to control the test’s significance level. The tests proposed are applied to an asset pricing model with observable risk-free rates, using monthly returns on New York Stock Exchange (NYSE) portfolios over five-year subperiods from 1926-1995. Our empirical results reveal the following. Whereas univariate exact tests indicate significant serial correlation, asymmetries and GARCH in some equations, such effects are much less prevalent once error cross-equation covariances are accounted for. In addition, significant departures from the i.i.d. hypothesis are less evident once we allow for non-Gaussian errors.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

It is well known that standard asymptotic theory is not valid or is extremely unreliable in models with identification problems or weak instruments [Dufour (1997, Econometrica), Staiger and Stock (1997, Econometrica), Wang and Zivot (1998, Econometrica), Stock and Wright (2000, Econometrica), Dufour and Jasiak (2001, International Economic Review)]. One possible way out consists here in using a variant of the Anderson-Rubin (1949, Ann. Math. Stat.) procedure. The latter, however, allows one to build exact tests and confidence sets only for the full vector of the coefficients of the endogenous explanatory variables in a structural equation, which in general does not allow for individual coefficients. This problem may in principle be overcome by using projection techniques [Dufour (1997, Econometrica), Dufour and Jasiak (2001, International Economic Review)]. AR-types are emphasized because they are robust to both weak instruments and instrument exclusion. However, these techniques can be implemented only by using costly numerical techniques. In this paper, we provide a complete analytic solution to the problem of building projection-based confidence sets from Anderson-Rubin-type confidence sets. The latter involves the geometric properties of “quadrics” and can be viewed as an extension of usual confidence intervals and ellipsoids. Only least squares techniques are required for building the confidence intervals. We also study by simulation how “conservative” projection-based confidence sets are. Finally, we illustrate the methods proposed by applying them to three different examples: the relationship between trade and growth in a cross-section of countries, returns to education, and a study of production functions in the U.S. economy.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We discuss statistical inference problems associated with identification and testability in econometrics, and we emphasize the common nature of the two issues. After reviewing the relevant statistical notions, we consider in turn inference in nonparametric models and recent developments on weakly identified models (or weak instruments). We point out that many hypotheses, for which test procedures are commonly proposed, are not testable at all, while some frequently used econometric methods are fundamentally inappropriate for the models considered. Such situations lead to ill-defined statistical problems and are often associated with a misguided use of asymptotic distributional results. Concerning nonparametric hypotheses, we discuss three basic problems for which such difficulties occur: (1) testing a mean (or a moment) under (too) weak distributional assumptions; (2) inference under heteroskedasticity of unknown form; (3) inference in dynamic models with an unlimited number of parameters. Concerning weakly identified models, we stress that valid inference should be based on proper pivotal functions —a condition not satisfied by standard Wald-type methods based on standard errors — and we discuss recent developments in this field, mainly from the viewpoint of building valid tests and confidence sets. The techniques discussed include alternative proposed statistics, bounds, projection, split-sampling, conditioning, Monte Carlo tests. The possibility of deriving a finite-sample distributional theory, robustness to the presence of weak instruments, and robustness to the specification of a model for endogenous explanatory variables are stressed as important criteria assessing alternative procedures.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper presents a new theory of random consumer demand. The primitive is a collection of probability distributions, rather than a binary preference. Various assumptions constrain these distributions, including analogues of common assumptions about preferences such as transitivity, monotonicity and convexity. Two results establish a complete representation of theoretically consistent random demand. The purpose of this theory of random consumer demand is application to empirical consumer demand problems. To this end, the theory has several desirable properties. It is intrinsically stochastic, so the econometrician can apply it directly without adding extrinsic randomness in the form of residuals. Random demand is parsimoniously represented by a single function on the consumption set. Finally, we have a practical method for statistical inference based on the theory, described in McCausland (2004), a companion paper.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cet article illustre l’applicabilité des méthodes de rééchantillonnage dans le cadre des tests multiples (simultanés), pour divers problèmes économétriques. Les hypothèses simultanées sont une conséquence habituelle de la théorie économique, de sorte que le contrôle de la probabilité de rejet de combinaisons de tests est un problème que l’on rencontre fréquemment dans divers contextes économétriques et statistiques. À ce sujet, on sait que le fait d’ignorer le caractère conjoint des hypothèses multiples peut faire en sorte que le niveau de la procédure globale dépasse considérablement le niveau désiré. Alors que la plupart des méthodes d’inférence multiple sont conservatrices en présence de statistiques non-indépendantes, les tests que nous proposons visent à contrôler exactement le niveau de signification. Pour ce faire, nous considérons des critères de test combinés proposés initialement pour des statistiques indépendantes. En appliquant la méthode des tests de Monte Carlo, nous montrons comment ces méthodes de combinaison de tests peuvent s’appliquer à de tels cas, sans recours à des approximations asymptotiques. Après avoir passé en revue les résultats antérieurs sur ce sujet, nous montrons comment une telle méthodologie peut être utilisée pour construire des tests de normalité basés sur plusieurs moments pour les erreurs de modèles de régression linéaires. Pour ce problème, nous proposons une généralisation valide à distance finie du test asymptotique proposé par Kiefer et Salmon (1983) ainsi que des tests combinés suivant les méthodes de Tippett et de Pearson-Fisher. Nous observons empiriquement que les procédures de test corrigées par la méthode des tests de Monte Carlo ne souffrent pas du problème de biais (ou sous-rejet) souvent rapporté dans cette littérature – notamment contre les lois platikurtiques – et permettent des gains sensibles de puissance par rapport aux méthodes combinées usuelles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de stage présenté à la Faculté des sciences infirmières en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en Sciences infirmières option formation

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Département de linguistique et de traduction

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Département de linguistique et de traduction

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le principal reproche qui est adressé au droit international est la faiblesse de ses mécanismes de sanctions. Pour cette raison, plusieurs penseurs juridiques ont conclu que le droit international n'existait pas. Le présent mémoire vise donc à étudier la rhétorique derrière cette affirmation et à examiner sa validité. Pour ce faire, nous analysons dans un premier temps la relation entre la sanction et le droit à travers le cadre positiviste du XIXe siècle. Nous étudions tour à tour les soi-disant critères constitutifs de la sanction. Nous les comparons avec d'autres ordres non juridiques pour ensuite rejeter le postulat positiviste qui fait de la contrainte et de la centralisation des pouvoirs les éléments essentiels de la sanction. Nous étudions ensuite le cadre d'adoption des sanctions économiques du Conseil de sécurité des Nations Unies. Cette étape nous permet d'expliquer les principales faiblesses et limitations du droit international. Parmi celles-ci, le manque de coopération internationale, le droit de veto et le principe de la souveraineté nationale sont les éléments qui freinent l'adoption des sanctions coopération internationale. Nous examinons ensuite les objectifs derrière l'imposition des sanctions ainsi que leur efficacité. Finalement, nous étudions les embargos en général et les embargos sur les armes. Cette étude nous permet d'une part de démontrer les effets des sanctions économiques sur la population civile et sur les États tiers. D'autre part, elle nous permet de mieux comprendre les problèmes relatifs à l'administration d'une sanction, ainsi qu'aux mesures de contournement des interdictions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Face au retrait massif d'enfants autochtones de leur communauté, les autochtones revendiquent plus de contrôle sur les questions de protection de la jeunesse. Ces revendications s'inscrivent dans leur lutte pour l'autonomie gouvernementale. À l'occasion notre recherche, nous avons cherché à savoir comment, dans le domaine de la protection de la jeunesse, ce droit collectif à l'autonomie gouvernementale peut s'articuler aux droits individuels de l'enfant. La théorie libérale de Will Kymlicka qui concilie droits individuels et droits collectifs constitue le cadre théorique de notre étude. Nous avons analysé quatre types d'aménagements institutionnels ayant tous pour objet de donner plus de contrôle aux autochtones en matière de protection de la jeunesse: 1) la délégation aux autochtones du pouvoir d'administrer les lois provinciales sur la protection de la jeunesse (modèle dit «d'autorité déléguée »); 2) la création de normes autochtones de protection de la jeunesse fondée sur une autorité déléguée par le parlement fédéral (modèle développé par la bande Spallumcheen); 3) l'exercice d'une autonomie gouvernementale autochtone limitée à l'intérieur des réserves et l'application de normes fédérales uniformes à l'extérieur des réserves (modèle développé aux Etats-Unis) et 3) la reconnaissance formelle du droit à l'autonomie gouvernementale (modèle développé par la nation Nisga'a). Nous avons tenté d'identifier le modèle se rapprochant le plus de l'idéal type kymlickien. Notre recherche nous a permis de conclure que le modèle développé par la Nation Nisga'a permet une conciliation optimale des droits individuels et des droits collectifs telle que cette conciliation est entendue selon la théorie de Kymlicka. Parallèlement à cette conclusion principale, notre étude nous a permis de souligner certaines failles d'une approche kymlickienne : 1) la théorie de nature générale de Kymlicka n'apporte pas de réponse à la question du titulaire du droit à l'autonomie gouvernementale et 2) une approche mettant exclusivement l'accent sur des réformes institutionnelles (comme celle de Kymlicka) n'est pas suffisante pour régler des problèmes aussi complexes que celui de la protection de lajeunesse autochtone. Dans la première partie de notre mémoire, nous avons exposé le contexte historique et théorique propre à notre sujet d'étude. L'évolution historique des politiques canadiennes de protection de la jeunesse autochtone et les droits individuels et collectifs en jeu y sont présentés. Dans la deuxième partie, nous avons exposé la théorie de Kymlicka que nous avons appliqué par la suite aux quatre modèles de protection de la jeunesse autochtone analysés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

"Mémoire Présenté à la Faculté des Études Supérieures en vue de l'obtention du Grade de Maîtrise En Droit Option Recherche"