53 resultados para Process control - Statistical methods


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Recent work shows that a low correlation between the instruments and the included variables leads to serious inference problems. We extend the local-to-zero analysis of models with weak instruments to models with estimated instruments and regressors and with higher-order dependence between instruments and disturbances. This makes this framework applicable to linear models with expectation variables that are estimated non-parametrically. Two examples of such models are the risk-return trade-off in finance and the impact of inflation uncertainty on real economic activity. Results show that inference based on Lagrange Multiplier (LM) tests is more robust to weak instruments than Wald-based inference. Using LM confidence intervals leads us to conclude that no statistically significant risk premium is present in returns on the S&P 500 index, excess holding yields between 6-month and 3-month Treasury bills, or in yen-dollar spot returns.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this paper we propose exact likelihood-based mean-variance efficiency tests of the market portfolio in the context of Capital Asset Pricing Model (CAPM), allowing for a wide class of error distributions which include normality as a special case. These tests are developed in the frame-work of multivariate linear regressions (MLR). It is well known however that despite their simple statistical structure, standard asymptotically justified MLR-based tests are unreliable. In financial econometrics, exact tests have been proposed for a few specific hypotheses [Jobson and Korkie (Journal of Financial Economics, 1982), MacKinlay (Journal of Financial Economics, 1987), Gib-bons, Ross and Shanken (Econometrica, 1989), Zhou (Journal of Finance 1993)], most of which depend on normality. For the gaussian model, our tests correspond to Gibbons, Ross and Shanken’s mean-variance efficiency tests. In non-gaussian contexts, we reconsider mean-variance efficiency tests allowing for multivariate Student-t and gaussian mixture errors. Our framework allows to cast more evidence on whether the normality assumption is too restrictive when testing the CAPM. We also propose exact multivariate diagnostic checks (including tests for multivariate GARCH and mul-tivariate generalization of the well known variance ratio tests) and goodness of fit tests as well as a set estimate for the intervening nuisance parameters. Our results [over five-year subperiods] show the following: (i) multivariate normality is rejected in most subperiods, (ii) residual checks reveal no significant departures from the multivariate i.i.d. assumption, and (iii) mean-variance efficiency tests of the market portfolio is not rejected as frequently once it is allowed for the possibility of non-normal errors.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

We study the problem of testing the error distribution in a multivariate linear regression (MLR) model. The tests are functions of appropriately standardized multivariate least squares residuals whose distribution is invariant to the unknown cross-equation error covariance matrix. Empirical multivariate skewness and kurtosis criteria are then compared to simulation-based estimate of their expected value under the hypothesized distribution. Special cases considered include testing multivariate normal, Student t; normal mixtures and stable error models. In the Gaussian case, finite-sample versions of the standard multivariate skewness and kurtosis tests are derived. To do this, we exploit simple, double and multi-stage Monte Carlo test methods. For non-Gaussian distribution families involving nuisance parameters, confidence sets are derived for the the nuisance parameters and the error distribution. The procedures considered are evaluated in a small simulation experi-ment. Finally, the tests are applied to an asset pricing model with observable risk-free rates, using monthly returns on New York Stock Exchange (NYSE) portfolios over five-year subperiods from 1926-1995.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

We propose an alternate parameterization of stationary regular finite-state Markov chains, and a decomposition of the parameter into time reversible and time irreversible parts. We demonstrate some useful properties of the decomposition, and propose an index for a certain type of time irreversibility. Two empirical examples illustrate the use of the proposed parameter, decomposition and index. One involves observed states; the other, latent states.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

McCausland (2004a) describes a new theory of random consumer demand. Theoretically consistent random demand can be represented by a \"regular\" \"L-utility\" function on the consumption set X. The present paper is about Bayesian inference for regular L-utility functions. We express prior and posterior uncertainty in terms of distributions over the indefinite-dimensional parameter set of a flexible functional form. We propose a class of proper priors on the parameter set. The priors are flexible, in the sense that they put positive probability in the neighborhood of any L-utility function that is regular on a large subset bar(X) of X; and regular, in the sense that they assign zero probability to the set of L-utility functions that are irregular on bar(X). We propose methods of Bayesian inference for an environment with indivisible goods, leaving the more difficult case of indefinitely divisible goods for another paper. We analyse individual choice data from a consumer experiment described in Harbaugh et al. (2001).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

We introduce a procedure to infer the repeated-game strategies that generate actions in experimental choice data. We apply the technique to set of experiments where human subjects play a repeated Prisoner's Dilemma. The technique suggests that two types of strategies underly the data.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The technique of Monte Carlo (MC) tests [Dwass (1957), Barnard (1963)] provides an attractive method of building exact tests from statistics whose finite sample distribution is intractable but can be simulated (provided it does not involve nuisance parameters). We extend this method in two ways: first, by allowing for MC tests based on exchangeable possibly discrete test statistics; second, by generalizing the method to statistics whose null distributions involve nuisance parameters (maximized MC tests, MMC). Simplified asymptotically justified versions of the MMC method are also proposed and it is shown that they provide a simple way of improving standard asymptotics and dealing with nonstandard asymptotics (e.g., unit root asymptotics). Parametric bootstrap tests may be interpreted as a simplified version of the MMC method (without the general validity properties of the latter).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this paper, we propose exact inference procedures for asset pricing models that can be formulated in the framework of a multivariate linear regression (CAPM), allowing for stable error distributions. The normality assumption on the distribution of stock returns is usually rejected in empirical studies, due to excess kurtosis and asymmetry. To model such data, we propose a comprehensive statistical approach which allows for alternative - possibly asymmetric - heavy tailed distributions without the use of large-sample approximations. The methods suggested are based on Monte Carlo test techniques. Goodness-of-fit tests are formally incorporated to ensure that the error distributions considered are empirically sustainable, from which exact confidence sets for the unknown tail area and asymmetry parameters of the stable error distribution are derived. Tests for the efficiency of the market portfolio (zero intercepts) which explicitly allow for the presence of (unknown) nuisance parameter in the stable error distribution are derived. The methods proposed are applied to monthly returns on 12 portfolios of the New York Stock Exchange over the period 1926-1995 (5 year subperiods). We find that stable possibly skewed distributions provide statistically significant improvement in goodness-of-fit and lead to fewer rejections of the efficiency hypothesis.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

We consider the problem of testing whether the observations X1, ..., Xn of a time series are independent with unspecified (possibly nonidentical) distributions symmetric about a common known median. Various bounds on the distributions of serial correlation coefficients are proposed: exponential bounds, Eaton-type bounds, Chebyshev bounds and Berry-Esséen-Zolotarev bounds. The bounds are exact in finite samples, distribution-free and easy to compute. The performance of the bounds is evaluated and compared with traditional serial dependence tests in a simulation experiment. The procedures proposed are applied to U.S. data on interest rates (commercial paper rate).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cet article illustre l’applicabilité des méthodes de rééchantillonnage dans le cadre des tests multiples (simultanés), pour divers problèmes économétriques. Les hypothèses simultanées sont une conséquence habituelle de la théorie économique, de sorte que le contrôle de la probabilité de rejet de combinaisons de tests est un problème que l’on rencontre fréquemment dans divers contextes économétriques et statistiques. À ce sujet, on sait que le fait d’ignorer le caractère conjoint des hypothèses multiples peut faire en sorte que le niveau de la procédure globale dépasse considérablement le niveau désiré. Alors que la plupart des méthodes d’inférence multiple sont conservatrices en présence de statistiques non-indépendantes, les tests que nous proposons visent à contrôler exactement le niveau de signification. Pour ce faire, nous considérons des critères de test combinés proposés initialement pour des statistiques indépendantes. En appliquant la méthode des tests de Monte Carlo, nous montrons comment ces méthodes de combinaison de tests peuvent s’appliquer à de tels cas, sans recours à des approximations asymptotiques. Après avoir passé en revue les résultats antérieurs sur ce sujet, nous montrons comment une telle méthodologie peut être utilisée pour construire des tests de normalité basés sur plusieurs moments pour les erreurs de modèles de régression linéaires. Pour ce problème, nous proposons une généralisation valide à distance finie du test asymptotique proposé par Kiefer et Salmon (1983) ainsi que des tests combinés suivant les méthodes de Tippett et de Pearson-Fisher. Nous observons empiriquement que les procédures de test corrigées par la méthode des tests de Monte Carlo ne souffrent pas du problème de biais (ou sous-rejet) souvent rapporté dans cette littérature – notamment contre les lois platikurtiques – et permettent des gains sensibles de puissance par rapport aux méthodes combinées usuelles.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this paper, we use identification-robust methods to assess the empirical adequacy of a New Keynesian Phillips Curve (NKPC) equation. We focus on the Gali and Gertler’s (1999) specification, on both U.S. and Canadian data. Two variants of the model are studied: one based on a rationalexpectations assumption, and a modification to the latter which consists in using survey data on inflation expectations. The results based on these two specifications exhibit sharp differences concerning: (i) identification difficulties, (ii) backward-looking behavior, and (ii) the frequency of price adjustments. Overall, we find that there is some support for the hybrid NKPC for the U.S., whereas the model is not suited to Canada. Our findings underscore the need for employing identificationrobust inference methods in the estimation of expectations-based dynamic macroeconomic relations.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This paper prepared for the Handbook of Statistics (Vol.14: Statistical Methods in Finance), surveys the subject of stochastic volatility. the following subjects are covered: volatility in financial markets (instantaneous volatility of asset returns, implied volatilities in option prices and related stylized facts), statistical modelling in discrete and continuous time and, finally, statistical inference (methods of moments, quasi-maximum likelihood, likelihood-based and bayesian methods and indirect inference).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In the analysis of tax reform, when equity is traded off against efficiency, the measurement of the latter requires us to know how tax-induced price changes affect quantities supplied and demanded. in this paper, we present various econometric procedures for estimating how taxes affect demand.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’objectif de cette étude est de saisir une image des éléments explicitement reconnaissables de la recherche en communication visibles dans les revues savantes Canadian Journal of Communication et dans Communication de 1974 à 2005. Il s’agit d’une analyse bibliométrique des articles publiés par les chercheurs d’institutions canadiennes et de leurs références bibliographiques. La bibliométrie est « l’application de méthodes statistiques aux livres et aux autres moyens de communication » (Pritchard, 1969: 348-349). C’est la première fois qu’une analyse de ce type est tentée dans ce corpus particulier. Nous nous sommes appuyés sur des postulats théoriques provenant de la sociologie des sciences et des études en communication scientifique. L’idée maîtresse est la suivante : l’activité scientifique est un « continuum de création de nouvelles connaissances » (Vassallo, 1999), dont l’organisation est basée sur l’échange d’information (Price, 1963; Crane, 1972), qui se traduit en reconnaissance sociale, en autorité scientifique, et constitue un investissement pour l’acquisition de crédibilité (Merton, 1938; Hagstrom, 1965; Bourdieu, 1975; Latour et Woolgar, 1986). À partir de l’analyse des articles, nous identifions s’ils sont le résultat de recherches empiriques ou fondamentales, ou le produit d’une réflexion critique. Il s’agit aussi de détecter les approches méthodologiques et les techniques d’investigation utilisées, ainsi que les sujets qui y sont abordés par les chercheurs. Nous détectons également les principaux lieux de recherche (universités et types de départements). Nous analysons aussi les thématiques des articles. Enfin, nous analysons des références bibliographiques des articles afin de cerner les sources d’idées qui y sont décelables. Notre corpus principal comporte 1154 articles et 12 840 titres de documents en référence. L’analyse bibliométrique des articles révèle ainsi une recherche canadienne en communication d’emblée qualitative, intéressée pour les spécificités historiques, le contexte social et la compréhension des interrelations sous-jacentes aux phénomènes de communication, en particulier, au Canada et au Québec. Au cœur de ces études se distingue principalement l’application de l’analyse de contenu qualitative dans les médias en général. Cependant, à partir de 1980, l’exploration du cinéma, de l’audiovisuel, des nouvelles technologies de l’information et de la communication, ainsi que la multiplication des sujets de recherche, annoncent un déplacement dans l’ordre des intérêts. Communication et le CJC, se distinguent cependant par l’origine linguistique des chercheurs qui y publient ainsi que dans les thématiques. L’analyse des références bibliographiques, et de leurs auteurs, met en relief l’intérêt partagé des chercheurs d’institutions universitaires canadiennes pour les agences de réglementation et les politiques gouvernementales canadiennes s’appuyant souvent sur l’analyse de documents législatifs et de rapports de diverses commissions d’enquête du gouvernement canadien. L’analyse révèle aussi les principales inspirations théoriques et méthodologiques des chercheurs. Parmi les plus citées, on voit Innis, McLuhan, Habermas, Tuchman, Bourdieu, Foucault, Raboy, et Rogers. Mais ces références évoluent dans le temps. On voit aussi une distinction relativement claire entre les sources citées par la recherche francophone et la recherche anglophone.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Objectif—Comparer les effets de la stérilisation au plasma de gaz de peroxyde d’hydrogène (HPGP) à l’oxyde d’éthylène (EO) et à la vapeur (ST) sur les propriétés physico-chimiques et d’adhésion bactérienne de fils de nylon et de polyéthylène. Design expérimental—Etude in vitro. Matériel—Des brins non stérilisés, stérilisés au HPGP, à l’EO et ST; de fil nylon leader (FNL), de fil de nylon pêche (FNP) et de fil de polyéthylène (PE) ont été utilisés. Méthodes—Une analyse de surface au spectroscope photo-électronique à rayons X (XPS), une mesure de l’angle de contact, une analyse par microscopie à force atomique (AFM) et l’adhésion bactérienne de Staphylococcus intermedius et d’Escherichia Coli ont été testés sur les brins. Résultats—Une oxydation de la surface de tous les échantillons stérilisés a été observée quelque soit la méthode de stérilisation. La stérilisation a augmenté significativement l’angle de contact pour tous les types de fil quelque soit la méthode. La rugosité n’a pas été affectée significativement par la méthode de stérilisation pour le FNL et FNP. L’adhésion bactérienne a été affectée significativement par la méthode de stérilisation. Le PE a un angle de contact, une rugosité et une adhésion bactérienne significativement plus élevée que le FNL et FNP, peu importe la méthode de stérilisation. Conclusion—La stérilisation au HPGP constitue une alternative intéressante à la vapeur et l’EO. Le PE n’est peut être pas un matériel idéal par sa capacité d’adhésion bactérienne. De futures études sont nécessaires pour déterminer la signification clinique de ces trouvailles.