984 resultados para asymptotic normality


Relevância:

10.00% 10.00%

Publicador:

Resumo:

We discuss statistical inference problems associated with identification and testability in econometrics, and we emphasize the common nature of the two issues. After reviewing the relevant statistical notions, we consider in turn inference in nonparametric models and recent developments on weakly identified models (or weak instruments). We point out that many hypotheses, for which test procedures are commonly proposed, are not testable at all, while some frequently used econometric methods are fundamentally inappropriate for the models considered. Such situations lead to ill-defined statistical problems and are often associated with a misguided use of asymptotic distributional results. Concerning nonparametric hypotheses, we discuss three basic problems for which such difficulties occur: (1) testing a mean (or a moment) under (too) weak distributional assumptions; (2) inference under heteroskedasticity of unknown form; (3) inference in dynamic models with an unlimited number of parameters. Concerning weakly identified models, we stress that valid inference should be based on proper pivotal functions —a condition not satisfied by standard Wald-type methods based on standard errors — and we discuss recent developments in this field, mainly from the viewpoint of building valid tests and confidence sets. The techniques discussed include alternative proposed statistics, bounds, projection, split-sampling, conditioning, Monte Carlo tests. The possibility of deriving a finite-sample distributional theory, robustness to the presence of weak instruments, and robustness to the specification of a model for endogenous explanatory variables are stressed as important criteria assessing alternative procedures.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We propose methods for testing hypotheses of non-causality at various horizons, as defined in Dufour and Renault (1998, Econometrica). We study in detail the case of VAR models and we propose linear methods based on running vector autoregressions at different horizons. While the hypotheses considered are nonlinear, the proposed methods only require linear regression techniques as well as standard Gaussian asymptotic distributional theory. Bootstrap procedures are also considered. For the case of integrated processes, we propose extended regression methods that avoid nonstandard asymptotics. The methods are applied to a VAR model of the U.S. economy.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The technique of Monte Carlo (MC) tests [Dwass (1957), Barnard (1963)] provides an attractive method of building exact tests from statistics whose finite sample distribution is intractable but can be simulated (provided it does not involve nuisance parameters). We extend this method in two ways: first, by allowing for MC tests based on exchangeable possibly discrete test statistics; second, by generalizing the method to statistics whose null distributions involve nuisance parameters (maximized MC tests, MMC). Simplified asymptotically justified versions of the MMC method are also proposed and it is shown that they provide a simple way of improving standard asymptotics and dealing with nonstandard asymptotics (e.g., unit root asymptotics). Parametric bootstrap tests may be interpreted as a simplified version of the MMC method (without the general validity properties of the latter).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this paper, we propose exact inference procedures for asset pricing models that can be formulated in the framework of a multivariate linear regression (CAPM), allowing for stable error distributions. The normality assumption on the distribution of stock returns is usually rejected in empirical studies, due to excess kurtosis and asymmetry. To model such data, we propose a comprehensive statistical approach which allows for alternative - possibly asymmetric - heavy tailed distributions without the use of large-sample approximations. The methods suggested are based on Monte Carlo test techniques. Goodness-of-fit tests are formally incorporated to ensure that the error distributions considered are empirically sustainable, from which exact confidence sets for the unknown tail area and asymmetry parameters of the stable error distribution are derived. Tests for the efficiency of the market portfolio (zero intercepts) which explicitly allow for the presence of (unknown) nuisance parameter in the stable error distribution are derived. The methods proposed are applied to monthly returns on 12 portfolios of the New York Stock Exchange over the period 1926-1995 (5 year subperiods). We find that stable possibly skewed distributions provide statistically significant improvement in goodness-of-fit and lead to fewer rejections of the efficiency hypothesis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Statistical tests in vector autoregressive (VAR) models are typically based on large-sample approximations, involving the use of asymptotic distributions or bootstrap techniques. After documenting that such methods can be very misleading even with fairly large samples, especially when the number of lags or the number of equations is not small, we propose a general simulation-based technique that allows one to control completely the level of tests in parametric VAR models. In particular, we show that maximized Monte Carlo tests [Dufour (2002)] can provide provably exact tests for such models, whether they are stationary or integrated. Applications to order selection and causality testing are considered as special cases. The technique developed is applied to quarterly and monthly VAR models of the U.S. economy, comprising income, money, interest rates and prices, over the period 1965-1996.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le cancer est considéré comme l’une des principales causes de morbidité et de mortalité et, en Espagne, représente à lui seul 25% du taux de mortalité globale. Lorsqu’une personne et sa famille font l’expérience de traverser la phase avancée du cancer, celles-ci vivent un grand choc émotionnel où les souffrances physique, psychique et spirituelle peuvent être présentes. L’information donnée par les professionnels de la santé aux membres de la famille, incluant la personne atteinte, en ce qui concerne le diagnostic et le pronostic du cancer est maintenant plus fréquente dans le contexte méditerranéen. Il n'est pas clair, toutefois, comment cette nouvelle approche est vécue par les familles. C’est pourquoi, le but de cette recherche qualitative de type phénoménologique est d’explorer la signification de l’expérience de familles dont l’un des membres est atteint d’un cancer terminal, alors que tous connaissent le pronostic de la maladie. Les résultats obtenus reposent sur l’analyse en profondeur d’entrevues réalisées auprès de quatre couples. L’analyse des données, à l’aide de la méthode phénoménologique de Giorgi (1997), fait émerger deux thèmes centraux caractérisant la signification de cette expérience de la phase palliative de cancer, alors que l’information sur le mauvais pronostic est connue tant par la personne atteinte que sa famille. Le premier thème central est celui de vivre intensément la perte de la vie rêvée et comporte le vécu suite au choc du pronostic fatal, le fait de vivre constamment des sentiments et des émotions liés à différentes pertes telles que la tristesse, la frustration, l’inquiétude et l’incertitude, et l’espoir de ne pas souffrir. Le deuxième thème central qui ressort est le développement de stratégies par les couples participants afin de rendre leur vie plus supportable. Ces stratégies sont les suivantes : accueillir l’information et le soutien professionnel, retrouver une certaine normalité dans la vie quotidienne, profiter de la vie, recevoir l’aide de la famille et des amis, maintenir une communication cognitive et instrumentale ouverte, se protéger au niveau émotionnel et envisager l’avenir sans la personne aimée. Tous ces éléments, dans le contexte individuel de vie de chaque famille transforment chacun de ces vécus en une expérience unique qui doit être comprise et respectée comme telle par tous les professionnels de la santé impliqués. Les connaissances développées par cette recherche permettront aux infirmières de mieux comprendre l’expérience de la phase palliative du cancer pour des couples dont le diagnostic et le pronostic fatal sont connus par tous, ceci afin d’améliorer leur qualité des soins. Afin de poursuivre le développement du savoir infirmier, il est recommandé de poursuivre des études afin d’explorer plus en profondeur la communication au sein des couples.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La récupération optimale des amplitudes articulaires (AAs) et de la force musculaire est un objectif crucial de la réadaptation fonctionnelle intensive (RFI) à la suite d’une lésion médullaire (LM). Le but de la présente étude était de documenter les changements d’AAs des membres supérieurs durant la RFI chez des individus (n = 197) ayant subi une LM et d’établir le lien avec l’autonomie fonctionnelle. Les données (AA, force musculaire, spasticité, déficiences secondaires, autonomie fonctionnelle) ont été collectées à l’admission et au congé de la RFI. Des analyses descriptives, des tests d’association entre les changements d’AAs et des variables indépendantes (douleur, spasticité, déficiences secondaires, force) et des analyses multivariées ont été utilisées. Les individus ayant une paraplégie présentent peu de déficit d’AAs à l’épaule comparés à ceux ayant une tétraplégie. Parmi ces derniers, une majorité présente des AAs sous les valeurs de normalité en fin de RFI. Le groupe D, établi selon l’évaluation de l’American Spinal Injury Association (ASIA D) présente des pertes d’AAs plus importante qu’attendue. La douleur au niveau articulaire est un facteur influençant les changements d’AAs, particulièrement dans ce groupe. La force musculaire chez les personnes ayant une tétraplégie sévère (ASIA ABC) est plus faible que celle du groupe ayant une lésion moins sévère (ASIA D). Généralement, le gain de force corrèle avec le gain d’AA. La force musculaire, les AAs et le nombre de déficiences secondaires sont les principaux éléments influençant l’autonomie fonctionnelle. En conclusion, la perte d’AA est plus importante à l’articulation de l’épaule et, pour plusieurs individus, malgré un gain significatif, les AAs n’atteignent pas les valeurs de référence au congé de la RFI. La force musculaire et certaines déficiences secondaires sont des éléments à considérer pour expliquer les pertes d’AAs et d’autonomie fonctionnelle. Les études futures devront clarifier certains aspects dont l’atteinte de la rotation médiale qui semble montrer un patron différent de récupération en comparaison des autres mouvements de l’épaule. De plus, les études devront montrer si ces changements et résultats sont maintenus après le congé de la RFI.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse porte sur les conceptions d’Egon Bahr dans le domaine de la politique à l’Est (Ostpolitik) de la République fédérale d’Allemagne (RFA) entre 1945 et 1975. L’analyse se concentre sur le lien entre l’Ostpolitik et l’idée que Bahr se fait de la place et du rôle de l’Allemagne en Europe. Plus précisément, cette étude veut cerner les buts poursuivis par Bahr dans le cadre de la politique orientale. La première partie traite du développement conceptuel de l’Ostpolitik (1945-1969), tandis que la seconde examine sa mise en application entre l’élection de Willy Brandt comme chancelier de la RFA et la conclusion des accords d’Helsinki (1969-1975). Les principales sources utilisées sont les écrits de Bahr ainsi que des documents inédits se trouvant dans divers centres d’archives non seulement en Allemagne, mais aussi aux États-Unis, en France et en Grande-Bretagne. Pour Bahr, l’Ostpolitik ne saurait se résumer à l’élimination des obstacles qui gênent la diplomatie ouest-allemande durant la guerre froide. Bahr poursuit plutôt un projet nationaliste ambitieux dans le contexte des relations avec le bloc soviétique : créer les conditions d’une redéfinition de la place de l’Allemagne en Europe. Pour lui, l’Ostpolitik constitue un instrument idéal pour faire de l’Allemagne la puissance prépondérante dans un nouvel ordre de paix européen. Trois éléments complémentaires participent à l’accomplissement de cette vision : 1) la consolidation de la paix et de la sécurité continentales; 2) la réunification allemande et 3) l’émancipation de la politique étrangère (ouest-)allemande. Cette thèse éclaire la pensée politique de Bahr et contribue à une meilleure compréhension de la signification de l’Ostpolitik dans le contexte plus large de la politique étrangère de la RFA. Les conceptions de Bahr sont uniques dans l’Allemagne de la guerre froide parce qu’elles sont centrées sur les notions de puissance, d’intérêt national et de « normalité ». En même temps, Bahr comprend que la coopération doit toujours rester l’instrument diplomatique privilégié des Allemands vu leur position géographique centrale. À travers le prisme des conceptions de son « architecte », l’Ostpolitik apparaît comme un véritable effort de réconciliation entre la paix en Europe et l’affirmation de l’influence allemande sur la scène internationale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La théorie de l'information quantique étudie les limites fondamentales qu'imposent les lois de la physique sur les tâches de traitement de données comme la compression et la transmission de données sur un canal bruité. Cette thèse présente des techniques générales permettant de résoudre plusieurs problèmes fondamentaux de la théorie de l'information quantique dans un seul et même cadre. Le théorème central de cette thèse énonce l'existence d'un protocole permettant de transmettre des données quantiques que le receveur connaît déjà partiellement à l'aide d'une seule utilisation d'un canal quantique bruité. Ce théorème a de plus comme corollaires immédiats plusieurs théorèmes centraux de la théorie de l'information quantique. Les chapitres suivants utilisent ce théorème pour prouver l'existence de nouveaux protocoles pour deux autres types de canaux quantiques, soit les canaux de diffusion quantiques et les canaux quantiques avec information supplémentaire fournie au transmetteur. Ces protocoles traitent aussi de la transmission de données quantiques partiellement connues du receveur à l'aide d'une seule utilisation du canal, et ont comme corollaires des versions asymptotiques avec et sans intrication auxiliaire. Les versions asymptotiques avec intrication auxiliaire peuvent, dans les deux cas, être considérées comme des versions quantiques des meilleurs théorèmes de codage connus pour les versions classiques de ces problèmes. Le dernier chapitre traite d'un phénomène purement quantique appelé verrouillage: il est possible d'encoder un message classique dans un état quantique de sorte qu'en lui enlevant un sous-système de taille logarithmique par rapport à sa taille totale, on puisse s'assurer qu'aucune mesure ne puisse avoir de corrélation significative avec le message. Le message se trouve donc «verrouillé» par une clé de taille logarithmique. Cette thèse présente le premier protocole de verrouillage dont le critère de succès est que la distance trace entre la distribution jointe du message et du résultat de la mesure et le produit de leur marginales soit suffisamment petite.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les modèles à sur-représentation de zéros discrets et continus ont une large gamme d'applications et leurs propriétés sont bien connues. Bien qu'il existe des travaux portant sur les modèles discrets à sous-représentation de zéro et modifiés à zéro, la formulation usuelle des modèles continus à sur-représentation -- un mélange entre une densité continue et une masse de Dirac -- empêche de les généraliser afin de couvrir le cas de la sous-représentation de zéros. Une formulation alternative des modèles continus à sur-représentation de zéros, pouvant aisément être généralisée au cas de la sous-représentation, est présentée ici. L'estimation est d'abord abordée sous le paradigme classique, et plusieurs méthodes d'obtention des estimateurs du maximum de vraisemblance sont proposées. Le problème de l'estimation ponctuelle est également considéré du point de vue bayésien. Des tests d'hypothèses classiques et bayésiens visant à déterminer si des données sont à sur- ou sous-représentation de zéros sont présentées. Les méthodes d'estimation et de tests sont aussi évaluées au moyen d'études de simulation et appliquées à des données de précipitation agrégées. Les diverses méthodes s'accordent sur la sous-représentation de zéros des données, démontrant la pertinence du modèle proposé. Nous considérons ensuite la classification d'échantillons de données à sous-représentation de zéros. De telles données étant fortement non normales, il est possible de croire que les méthodes courantes de détermination du nombre de grappes s'avèrent peu performantes. Nous affirmons que la classification bayésienne, basée sur la distribution marginale des observations, tiendrait compte des particularités du modèle, ce qui se traduirait par une meilleure performance. Plusieurs méthodes de classification sont comparées au moyen d'une étude de simulation, et la méthode proposée est appliquée à des données de précipitation agrégées provenant de 28 stations de mesure en Colombie-Britannique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La thèse présente une description géométrique d’un germe de famille générique déployant un champ de vecteurs réel analytique avec un foyer faible à l’origine et son complexifié : le feuilletage holomorphe singulier associé. On montre que deux germes de telles familles sont orbitalement analytiquement équivalents si et seulement si les germes de familles de difféomorphismes déployant la complexification de leurs fonctions de retour de Poincaré sont conjuguées par une conjugaison analytique réelle. Le “caractère réel” de la famille correspond à sa Z2-équivariance dans R^4, et cela s’exprime comme l’invariance du plan réel sous le flot du système laquelle, à son tour, entraîne que l’expansion asymptotique de la fonction de Poincaré est réelle quand le paramètre est réel. Le pullback du plan réel après éclatement par la projection monoidal standard intersecte le feuilletage en une bande de Möbius réelle. La technique d’éclatement des singularités permet aussi de donner une réponse à la question de la “réalisation” d’un germe de famille déployant un germe de difféomorphisme avec un point fixe de multiplicateur égal à −1 et de codimension un comme application de semi-monodromie d’une famille générique déployant un foyer faible d’ordre un. Afin d’étudier l’espace des orbites de l’application de Poincaré, nous utilisons le point de vue de Glutsyuk, puisque la dynamique est linéarisable auprès des points singuliers : pour les valeurs réels du paramètre, notre démarche, classique, utilise une méthode géométrique, soit un changement de coordonée (coordonée “déroulante”) dans lequel la dynamique devient beaucoup plus simple. Mais le prix à payer est que la géométrie locale du plan complexe ambiante devient une surface de Riemann, sur laquelle deux notions de translation sont définies. Après avoir pris le quotient par le relèvement de la dynamique nous obtenons l’espace des orbites, ce qui s’avère être l’union de trois tores complexes plus les points singuliers (l’espace résultant est non-Hausdorff). Les translations, le caractère réel de l’application de Poincaré et le fait que cette application est un carré relient les différentes composantes du “module de Glutsyuk”. Cette propriété implique donc le fait qu’une seule composante de l’invariant Glutsyuk est indépendante.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La méthode que nous présentons pour modéliser des données dites de "comptage" ou données de Poisson est basée sur la procédure nommée Modélisation multi-niveau et interactive de la régression de Poisson (PRIMM) développée par Christiansen et Morris (1997). Dans la méthode PRIMM, la régression de Poisson ne comprend que des effets fixes tandis que notre modèle intègre en plus des effets aléatoires. De même que Christiansen et Morris (1997), le modèle étudié consiste à faire de l'inférence basée sur des approximations analytiques des distributions a posteriori des paramètres, évitant ainsi d'utiliser des méthodes computationnelles comme les méthodes de Monte Carlo par chaînes de Markov (MCMC). Les approximations sont basées sur la méthode de Laplace et la théorie asymptotique liée à l'approximation normale pour les lois a posteriori. L'estimation des paramètres de la régression de Poisson est faite par la maximisation de leur densité a posteriori via l'algorithme de Newton-Raphson. Cette étude détermine également les deux premiers moments a posteriori des paramètres de la loi de Poisson dont la distribution a posteriori de chacun d'eux est approximativement une loi gamma. Des applications sur deux exemples de données ont permis de vérifier que ce modèle peut être considéré dans une certaine mesure comme une généralisation de la méthode PRIMM. En effet, le modèle s'applique aussi bien aux données de Poisson non stratifiées qu'aux données stratifiées; et dans ce dernier cas, il comporte non seulement des effets fixes mais aussi des effets aléatoires liés aux strates. Enfin, le modèle est appliqué aux données relatives à plusieurs types d'effets indésirables observés chez les participants d'un essai clinique impliquant un vaccin quadrivalent contre la rougeole, les oreillons, la rub\'eole et la varicelle. La régression de Poisson comprend l'effet fixe correspondant à la variable traitement/contrôle, ainsi que des effets aléatoires liés aux systèmes biologiques du corps humain auxquels sont attribués les effets indésirables considérés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

On s’intéresse ici aux erreurs de modélisation liées à l’usage de modèles de flammelette sous-maille en combustion turbulente non prémélangée. Le but de cette thèse est de développer une stratégie d’estimation d’erreur a posteriori pour déterminer le meilleur modèle parmi une hiérarchie, à un coût numérique similaire à l’utilisation de ces mêmes modèles. Dans un premier temps, une stratégie faisant appel à un estimateur basé sur les résidus pondérés est développée et testée sur un système d’équations d’advection-diffusion-réaction. Dans un deuxième temps, on teste la méthodologie d’estimation d’erreur sur un autre système d’équations, où des effets d’extinction et de réallumage sont ajoutés. Lorsqu’il n’y a pas d’advection, une analyse asymptotique rigoureuse montre l’existence de plusieurs régimes de combustion déjà observés dans les simulations numériques. Nous obtenons une approximation des paramètres de réallumage et d’extinction avec la courbe en «S», un graphe de la température maximale de la flamme en fonction du nombre de Damköhler, composée de trois branches et d’une double courbure. En ajoutant des effets advectifs, on obtient également une courbe en «S» correspondant aux régimes de combustion déjà identifiés. Nous comparons les erreurs de modélisation liées aux approximations asymptotiques dans les deux régimes stables et établissons une nouvelle hiérarchie des modèles en fonction du régime de combustion. Ces erreurs sont comparées aux estimations données par la stratégie d’estimation d’erreur. Si un seul régime stable de combustion existe, l’estimateur d’erreur l’identifie correctement ; si plus d’un régime est possible, on obtient une fac˛on systématique de choisir un régime. Pour les régimes où plus d’un modèle est approprié, la hiérarchie prédite par l’estimateur est correcte.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La transformation de modèles consiste à transformer un modèle source en un modèle cible conformément à des méta-modèles source et cible. Nous distinguons deux types de transformations. La première est exogène où les méta-modèles source et cible représentent des formalismes différents et où tous les éléments du modèle source sont transformés. Quand elle concerne un même formalisme, la transformation est endogène. Ce type de transformation nécessite généralement deux étapes : l’identification des éléments du modèle source à transformer, puis la transformation de ces éléments. Dans le cadre de cette thèse, nous proposons trois principales contributions liées à ces problèmes de transformation. La première contribution est l’automatisation des transformations des modèles. Nous proposons de considérer le problème de transformation comme un problème d'optimisation combinatoire où un modèle cible peut être automatiquement généré à partir d'un nombre réduit d'exemples de transformations. Cette première contribution peut être appliquée aux transformations exogènes ou endogènes (après la détection des éléments à transformer). La deuxième contribution est liée à la transformation endogène où les éléments à transformer du modèle source doivent être détectés. Nous proposons une approche pour la détection des défauts de conception comme étape préalable au refactoring. Cette approche est inspirée du principe de la détection des virus par le système immunitaire humain, appelée sélection négative. L’idée consiste à utiliser de bonnes pratiques d’implémentation pour détecter les parties du code à risque. La troisième contribution vise à tester un mécanisme de transformation en utilisant une fonction oracle pour détecter les erreurs. Nous avons adapté le mécanisme de sélection négative qui consiste à considérer comme une erreur toute déviation entre les traces de transformation à évaluer et une base d’exemples contenant des traces de transformation de bonne qualité. La fonction oracle calcule cette dissimilarité et les erreurs sont ordonnées selon ce score. Les différentes contributions ont été évaluées sur d’importants projets et les résultats obtenus montrent leurs efficacités.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse de doctorat réalisée en cotutelle avec l'Institut du social et du politique de l'École Normale supérieure de Cachan.