998 resultados para Econométrie et méthodes statistiques :théorie et applications


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dans ce texte, nous revoyons certains développements récents de l’économétrie qui peuvent être intéressants pour des chercheurs dans des domaines autres que l’économie et nous soulignons l’éclairage particulier que l’économétrie peut jeter sur certains thèmes généraux de méthodologie et de philosophie des sciences, tels la falsifiabilité comme critère du caractère scientifique d’une théorie (Popper), la sous-détermination des théories par les données (Quine) et l’instrumentalisme. En particulier, nous soulignons le contraste entre deux styles de modélisation - l’approche parcimonieuse et l’approche statistico-descriptive - et nous discutons les liens entre la théorie des tests statistiques et la philosophie des sciences.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cet ouvrage non seulement présente, de façon rigoureuse, les concepts et méthodes statistiques, mais aussi utilise des exemples concrets pour illustrer chaque concept théorique nouvellement introduit. Il présente de façon méticuleuse les notions fondamentales de la théorie des probabilités et de la statistique: bref rappel de l'histoire de la statistique, la statistique descriptive, les distributions discrètes et continues, estimation, tests d'hypothèses, l'analyse de corrélation, l'analyse de régression linéaire simple et multiple, et le modèle d'analyse de variance. Au moyen des exemples et exercices, le lecteur est guidé tout au long de la réalisation du problème. En même temps, l'apprentissage de l'utilisation de Stata se fait progressivement au fil des chapitres. La dernière partie de l'ouvrage propose une introduction à l'utilisation de Stata. Les corrections des exercices figurent à la fin de l'ouvrage, permettant au lecteur de vérifier le niveau de compréhension atteint après chaque étape.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dans ce texte, nous analysons les développements récents de l’économétrie à la lumière de la théorie des tests statistiques. Nous revoyons d’abord quelques principes fondamentaux de philosophie des sciences et de théorie statistique, en mettant l’accent sur la parcimonie et la falsifiabilité comme critères d’évaluation des modèles, sur le rôle de la théorie des tests comme formalisation du principe de falsification de modèles probabilistes, ainsi que sur la justification logique des notions de base de la théorie des tests (tel le niveau d’un test). Nous montrons ensuite que certaines des méthodes statistiques et économétriques les plus utilisées sont fondamentalement inappropriées pour les problèmes et modèles considérés, tandis que de nombreuses hypothèses, pour lesquelles des procédures de test sont communément proposées, ne sont en fait pas du tout testables. De telles situations conduisent à des problèmes statistiques mal posés. Nous analysons quelques cas particuliers de tels problèmes : (1) la construction d’intervalles de confiance dans le cadre de modèles structurels qui posent des problèmes d’identification; (2) la construction de tests pour des hypothèses non paramétriques, incluant la construction de procédures robustes à l’hétéroscédasticité, à la non-normalité ou à la spécification dynamique. Nous indiquons que ces difficultés proviennent souvent de l’ambition d’affaiblir les conditions de régularité nécessaires à toute analyse statistique ainsi que d’une utilisation inappropriée de résultats de théorie distributionnelle asymptotique. Enfin, nous soulignons l’importance de formuler des hypothèses et modèles testables, et de proposer des techniques économétriques dont les propriétés sont démontrables dans les échantillons finis.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cet article illustre l’applicabilité des méthodes de rééchantillonnage dans le cadre des tests multiples (simultanés), pour divers problèmes économétriques. Les hypothèses simultanées sont une conséquence habituelle de la théorie économique, de sorte que le contrôle de la probabilité de rejet de combinaisons de tests est un problème que l’on rencontre fréquemment dans divers contextes économétriques et statistiques. À ce sujet, on sait que le fait d’ignorer le caractère conjoint des hypothèses multiples peut faire en sorte que le niveau de la procédure globale dépasse considérablement le niveau désiré. Alors que la plupart des méthodes d’inférence multiple sont conservatrices en présence de statistiques non-indépendantes, les tests que nous proposons visent à contrôler exactement le niveau de signification. Pour ce faire, nous considérons des critères de test combinés proposés initialement pour des statistiques indépendantes. En appliquant la méthode des tests de Monte Carlo, nous montrons comment ces méthodes de combinaison de tests peuvent s’appliquer à de tels cas, sans recours à des approximations asymptotiques. Après avoir passé en revue les résultats antérieurs sur ce sujet, nous montrons comment une telle méthodologie peut être utilisée pour construire des tests de normalité basés sur plusieurs moments pour les erreurs de modèles de régression linéaires. Pour ce problème, nous proposons une généralisation valide à distance finie du test asymptotique proposé par Kiefer et Salmon (1983) ainsi que des tests combinés suivant les méthodes de Tippett et de Pearson-Fisher. Nous observons empiriquement que les procédures de test corrigées par la méthode des tests de Monte Carlo ne souffrent pas du problème de biais (ou sous-rejet) souvent rapporté dans cette littérature – notamment contre les lois platikurtiques – et permettent des gains sensibles de puissance par rapport aux méthodes combinées usuelles.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’utilisation des mesures subjectives en épidémiologie s’est intensifiée récemment, notamment avec la volonté de plus en plus affirmée d’intégrer la perception qu’ont les sujets de leur santé dans l’étude des maladies et l’évaluation des interventions. La psychométrie regroupe les méthodes statistiques utilisées pour la construction des questionnaires et l’analyse des données qui en sont issues. Ce travail de thèse avait pour but d’explorer différents problèmes méthodologiques soulevés par l’utilisation des techniques psychométriques en épidémiologie. Trois études empiriques sont présentées et concernent 1/ la phase de validation de l’instrument : l’objectif était de développer, à l’aide de données simulées, un outil de calcul de la taille d’échantillon pour la validation d’échelle en psychiatrie ; 2/ les propriétés mathématiques de la mesure obtenue : l’objectif était de comparer les performances de la différence minimale cliniquement pertinente d’un questionnaire calculée sur des données de cohorte, soit dans le cadre de la théorie classique des tests (CTT), soit dans celui de la théorie de réponse à l’item (IRT) ; 3/ son utilisation dans un schéma longitudinal : l’objectif était de comparer, à l’aide de données simulées, les performances d’une méthode statistique d’analyse de l’évolution longitudinale d’un phénomène subjectif mesuré à l’aide de la CTT ou de l’IRT, en particulier lorsque certains items disponibles pour la mesure différaient à chaque temps. Enfin, l’utilisation de graphes orientés acycliques a permis de discuter, à l’aide des résultats de ces trois études, la notion de biais d’information lors de l’utilisation des mesures subjectives en épidémiologie.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Robert Bourbeau, département de démographie (Directeur de recherche) Marianne Kempeneers, département de sociologie (Codirectrice de recherche)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

RESUME L'objectif de ce travail est de rappeler l'historique des hépatectomies majeures, les bases anatomiques et les techniques opératoires de la chirurgie du foie. Puis, à partir de 212 cas d'exérèses majeures recencées entre 1992 et 2001 dans le service de Chirurgie Viscérale du CHUV, les facteurs de risques, la mortalité et la morbidité des hépatectomies majeures seront étudiés et comparés avec les données récentes de la littérature. L'anatomie hépatique peut être considérée de plusieurs façons morphologiquement (poids, faces, lobe droit, gauche et caudé...), fonctionnellement (segmentation en fonction de la distribution des pédicules portes et de la localisation des veines hépatiques) et chirurgicalement. La terminologie est rappelée (hépatectomies «typique », «atypique », «réglée », «majeure »...). A partir de ces données, les exérèses du foie sont ensuite classées. Les techniques d'hépatectomies sont expliquées, en rappelant les principes généraux, et les voies d'abord. Puis, les techniques de contrôle de l'hémostase, la reconstruction des voies biliaires, les méthodes utilisées par rapport à la tranche de section hépatique et à la loge d'hépatectomie sont discutées, Les acquisitions récentes sont abordées. Sur les 494 hépatecomies réalisées entre janvier 1992 et août 2001, 212 sont majeures. Elles sont reparties en 7 groupes selon l'exérèse (lobectomie G ou D, hépatecomie G ou D etc...). `Sur ces 212 résections, 177 cas concernaient des lésions malignes et 35 cas des lésions bénignes. Les indications ont été classées en 4 groupes : cancer primitif du foie, métastases hépatiques, maladies bénignes (par exemple l'échinococcose alvéolaire), et 8 cas classés dans le groupe «autres ». Une intervention en urgence a été réalisée dans 7 cas. Le bilan préopératoire comprend un bilan biologique et morphologique. Une embolisation de l'artère hépatique a été réalisées dans 6 cas, alors qu'une embolisation dans la veine porte a été faite dans 17 cas. Les modalités chirurgicales (voies d'abord, contrôle vasculaire, drainage biliaire post- opératoire, transfusions per- opératoires, et interventions extra- hépatiques) sont expliqués. En fin, les méthodes statistiques utilisées sont rappelées. Il n'y a pas eu de décès per- opératoire. La mortalité post- opératoire dans les 30 jours a été de 3,3 % (7 cas) et la mortalité globale hospitalière de 5,2 %. Dans cette série, 132 patients n'ont eu aucune complication. La morbidité est de 17% si on considère les complications majeures, ayant concerné 36 patients, mais de 37,75 si l'on considère toutes les complications. Les complications chirurgicales sont le faite d'hémorragie, de fuite biliaire et d'infection du foyer opératoire. Dans notre étude, 33 facteurs de risque ont été analysés. L'analyse statistique uni- variée met den évidence les facteurs de risque suivants : Le nombre de culots de sang transfusés, la présence d'une hépatite, celle d'une cirrhose, le tabagisme, la lobectomie droite, et la présence d'une hypertension artérielle. L'analyse multi variée réalisée a permis de faire ressortir une combinaison de facteur de risque avec une valeur statistique significative et de réaliser une échelle et un score de gravité en fonction des facteurs de risques obtenus dans l'analyse uni variée. Le taux de mortalité globale hospitalière obtenu dans notre série (5,2%) est comparable aux résultats reportés dans d'autres séries.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Fruit d'une thèse de doctorat, cet ouvrage se propose de comparer les rythmes et les modalités de l'acculturation des populations de Gaule interne, de la première moitié du iie s. av. J.-C. au début du ier siècle de notre ère au moyen de l'étude de la céramique fine, dont le répertoire évolue très rapidement pendant la période. Basée sur les données d'une vingtaine de sites urbains (oppida, capitales de cité, vici) répartis en trois aires géographiques (Centre, Est et Centre-Ouest), cette étude propose une présentation céramologique classique, mais aussi des modes d'analyse nouveaux comme le calcul d'un indice de romanisation pour évaluer et comparer le degré d'acculturation des ensembles retenus. Différentes méthodes statistiques, comme des sériations graphiques ou des analyses factorielles des correspondances, sont par ailleurs employées pour mettre en évidence les aspects qualitatifs du phénomène d'acculturation et décomposer son processus en trois niveaux principaux. Illustrés par des tableaux synoptiques et par des cartes, les résultats des calculs d'indices de romanisation permettent d'identifier différents facteurs favorisant de manière évidente la romanisation de la vaisselle dite de table, comme la proximité de la Provincia, une localisation sur un axe majeur (Rhône/Saône, Loire) ou le dynamisme de grands centres d'échanges fréquentés par les mercatores romains (l'oppidum de Bibracte, notamment). Ces traitements statistiques permettent également de mettre en évidence des retards dans l'acculturation de certains peuples qui pourraient s'expliquer par leur hostilité envers Rome. Le phénomène est notamment illustré par les Helvètes, voisins de la Transalpina depuis 120 av. J.-C., dont la vaisselle fine est très peu romanisée avant l'intégration de ce peuple dans l'Empire, puis atteint rapidement après cet événement des niveaux particulièrement élevés. L'auteur propose enfin des réflexions sur la portée réelle des phénomènes observés en termes de romanisation de la vie quotidienne, une mutation technique et stylistique des récipients n'impliquant pas forcément l'adoption de nouvelles pratiques alimentaires.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L‘interculturel est un concept souvent partagé mais rarement défini dans la recherche alors que ses compréhensions, interprétations et applications sont variées, ce qui mène à des malentendus et des positionnements épistémologiques et méthodologiques ambigus. En parallèle, de nombreuses critiques et propositions de réorientations de la notion voient le jour. Nous entendons faire le point sur la notion et son intégration potentielle dans l‘enseignement de la communication interculturelle (ECI). Notre étude se base sur l‘analyse de six groupes focalisés d‘enseignants (-chercheurs) impliqués dans l‘enseignement de l‘interculturel du niveau supérieur en Finlande, pays du nord de l‘Europe. Nous avons recours aux paradigmes postmodernes et aux sciences du langage (analyse du discours inspirée d‘auteurs français, et plus particulièrement de l‘école française de la deuxième génération (les théories de l‘énonciation (Kerbrat-Orecchioni, 2002 ; Marnette, 2005) et une approche du dialogisme inspirée par Bakhtine (1977))). Ces méthodes permettent de mettre en avant la complexité identitaire en posant l‘hétérogénéité du discours comme principe, c‘est-à-dire qu‘elles considèrent que tout discours inclut la « voix » de l‘autre. Repérer la présence de ces voix dans les discours des enseignants/chercheurs nous a permis de démontrer comment celles-ci participaient à la construction de leur identité pendant l‘interaction. Nous avons pu observer comment les relations entre ces interactions verbales donnaient lieu à des instabilités (contradictions, omissions), dont l‘étude nous a aidée à déduire leur(s) façon(s) de concevoir l‘interculturel. Les discours analysés révèlent a) que la définition de l‘interculturel est partagée sans être perçue de la même manière et b) que les différentes représentations du concept peuvent varier dans le discours d‘un même enseignant, mettant en évidences des contradictions qui posent problème s‘il s‘agit de communiquer un savoir-être aux apprenants. Nous nous sommes efforcée de trouver la place d‘un interculturel renouvelé parmi ces discours et de dissocier l‘image de l‘éducation interculturelle qui est promue en Finlande de ce qui est proposé en réalité : les changements actuels semblent avoir un minimum d‘impact sur la façon dont les enseignants traitent l‘interculturel. Nous nous demandons alors comment l‘Etat finlandais peut promouvoir un enseignement interculturel cohérent sans proposer aux enseignants/chercheurs une formation qui leur permettrait de reconnaitre les diverses diversités impliquées par l‘interculturel. Mots clés : Communication interculturelle, diversité, culture, enseignement supérieur finlandais.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this paper, we propose several finite-sample specification tests for multivariate linear regressions (MLR) with applications to asset pricing models. We focus on departures from the assumption of i.i.d. errors assumption, at univariate and multivariate levels, with Gaussian and non-Gaussian (including Student t) errors. The univariate tests studied extend existing exact procedures by allowing for unspecified parameters in the error distributions (e.g., the degrees of freedom in the case of the Student t distribution). The multivariate tests are based on properly standardized multivariate residuals to ensure invariance to MLR coefficients and error covariances. We consider tests for serial correlation, tests for multivariate GARCH and sign-type tests against general dependencies and asymmetries. The procedures proposed provide exact versions of those applied in Shanken (1990) which consist in combining univariate specification tests. Specifically, we combine tests across equations using the MC test procedure to avoid Bonferroni-type bounds. Since non-Gaussian based tests are not pivotal, we apply the “maximized MC” (MMC) test method [Dufour (2002)], where the MC p-value for the tested hypothesis (which depends on nuisance parameters) is maximized (with respect to these nuisance parameters) to control the test’s significance level. The tests proposed are applied to an asset pricing model with observable risk-free rates, using monthly returns on New York Stock Exchange (NYSE) portfolios over five-year subperiods from 1926-1995. Our empirical results reveal the following. Whereas univariate exact tests indicate significant serial correlation, asymmetries and GARCH in some equations, such effects are much less prevalent once error cross-equation covariances are accounted for. In addition, significant departures from the i.i.d. hypothesis are less evident once we allow for non-Gaussian errors.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

It is well known that standard asymptotic theory is not valid or is extremely unreliable in models with identification problems or weak instruments [Dufour (1997, Econometrica), Staiger and Stock (1997, Econometrica), Wang and Zivot (1998, Econometrica), Stock and Wright (2000, Econometrica), Dufour and Jasiak (2001, International Economic Review)]. One possible way out consists here in using a variant of the Anderson-Rubin (1949, Ann. Math. Stat.) procedure. The latter, however, allows one to build exact tests and confidence sets only for the full vector of the coefficients of the endogenous explanatory variables in a structural equation, which in general does not allow for individual coefficients. This problem may in principle be overcome by using projection techniques [Dufour (1997, Econometrica), Dufour and Jasiak (2001, International Economic Review)]. AR-types are emphasized because they are robust to both weak instruments and instrument exclusion. However, these techniques can be implemented only by using costly numerical techniques. In this paper, we provide a complete analytic solution to the problem of building projection-based confidence sets from Anderson-Rubin-type confidence sets. The latter involves the geometric properties of “quadrics” and can be viewed as an extension of usual confidence intervals and ellipsoids. Only least squares techniques are required for building the confidence intervals. We also study by simulation how “conservative” projection-based confidence sets are. Finally, we illustrate the methods proposed by applying them to three different examples: the relationship between trade and growth in a cross-section of countries, returns to education, and a study of production functions in the U.S. economy.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Statistical tests in vector autoregressive (VAR) models are typically based on large-sample approximations, involving the use of asymptotic distributions or bootstrap techniques. After documenting that such methods can be very misleading even with fairly large samples, especially when the number of lags or the number of equations is not small, we propose a general simulation-based technique that allows one to control completely the level of tests in parametric VAR models. In particular, we show that maximized Monte Carlo tests [Dufour (2002)] can provide provably exact tests for such models, whether they are stationary or integrated. Applications to order selection and causality testing are considered as special cases. The technique developed is applied to quarterly and monthly VAR models of the U.S. economy, comprising income, money, interest rates and prices, over the period 1965-1996.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les chutes chez les personnes âgées représentent un problème majeur. Il n’est donc pas étonnant que l’identification des facteurs qui en accroissent le risque ait mobilisé autant d’attention. Les aînés plus fragiles ayant besoin de soutien pour vivre dans la communauté sont néanmoins demeurés le parent pauvre de la recherche, bien que, plus récemment, les autorités québécoises en aient fait une cible d’intervention prioritaire. Les études d’observation prospectives sont particulièrement indiquées pour étudier les facteurs de risque de chutes chez les personnes âgées. Leur identification optimale est cependant compliquée par le fait que l’exposition aux facteurs de risque peut varier au cours du suivi et qu’un même individu peut subir plus d’un événement. Il y a 20 ans, des chercheurs ont tenté de sensibiliser leurs homologues à cet égard, mais leurs efforts sont demeurés vains. On continue aujourd’hui à faire peu de cas de ces considérations, se concentrant sur la proportion des personnes ayant fait une chute ou sur le temps écoulé jusqu’à la première chute. On écarte du coup une quantité importante d’information pertinente. Dans cette thèse, nous examinons les méthodes en usage et nous proposons une extension du modèle de risques de Cox. Nous illustrons cette méthode par une étude des facteurs de risque susceptibles d’être associés à des chutes parmi un groupe de 959 personnes âgées ayant eu recours aux services publics de soutien à domicile. Nous comparons les résultats obtenus avec la méthode de Wei, Lin et Weissfeld à ceux obtenus avec d’autres méthodes, dont la régression logistique conventionnelle, la régression logistique groupée, la régression binomiale négative et la régression d’Andersen et Gill. L’investigation est caractérisée par des prises de mesures répétées des facteurs de risque au domicile des participants et par des relances téléphoniques mensuelles visant à documenter la survenue des chutes. Les facteurs d’exposition étudiés, qu’ils soient fixes ou variables dans le temps, comprennent les caractéristiques sociodémographiques, l’indice de masse corporelle, le risque nutritionnel, la consommation d’alcool, les dangers de l’environnement domiciliaire, la démarche et l’équilibre, et la consommation de médicaments. La quasi-totalité (99,6 %) des usagers présentaient au moins un facteur à haut risque. L’exposition à des risques multiples était répandue, avec une moyenne de 2,7 facteurs à haut risque distincts par participant. Les facteurs statistiquement associés au risque de chutes incluent le sexe masculin, les tranches d’âge inférieures, l’histoire de chutes antérieures, un bas score à l’échelle d’équilibre de Berg, un faible indice de masse corporelle, la consommation de médicaments de type benzodiazépine, le nombre de dangers présents au domicile et le fait de vivre dans une résidence privée pour personnes âgées. Nos résultats révèlent cependant que les méthodes courantes d’analyse des facteurs de risque de chutes – et, dans certains cas, de chutes nécessitant un recours médical – créent des biais appréciables. Les biais pour les mesures d’association considérées proviennent de la manière dont l’exposition et le résultat sont mesurés et définis de même que de la manière dont les méthodes statistiques d’analyse en tiennent compte. Une dernière partie, tout aussi innovante que distincte de par la nature des outils statistiques utilisés, complète l’ouvrage. Nous y identifions des profils d’aînés à risque de devenir des chuteurs récurrents, soit ceux chez qui au moins deux chutes sont survenues dans les six mois suivant leur évaluation initiale. Une analyse par arbre de régression et de classification couplée à une analyse de survie a révélé l’existence de cinq profils distinctifs, dont le risque relatif varie de 0,7 à 5,1. Vivre dans une résidence pour aînés, avoir des antécédents de chutes multiples ou des troubles de l’équilibre et consommer de l’alcool sont les principaux facteurs associés à une probabilité accrue de chuter précocement et de devenir un chuteur récurrent. Qu’il s’agisse d’activité de dépistage des facteurs de risque de chutes ou de la population ciblée, cette thèse s’inscrit dans une perspective de gain de connaissances sur un thème hautement d’actualité en santé publique. Nous encourageons les chercheurs intéressés par l’identification des facteurs de risque de chutes chez les personnes âgées à recourir à la méthode statistique de Wei, Lin et Weissfeld car elle tient compte des expositions variables dans le temps et des événements récurrents. Davantage de recherches seront par ailleurs nécessaires pour déterminer le choix du meilleur test de dépistage pour un facteur de risque donné chez cette clientèle.