7 resultados para prévision
em Université de Montréal
Resumo:
La plupart des modèles en statistique classique repose sur une hypothèse sur la distribution des données ou sur une distribution sous-jacente aux données. La validité de cette hypothèse permet de faire de l’inférence, de construire des intervalles de confiance ou encore de tester la fiabilité du modèle. La problématique des tests d’ajustement vise à s’assurer de la conformité ou de la cohérence de l’hypothèse avec les données disponibles. Dans la présente thèse, nous proposons des tests d’ajustement à la loi normale dans le cadre des séries chronologiques univariées et vectorielles. Nous nous sommes limités à une classe de séries chronologiques linéaires, à savoir les modèles autorégressifs à moyenne mobile (ARMA ou VARMA dans le cas vectoriel). Dans un premier temps, au cas univarié, nous proposons une généralisation du travail de Ducharme et Lafaye de Micheaux (2004) dans le cas où la moyenne est inconnue et estimée. Nous avons estimé les paramètres par une méthode rarement utilisée dans la littérature et pourtant asymptotiquement efficace. En effet, nous avons rigoureusement montré que l’estimateur proposé par Brockwell et Davis (1991, section 10.8) converge presque sûrement vers la vraie valeur inconnue du paramètre. De plus, nous fournissons une preuve rigoureuse de l’inversibilité de la matrice des variances et des covariances de la statistique de test à partir de certaines propriétés d’algèbre linéaire. Le résultat s’applique aussi au cas où la moyenne est supposée connue et égale à zéro. Enfin, nous proposons une méthode de sélection de la dimension de la famille d’alternatives de type AIC, et nous étudions les propriétés asymptotiques de cette méthode. L’outil proposé ici est basé sur une famille spécifique de polynômes orthogonaux, à savoir les polynômes de Legendre. Dans un second temps, dans le cas vectoriel, nous proposons un test d’ajustement pour les modèles autorégressifs à moyenne mobile avec une paramétrisation structurée. La paramétrisation structurée permet de réduire le nombre élevé de paramètres dans ces modèles ou encore de tenir compte de certaines contraintes particulières. Ce projet inclut le cas standard d’absence de paramétrisation. Le test que nous proposons s’applique à une famille quelconque de fonctions orthogonales. Nous illustrons cela dans le cas particulier des polynômes de Legendre et d’Hermite. Dans le cas particulier des polynômes d’Hermite, nous montrons que le test obtenu est invariant aux transformations affines et qu’il est en fait une généralisation de nombreux tests existants dans la littérature. Ce projet peut être vu comme une généralisation du premier dans trois directions, notamment le passage de l’univarié au multivarié ; le choix d’une famille quelconque de fonctions orthogonales ; et enfin la possibilité de spécifier des relations ou des contraintes dans la formulation VARMA. Nous avons procédé dans chacun des projets à une étude de simulation afin d’évaluer le niveau et la puissance des tests proposés ainsi que de les comparer aux tests existants. De plus des applications aux données réelles sont fournies. Nous avons appliqué les tests à la prévision de la température moyenne annuelle du globe terrestre (univarié), ainsi qu’aux données relatives au marché du travail canadien (bivarié). Ces travaux ont été exposés à plusieurs congrès (voir par exemple Tagne, Duchesne et Lafaye de Micheaux (2013a, 2013b, 2014) pour plus de détails). Un article basé sur le premier projet est également soumis dans une revue avec comité de lecture (Voir Duchesne, Lafaye de Micheaux et Tagne (2016)).
Resumo:
L’objectif de cette thèse est de réfléchir aux enjeux d’une histoire du jeu de stratégie en temps réel (STR). Il s’agit de mieux comprendre les contextes dans lesquels le genre prend sens pour historiciser son émergence et sa période classique. Cette thèse cherche à documenter, d’une part, la cristallisation du STR en tant qu’objet ayant une forme relativement stable et en tant que corpus précis et identifié et, d’autre part, l’émergence des formes de jouabilité classiques des STR. La première partie est consacrée à décrire l’objet de cette recherche, pour mieux comprendre la complexité du terme « stratégie » et de la catégorisation « jeu de stratégie ». La seconde partie met en place la réflexion épistémologique en montrant comment on peut tenir compte de la jouabilité dans un travail historien. Elle définit le concept de paradigme de jouabilité en tant que formation discursive pour regrouper différents énoncés actionnels en une unité logique qui n’est pas nécessairement l’équivalent du genre. La troisième partie cartographie l’émergence du genre entre les wargames des années 1970 et les jeux en multijoueur de la décennie suivante. Deux paradigmes de jouabilité se distinguent pour former le STR classique : le paradigme de décryptage et le paradigme de prévision. La quatrième partie explique et contextualise le STR classique en montrant qu’il comporte ces deux paradigmes de jouabilité dans deux modes de jeu qui offrent des expériences fondamentalement différentes l’une de l’autre.
Resumo:
While party membership figures are clearly in decline in several Western countries, different interpretations have been offered on the likely consequences of this trend. Some authors stress that members have lost most of their importance for political parties that increasingly rely on professionalized campaign techniques. Other scholars have expressed concern about the decline of party membership. They emphasize the fact that party members continue to function as an important linkage mechanism providing a structural alignment between the party and society (and thus also to potential voters). By means of an election forecasting model for Belgium, we test whether party membership figures still can be related to election results. Results show that party membership has a strong effect on election results, and furthermore, that this relation does not weaken during the period under investigation (1981-2010). The analysis also demonstrates that forecasting models can also be used in a complex multiparty system like Belgium.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Les organismes aquatiques sont adaptés à une grande variabilité hydrique et thermique des rivières. Malgré ceci, la régulation des eaux suscite des changements aux débits qui peuvent provoquer des impacts négatifs sur la biodiversité et les processus écologiques en rivière. Celle-ci peut aussi causer des modifications au niveau des régimes thermiques et des caractéristiques de l’habitat du poisson. Des données environnementales et biologiques décrivant l’habitat du poisson existent, mais elles sont incomplètes pour plusieurs rivières au Canada et de faible qualité, limitant les relations quantitatives débit-température-poissons à un petit nombre de rivières ou à une région étudiée. La recherche menée dans le cadre de mon doctorat concerne les impacts de la génération d'hydroélectricité sur les rivières; soit les changements aux régimes hydriques et thermiques reliés à la régulation des eaux sur la variation des communautés ichtyologiques qui habitent les rivières régulées et naturelles au Canada. Suite à une comparaison d’échantillonnage de pêche, une méthode constante pour obtenir des bons estimés de poisson (richesse, densité et biomasse des espèces) a été établie pour évaluer la structure de la communauté de poissons pour l’ensemble des rivières ciblées par l’étude. Afin de mieux comprendre ces changements environnementaux, les principales composantes décrivant ces régimes ont été identifiées et l’altération des régimes hydriques pour certaines rivières régulées a été quantifiée. Ces résultats ont servi à établir la relation significative entre le degré de changement biotique et le degré de changement hydrique pour illustrer les différences entre les régimes de régulation. Pour faire un complément aux indices biotiques déjà calculés pour l’ensemble des communautés de poissons (diversité, densité et biomasse des espèces par rivière), les différences au niveau des guildes de poissons ont été quantifiées pour expliquer les divers effets écologiques dus aux changements de régimes hydriques et thermiques provenant de la gestion des barrages. Ces derniers résultats servent à prédire pour quels traits écologiques ou groupes d’espèces de poissons les composantes hydriques et thermiques sont importantes. De plus, ces derniers résultats ont servi à mettre en valeur les variables décrivant les régimes thermiques qui ne sont pas toujours inclues dans les études hydro-écologiques. L’ensemble des résultats de cette thèse ont des retombées importantes sur la gestion des rivières en évaluant, de façon cohérente, l’impact de la régulation des rivières sur les communautés de poissons et en développant des outils de prévision pour la restauration des écosystèmes riverains.
Resumo:
Cette thèse développe des méthodes bootstrap pour les modèles à facteurs qui sont couram- ment utilisés pour générer des prévisions depuis l'article pionnier de Stock et Watson (2002) sur les indices de diffusion. Ces modèles tolèrent l'inclusion d'un grand nombre de variables macroéconomiques et financières comme prédicteurs, une caractéristique utile pour inclure di- verses informations disponibles aux agents économiques. Ma thèse propose donc des outils éco- nométriques qui améliorent l'inférence dans les modèles à facteurs utilisant des facteurs latents extraits d'un large panel de prédicteurs observés. Il est subdivisé en trois chapitres complémen- taires dont les deux premiers en collaboration avec Sílvia Gonçalves et Benoit Perron. Dans le premier article, nous étudions comment les méthodes bootstrap peuvent être utilisées pour faire de l'inférence dans les modèles de prévision pour un horizon de h périodes dans le futur. Pour ce faire, il examine l'inférence bootstrap dans un contexte de régression augmentée de facteurs où les erreurs pourraient être autocorrélées. Il généralise les résultats de Gonçalves et Perron (2014) et propose puis justifie deux approches basées sur les résidus : le block wild bootstrap et le dependent wild bootstrap. Nos simulations montrent une amélioration des taux de couverture des intervalles de confiance des coefficients estimés en utilisant ces approches comparativement à la théorie asymptotique et au wild bootstrap en présence de corrélation sérielle dans les erreurs de régression. Le deuxième chapitre propose des méthodes bootstrap pour la construction des intervalles de prévision permettant de relâcher l'hypothèse de normalité des innovations. Nous y propo- sons des intervalles de prédiction bootstrap pour une observation h périodes dans le futur et sa moyenne conditionnelle. Nous supposons que ces prévisions sont faites en utilisant un ensemble de facteurs extraits d'un large panel de variables. Parce que nous traitons ces facteurs comme latents, nos prévisions dépendent à la fois des facteurs estimés et les coefficients de régres- sion estimés. Sous des conditions de régularité, Bai et Ng (2006) ont proposé la construction d'intervalles asymptotiques sous l'hypothèse de Gaussianité des innovations. Le bootstrap nous permet de relâcher cette hypothèse et de construire des intervalles de prédiction valides sous des hypothèses plus générales. En outre, même en supposant la Gaussianité, le bootstrap conduit à des intervalles plus précis dans les cas où la dimension transversale est relativement faible car il prend en considération le biais de l'estimateur des moindres carrés ordinaires comme le montre une étude récente de Gonçalves et Perron (2014). Dans le troisième chapitre, nous suggérons des procédures de sélection convergentes pour les regressions augmentées de facteurs en échantillons finis. Nous démontrons premièrement que la méthode de validation croisée usuelle est non-convergente mais que sa généralisation, la validation croisée «leave-d-out» sélectionne le plus petit ensemble de facteurs estimés pour l'espace généré par les vraies facteurs. Le deuxième critère dont nous montrons également la validité généralise l'approximation bootstrap de Shao (1996) pour les regressions augmentées de facteurs. Les simulations montrent une amélioration de la probabilité de sélectionner par- cimonieusement les facteurs estimés comparativement aux méthodes de sélection disponibles. L'application empirique revisite la relation entre les facteurs macroéconomiques et financiers, et l'excès de rendement sur le marché boursier américain. Parmi les facteurs estimés à partir d'un large panel de données macroéconomiques et financières des États Unis, les facteurs fortement correlés aux écarts de taux d'intérêt et les facteurs de Fama-French ont un bon pouvoir prédictif pour les excès de rendement.
Resumo:
De par leur nature scientifique, les sciences économiques visent, entre autre, à observer, qualifier, ainsi que quantifier des phénomènes économiques afin de pouvoir en dégager diverses prévisions. Ce mémoire se penche sur ces prévisions et, plus particulièrement, sur les facteurs pouvant biaiser les prévisionnistes au niveau comportemental en référant à l’effet d’ancrage, un biais propre à l’économie comportementale – une sous-discipline des sciences économiques. Il sera donc question de comprendre, par une analyse selon la discipline que représente l’économie comportementale, ce qui peut les affecter, avec un accent mis sur l’effet d’ancrage plus précisément. L’idée générale de ce dernier est qu’un agent peut être biaisé inconsciemment par la simple connaissance d’une valeur précédente lorsqu’il est demandé de faire une estimation ultérieure. De cette façon, une analyse des salaires des joueurs de la Ligne Nationale de Hockey (NHL) selon leurs performances passées et leurs caractéristiques personnelles, de 2007 à 2016, a été réalisée dans ce travail afin d’en dégager de possibles effets d’ancrage. Il est alors possible de constater que les directeurs généraux des équipes de la ligue agissent généralement de façon sensible et rationnelle lorsque vient le temps d’octroyer des contrats à des joueurs mais, néanmoins, une anomalie persiste lorsqu’on porte attention au rang auquel un joueur a été repêché. Dans un tel contexte, il semble pertinent de se référer à l’économie comportementale afin d’expliquer pourquoi le rang au repêchage reste une variable significative huit ans après l’entrée d’un joueur dans la NHL et qu’elle se comporte à l’inverse de ce que prévoit la théorie à ce sujet.