977 resultados para approximate KNN query
Resumo:
A book called "Armory and Lineages Of Canada 1914" with the copyright year 1913. The book is signed by H.K. Woodruff and it is also signed by Margaret Woodruff Band. Within the back pages is a list of dates of births, weddings and deaths. The full text is available in the Brock University Special Collections and Archives. There are other full text copies of later editions available in the Internet Archive: https://archive.org/search.php?query=title%3A%28armory%20and%20lineages%20of%20canada%29
Resumo:
Classical relational databases lack proper ways to manage certain real-world situations including imprecise or uncertain data. Fuzzy databases overcome this limitation by allowing each entry in the table to be a fuzzy set where each element of the corresponding domain is assigned a membership degree from the real interval [0…1]. But this fuzzy mechanism becomes inappropriate in modelling scenarios where data might be incomparable. Therefore, we become interested in further generalization of fuzzy database into L-fuzzy database. In such a database, the characteristic function for a fuzzy set maps to an arbitrary complete Brouwerian lattice L. From the query language perspectives, the language of fuzzy database, FSQL extends the regular Structured Query Language (SQL) by adding fuzzy specific constructions. In addition to that, L-fuzzy query language LFSQL introduces appropriate linguistic operations to define and manipulate inexact data in an L-fuzzy database. This research mainly focuses on defining the semantics of LFSQL. However, it requires an abstract algebraic theory which can be used to prove all the properties of, and operations on, L-fuzzy relations. In our study, we show that the theory of arrow categories forms a suitable framework for that. Therefore, we define the semantics of LFSQL in the abstract notion of an arrow category. In addition, we implement the operations of L-fuzzy relations in Haskell and develop a parser that translates algebraic expressions into our implementation.
Resumo:
Chart and a memo (4 pages, handwritten) regarding the Port Dalhousie and Thorold Railway from Port Dalhousie to St. Catharines. This is an explanation reflecting the differences between the approximate and final estimate. The memo is slightly stained and the chart is slightly torn. This does not affect the text, Jan. 2, 1856.
Resumo:
Young girl, Mary. Ambrotype? Ca. 1850s? Approximate age 9-12 years old. Rose coloured cheeks. Elaborate brass matting with decorative brass border in wooden case. 8.5mm x 9.5mm (blue sticker on front of case).
Resumo:
A wide range of tests for heteroskedasticity have been proposed in the econometric and statistics literature. Although a few exact homoskedasticity tests are available, the commonly employed procedures are quite generally based on asymptotic approximations which may not provide good size control in finite samples. There has been a number of recent studies that seek to improve the reliability of common heteroskedasticity tests using Edgeworth, Bartlett, jackknife and bootstrap methods. Yet the latter remain approximate. In this paper, we describe a solution to the problem of controlling the size of homoskedasticity tests in linear regression contexts. We study procedures based on the standard test statistics [e.g., the Goldfeld-Quandt, Glejser, Bartlett, Cochran, Hartley, Breusch-Pagan-Godfrey, White and Szroeter criteria] as well as tests for autoregressive conditional heteroskedasticity (ARCH-type models). We also suggest several extensions of the existing procedures (sup-type of combined test statistics) to allow for unknown breakpoints in the error variance. We exploit the technique of Monte Carlo tests to obtain provably exact p-values, for both the standard and the new tests suggested. We show that the MC test procedure conveniently solves the intractable null distribution problem, in particular those raised by the sup-type and combined test statistics as well as (when relevant) unidentified nuisance parameter problems under the null hypothesis. The method proposed works in exactly the same way with both Gaussian and non-Gaussian disturbance distributions [such as heavy-tailed or stable distributions]. The performance of the procedures is examined by simulation. The Monte Carlo experiments conducted focus on : (1) ARCH, GARCH, and ARCH-in-mean alternatives; (2) the case where the variance increases monotonically with : (i) one exogenous variable, and (ii) the mean of the dependent variable; (3) grouped heteroskedasticity; (4) breaks in variance at unknown points. We find that the proposed tests achieve perfect size control and have good power.
Resumo:
Cette thèse envisage un ensemble de méthodes permettant aux algorithmes d'apprentissage statistique de mieux traiter la nature séquentielle des problèmes de gestion de portefeuilles financiers. Nous débutons par une considération du problème général de la composition d'algorithmes d'apprentissage devant gérer des tâches séquentielles, en particulier celui de la mise-à-jour efficace des ensembles d'apprentissage dans un cadre de validation séquentielle. Nous énumérons les desiderata que des primitives de composition doivent satisfaire, et faisons ressortir la difficulté de les atteindre de façon rigoureuse et efficace. Nous poursuivons en présentant un ensemble d'algorithmes qui atteignent ces objectifs et présentons une étude de cas d'un système complexe de prise de décision financière utilisant ces techniques. Nous décrivons ensuite une méthode générale permettant de transformer un problème de décision séquentielle non-Markovien en un problème d'apprentissage supervisé en employant un algorithme de recherche basé sur les K meilleurs chemins. Nous traitons d'une application en gestion de portefeuille où nous entraînons un algorithme d'apprentissage à optimiser directement un ratio de Sharpe (ou autre critère non-additif incorporant une aversion au risque). Nous illustrons l'approche par une étude expérimentale approfondie, proposant une architecture de réseaux de neurones spécialisée à la gestion de portefeuille et la comparant à plusieurs alternatives. Finalement, nous introduisons une représentation fonctionnelle de séries chronologiques permettant à des prévisions d'être effectuées sur un horizon variable, tout en utilisant un ensemble informationnel révélé de manière progressive. L'approche est basée sur l'utilisation des processus Gaussiens, lesquels fournissent une matrice de covariance complète entre tous les points pour lesquels une prévision est demandée. Cette information est utilisée à bon escient par un algorithme qui transige activement des écarts de cours (price spreads) entre des contrats à terme sur commodités. L'approche proposée produit, hors échantillon, un rendement ajusté pour le risque significatif, après frais de transactions, sur un portefeuille de 30 actifs.
Resumo:
On étudie l’application des algorithmes de décomposition matricielles tel que la Factorisation Matricielle Non-négative (FMN), aux représentations fréquentielles de signaux audio musicaux. Ces algorithmes, dirigés par une fonction d’erreur de reconstruction, apprennent un ensemble de fonctions de base et un ensemble de coef- ficients correspondants qui approximent le signal d’entrée. On compare l’utilisation de trois fonctions d’erreur de reconstruction quand la FMN est appliquée à des gammes monophoniques et harmonisées: moindre carré, divergence Kullback-Leibler, et une mesure de divergence dépendente de la phase, introduite récemment. Des nouvelles méthodes pour interpréter les décompositions résultantes sont présentées et sont comparées aux méthodes utilisées précédemment qui nécessitent des connaissances du domaine acoustique. Finalement, on analyse la capacité de généralisation des fonctions de bases apprises par rapport à trois paramètres musicaux: l’amplitude, la durée et le type d’instrument. Pour ce faire, on introduit deux algorithmes d’étiquetage des fonctions de bases qui performent mieux que l’approche précédente dans la majorité de nos tests, la tâche d’instrument avec audio monophonique étant la seule exception importante.
Resumo:
The attached file is created with Scientific Workplace Latex
Resumo:
Turbulences et changements institutionnels au sein de la Société internationale : une perspective historique Cette recherche puise ses origines du constat que la présente société internationale apparaît plus que jamais mal outillée et en perte de légitimité pour gérer les nouveaux déséquilibres qui ébranlent sa sécurité. Nous voulons vérifier si les présentes difficultés à gérer l’ordre interétatique sont des signes précurseurs d’une période de turbulences systémiques qui ébranleraient ses fondations. Nous avançons comme principale hypothèse de recherche qu’une perte de légitimité dans les mécanismes d’ordre d’une société westphalienne engendre une période plus ou moins longue de turbulences systémiques, provoquant un retour à l’antihégémonie caractérisée par l’établissement d’un nouvel ordre sociétal. Pour vérifier cette hypothèse, nous nous associons au cadre théorique de l’École anglaise qui analyse les relations interétatiques en qualifiant le caractère de l’ordre qui les gouverne. Ses adeptes y parviennent en étudiant les forces qui engendrent le maintien d’un environnement international antihégémonique, ainsi que la nature des réciprocités interétatiques qui s’en dégage. Ainsi, en observant les diverses institutions créées pour gérer l’ordre, ils sont en mesure de mieux comprendre l’évolution, la diffusion et la pérennisation de l’établissement d’une société des États. Cette approche nous a permis de construire un modèle explicatif pour notre dynamique sociétale. Par la suite, afin de répondre à notre questionnement initial, nous proposons d’analyser le statut de diverses sociétés internationales lors d’époques caractérisées par une période systémique de grands chaos, suivie du retour d’un régime sociétal. Nous cherchons à établir si des analogies peuvent être faites sur leur processus de transformation pour, par la suite, vérifier si elles peuvent s’appliquer à la nature du changement qui s’opère dans la présente société internationale. L’analyse historique comparative s’avère un instrument tout désigné pour ce type de recherche. Les époques sélectionnées pour notre recherche couvrent la Guerre de Trente Ans, les Guerres napoléoniennes et la Première Guerre mondiale. La nature antihégémonique d’une société des États, en plus de maintenir un environnement anarchique, crée un climat de rivalités qui entraîne un processus de transformations dans la dynamique de l’ordre. Ce facteur de changement fut introduit sous le concept de progrès sociétal, lequel engendre une désuétude institutionnelle dans les mécanismes de l’ordre sociétal, pouvant entraîner une période de turbulences systémiques. Ainsi, pour mieux observer ce phénomène, nous avons adopté les institutions comme outils d’analyse. Elles nous permettent d’être plus critiques des phénomènes observés, tout en nous autorisant à les comparer entre elles, en raison de leur longévité. Nos recherches révèlent la pérennité d’une dynamique de transformation au sein des sociétés westphaliennes, dont la nature entraîne des déséquilibres sociétaux qui varient selon son intensité. Nous observons aussi que, malgré l’égalité légale que confère la souveraineté aux États, les Grandes puissances sont les principaux artisans d’un système international. Leur aptitude à l’unilatéralisme fut souvent associée à l’émergence de turbulences systémiques. Nos recherches montrent que l’interdépendance et la coopération interétatique sont aussi alimentées par la diffusion et le partage d’une économie libérale. C’est aussi cette même interdépendance qui, progressivement, rend la guerre entre Grandes puissances désuète. Plus l’interdépendance et le multilatéralisme s’intensifient dans un environnement sociétal, plus le progrès sociétal a tendance à se manifester sous les aspects d’une transformation systémique progressive (non violente) plutôt que révolutionnaire (période de turbulences systémiques). La présente société internationale est sous l’influence du progrès sociétal depuis son avènement. Sa stabilité est directement liée à la capacité de ses mécanismes d’ordre à contrer les déséquilibres que le progrès engendre, ainsi qu’à l’aptitude de ses Grandes puissances à limiter leur propension à l’unilatéralisme. Donc, ces mécanismes doivent pouvoir intégrer le progrès pour maintenir leur légitimité et éviter d’engendrer une période de turbulences systémiques.
Resumo:
Il est connu que les problèmes d'ambiguïté de la langue ont un effet néfaste sur les résultats des systèmes de Recherche d'Information (RI). Toutefois, les efforts de recherche visant à intégrer des techniques de Désambiguisation de Sens (DS) à la RI n'ont pas porté fruit. La plupart des études sur le sujet obtiennent effectivement des résultats négatifs ou peu convaincants. De plus, des investigations basées sur l'ajout d'ambiguïté artificielle concluent qu'il faudrait une très haute précision de désambiguation pour arriver à un effet positif. Ce mémoire vise à développer de nouvelles approches plus performantes et efficaces, se concentrant sur l'utilisation de statistiques de cooccurrence afin de construire des modèles de contexte. Ces modèles pourront ensuite servir à effectuer une discrimination de sens entre une requête et les documents d'une collection. Dans ce mémoire à deux parties, nous ferons tout d'abord une investigation de la force de la relation entre un mot et les mots présents dans son contexte, proposant une méthode d'apprentissage du poids d'un mot de contexte en fonction de sa distance du mot modélisé dans le document. Cette méthode repose sur l'idée que des modèles de contextes faits à partir d'échantillons aléatoires de mots en contexte devraient être similaires. Des expériences en anglais et en japonais montrent que la force de relation en fonction de la distance suit généralement une loi de puissance négative. Les poids résultant des expériences sont ensuite utilisés dans la construction de systèmes de DS Bayes Naïfs. Des évaluations de ces systèmes sur les données de l'atelier Semeval en anglais pour la tâche Semeval-2007 English Lexical Sample, puis en japonais pour la tâche Semeval-2010 Japanese WSD, montrent que les systèmes ont des résultats comparables à l'état de l'art, bien qu'ils soient bien plus légers, et ne dépendent pas d'outils ou de ressources linguistiques. La deuxième partie de ce mémoire vise à adapter les méthodes développées à des applications de Recherche d'Information. Ces applications ont la difficulté additionnelle de ne pas pouvoir dépendre de données créées manuellement. Nous proposons donc des modèles de contextes à variables latentes basés sur l'Allocation Dirichlet Latente (LDA). Ceux-ci seront combinés à la méthodes de vraisemblance de requête par modèles de langue. En évaluant le système résultant sur trois collections de la conférence TREC (Text REtrieval Conference), nous observons une amélioration proportionnelle moyenne de 12% du MAP et 23% du GMAP. Les gains se font surtout sur les requêtes difficiles, augmentant la stabilité des résultats. Ces expériences seraient la première application positive de techniques de DS sur des tâches de RI standard.
Resumo:
Cette thèse étudie une approche intégrant la gestion de l’horaire et la conception de réseaux de services pour le transport ferroviaire de marchandises. Le transport par rail s’articule autour d’une structure à deux niveaux de consolidation où l’affectation des wagons aux blocs ainsi que des blocs aux services représentent des décisions qui complexifient grandement la gestion des opérations. Dans cette thèse, les deux processus de consolidation ainsi que l’horaire d’exploitation sont étudiés simultanément. La résolution de ce problème permet d’identifier un plan d’exploitation rentable comprenant les politiques de blocage, le routage et l’horaire des trains, de même que l’habillage ainsi que l’affectation du traffic. Afin de décrire les différentes activités ferroviaires au niveau tactique, nous étendons le réseau physique et construisons une structure de réseau espace-temps comprenant trois couches dans lequel la dimension liée au temps prend en considération les impacts temporels sur les opérations. De plus, les opérations relatives aux trains, blocs et wagons sont décrites par différentes couches. Sur la base de cette structure de réseau, nous modélisons ce problème de planification ferroviaire comme un problème de conception de réseaux de services. Le modèle proposé se formule comme un programme mathématique en variables mixtes. Ce dernie r s’avère très difficile à résoudre en raison de la grande taille des instances traitées et de sa complexité intrinsèque. Trois versions sont étudiées : le modèle simplifié (comprenant des services directs uniquement), le modèle complet (comprenant des services directs et multi-arrêts), ainsi qu’un modèle complet à très grande échelle. Plusieurs heuristiques sont développées afin d’obtenir de bonnes solutions en des temps de calcul raisonnables. Premièrement, un cas particulier avec services directs est analysé. En considérant une cara ctéristique spécifique du problème de conception de réseaux de services directs nous développons un nouvel algorithme de recherche avec tabous. Un voisinage par cycles est privilégié à cet effet. Celui-ci est basé sur la distribution du flot circulant sur les blocs selon les cycles issus du réseau résiduel. Un algorithme basé sur l’ajustement de pente est développé pour le modèle complet, et nous proposons une nouvelle méthode, appelée recherche ellipsoidale, permettant d’améliorer davantage la qualité de la solution. La recherche ellipsoidale combine les bonnes solutions admissibles générées par l’algorithme d’ajustement de pente, et regroupe les caractéristiques des bonnes solutions afin de créer un problème élite qui est résolu de facon exacte à l’aide d’un logiciel commercial. L’heuristique tire donc avantage de la vitesse de convergence de l’algorithme d’ajustement de pente et de la qualité de solution de la recherche ellipsoidale. Les tests numériques illustrent l’efficacité de l’heuristique proposée. En outre, l’algorithme représente une alternative intéressante afin de résoudre le problème simplifié. Enfin, nous étudions le modèle complet à très grande échelle. Une heuristique hybride est développée en intégrant les idées de l’algorithme précédemment décrit et la génération de colonnes. Nous proposons une nouvelle procédure d’ajustement de pente où, par rapport à l’ancienne, seule l’approximation des couts liés aux services est considérée. La nouvelle approche d’ajustement de pente sépare ainsi les décisions associées aux blocs et aux services afin de fournir une décomposition naturelle du problème. Les résultats numériques obtenus montrent que l’algorithme est en mesure d’identifier des solutions de qualité dans un contexte visant la résolution d’instances réelles.
Approximation de la distribution a posteriori d'un modèle Gamma-Poisson hiérarchique à effets mixtes
Resumo:
La méthode que nous présentons pour modéliser des données dites de "comptage" ou données de Poisson est basée sur la procédure nommée Modélisation multi-niveau et interactive de la régression de Poisson (PRIMM) développée par Christiansen et Morris (1997). Dans la méthode PRIMM, la régression de Poisson ne comprend que des effets fixes tandis que notre modèle intègre en plus des effets aléatoires. De même que Christiansen et Morris (1997), le modèle étudié consiste à faire de l'inférence basée sur des approximations analytiques des distributions a posteriori des paramètres, évitant ainsi d'utiliser des méthodes computationnelles comme les méthodes de Monte Carlo par chaînes de Markov (MCMC). Les approximations sont basées sur la méthode de Laplace et la théorie asymptotique liée à l'approximation normale pour les lois a posteriori. L'estimation des paramètres de la régression de Poisson est faite par la maximisation de leur densité a posteriori via l'algorithme de Newton-Raphson. Cette étude détermine également les deux premiers moments a posteriori des paramètres de la loi de Poisson dont la distribution a posteriori de chacun d'eux est approximativement une loi gamma. Des applications sur deux exemples de données ont permis de vérifier que ce modèle peut être considéré dans une certaine mesure comme une généralisation de la méthode PRIMM. En effet, le modèle s'applique aussi bien aux données de Poisson non stratifiées qu'aux données stratifiées; et dans ce dernier cas, il comporte non seulement des effets fixes mais aussi des effets aléatoires liés aux strates. Enfin, le modèle est appliqué aux données relatives à plusieurs types d'effets indésirables observés chez les participants d'un essai clinique impliquant un vaccin quadrivalent contre la rougeole, les oreillons, la rub\'eole et la varicelle. La régression de Poisson comprend l'effet fixe correspondant à la variable traitement/contrôle, ainsi que des effets aléatoires liés aux systèmes biologiques du corps humain auxquels sont attribués les effets indésirables considérés.
Resumo:
Par une approche analytique, cette étude en éthique clinique a examiné la problématique de la demande d’assistance médicalisée pour mourir formulée dans le cadre des soins de fin de vie. Partant du fait que cette demande sollicite les soignants dans leur savoir et leur savoir-faire, surtout dans leur savoir-être, cette étude rend d’abord compte d’un fait : bon gré mal gré l’interdit de l’euthanasie par la loi et la déontologie médicale, ainsi que le débat contradictoire à son sujet qui dure déjà voici quelques décennies, il arrive de temps à autres que les soignants œuvrant en soins de fin de vie, soient confrontés à une demande d’assistance médicalisée pour mourir. Cette demande qui émane de certaines personnes en fin de vie et / ou de leurs proches, est souvent source de malaise pour les soignants à l’endroit de qui elle crée des défis majeurs et fait naître des dilemmes éthiques importants. Plus particulièrement, cette demande interroge toujours la finalité même des soins de fin de vie : est-ce que l’aide pour mourir fait partie de ces soins ? En réponse à cette question difficile, cette démarche réflexive de soignant chercheur en éthique montre qu’il est difficile de donner une réponse binaire en forme de oui / non ; il est difficile de donner une réponse d’application universalisable, et de définir une généralisable conduite à tenir devant une telle demande, car chaque cas est singulier et unique à son genre. Cette étude montre prioritairement que l’humanisation de la mort est à la fois un enjeu éthique important et un défi majeur pour notre société où la vie des individus est médicalisée de la naissance à la mort. En conséquence, parce que la demande d’assistance médicalisée pour mourir sollicite les soignants dans leur savoir et leur savoir-faire, cette étude montre toute l’importance de la réflexivité et de la créativité que doivent développer les soignants pour apporter une réponse constructive à chaque demande : une réponse humanisant le mourir et la mort elle-même, c’est-à-dire une réponse qui soit, sur le plan éthique, raisonnable et cohérente, une réponse qui soit sur le plan humain, porteuse de sens. D’où, outre l’axiologie, cette démarche réflexive montre que l’interdisciplinarité, la sémantique, l’herméneutique et les grilles d’analyse en éthique, constituent des outils réflexifs efficaces pouvant mieux aider les soignants dans leur démarche. Sur quelles bases éthiques, les soignants doivent-ils examiner une demande d’assistance médicalisée pour mourir, demande qui se présente toujours sous la forme d’un dilemme éthique? Cette question renvoie entre autre au fait que cette demande sollicite profondément les soignants dans leur savoir-être en relation des soins de fin de vie. Aussi bonnes les unes que les autres, qu’on soit pour ou contre l’euthanasie, plusieurs stratégies et méthodes d’analyse sont proposées aux soignants pour la résolution des conflits des valeurs et des dilemmes éthiques. Mais, ce n’est pas sur cette voie-là que cette étude invite les soignants. C’est plutôt par leur réflexivité et leur créativité, enrichies principalement par leur humanisme, leur expérience de vie, leur intuition, et secondairement par les différentes méthodes d’analyse, que selon chaque contexte, les soignants par le souci permanent de bien faire qui les caractérisent, trouveront toujours par eux-mêmes ce qui convient de faire dans l’ici et maintenant de chaque demande. C’est pourquoi, devant une demande d’assistance médicalisée pour mourir qui leur est adressée dans le cadre des soins de fin de vie, cette démarche éthique invite donc les soignants à être « des cliniciens créatifs, des praticiens réflexifs» . C’est pour cette raison, sur le plan proprement dit de la réflexion éthique, cette étude fait apparaître les repères de l’éthique humaniste de fin de vie comme bases axiologiques sur lesquels les soignants peuvent construire une démarche crédible pour répondre au mieux à cette demande. L’éthique humaniste de fin de vie située dans le sillage de l’humanisme médical , où l’humain précède le médical, renvoie au fait qu’en soins de fin de vie où émerge une demande d’aide à la mort, entre le demandeur de cette aide et le soignant, tout doit être basé sur une confiante relation d’homme à homme, même si du côté du soignant, son savoir être dans cette relation est aussi enrichi par sa compétence, ses connaissances et son expérience ou son savoir-faire. Basée sur l’humanité du soignant dans la démarche de soins, l’éthique humaniste de fin de vie en tant que pratique réflexive émerge de la créativité éthique du soignant lui-même et de l’équipe autour de lui ; et cette éthique se situe entre interrogation et transgression, et se définit comme une éthique « du vide-de-sens-à-remplir » dans un profond souci humain de bien faire. Car, exclue l’indifférence à la demande de l’assistance médicalisée pour mourir, son acceptation ou son refus par le soignant, doit porter sur l’humanisation de la mort. Cette dernière étant fondamentalement définie par rapport à ce qui déshumanise la fin de vie.
Resumo:
Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal