22 resultados para Relative timing
em Université de Montréal, Canada
Resumo:
L’observation d’un modèle pratiquant une habileté motrice promeut l’apprentissage de l’habileté en question. Toutefois, peu de chercheurs se sont attardés à étudier les caractéristiques d’un bon modèle et à mettre en évidence les conditions d’observation pouvant optimiser l’apprentissage. Dans les trois études composant cette thèse, nous avons examiné les effets du niveau d’habileté du modèle, de la latéralité du modèle, du point de vue auquel l’observateur est placé, et du mode de présentation de l’information sur l’apprentissage d’une tâche de timing séquentielle composée de quatre segments. Dans la première expérience de la première étude, les participants observaient soit un novice, soit un expert, soit un novice et un expert. Les résultats des tests de rétention et de transfert ont révélé que l’observation d’un novice était moins bénéfique pour l’apprentissage que le fait d’observer un expert ou une combinaison des deux (condition mixte). Par ailleurs, il semblerait que l’observation combinée de modèles novice et expert induise un mouvement plus stable et une meilleure généralisation du timing relatif imposé comparativement aux deux autres conditions. Dans la seconde expérience, nous voulions déterminer si un certain type de performance chez un novice (très variable, avec ou sans amélioration de la performance) dans l’observation d’une condition mixte amenait un meilleur apprentissage de la tâche. Aucune différence significative n’a été observée entre les différents types de modèle novices employés dans l’observation de la condition mixte. Ces résultats suggèrent qu’une observation mixte fournit une représentation précise de ce qu’il faut faire (modèle expert) et que l’apprentissage est d’autant plus amélioré lorsque l’apprenant peut contraster cela avec la performance de modèles ayant moins de succès. Dans notre seconde étude, des participants droitiers devaient observer un modèle à la première ou à la troisième personne. L’observation d’un modèle utilisant la même main préférentielle que soi induit un meilleur apprentissage de la tâche que l’observation d’un modèle dont la dominance latérale est opposée à la sienne, et ce, quel que soit l’angle d’observation. Ce résultat suggère que le réseau d’observation de l’action (AON) est plus sensible à la latéralité du modèle qu’à l’angle de vue de l’observateur. Ainsi, le réseau d’observation de l’action semble lié à des régions sensorimotrices du cerveau qui simulent la programmation motrice comme si le mouvement observé était réalisé par sa propre main dominante. Pour finir, dans la troisième étude, nous nous sommes intéressés à déterminer si le mode de présentation (en direct ou en vidéo) influait sur l’apprentissage par observation et si cet effet est modulé par le point de vue de l’observateur (première ou troisième personne). Pour cela, les participants observaient soit un modèle en direct soit une présentation vidéo du modèle et ceci avec une vue soit à la première soit à la troisième personne. Nos résultats ont révélé que l’observation ne diffère pas significativement selon le type de présentation utilisée ou le point de vue auquel l’observateur est placé. Ces résultats sont contraires aux prédictions découlant des études d’imagerie cérébrale ayant montré une activation plus importante du cortex sensorimoteur lors d’une observation en direct comparée à une observation vidéo et de la première personne comparée à la troisième personne. Dans l’ensemble, nos résultats indiquent que le niveau d’habileté du modèle et sa latéralité sont des déterminants importants de l’apprentissage par observation alors que le point de vue de l’observateur et le moyen de présentation n’ont pas d’effets significatifs sur l’apprentissage d’une tâche motrice. De plus, nos résultats suggèrent que la plus grande activation du réseau d’observation de l’action révélée par les études en imagerie mentale durant l’observation d’une action n’induit pas nécessairement un meilleur apprentissage de la tâche.
Resumo:
Affiliation: Dany Gagnon & Sylvie Nadeau: École de réadaptation, Faculté de médecine, Université de Montréal & Centre de recherche interdisciplinaire en réadaptation, Institut de réadaptation de Montréal
Resumo:
This paper proposes a definition of relative uncertainty aversion for decision models under complete uncertainty. It is shown that, for a large class of decision rules characterized by a set of plausible axioms, the new criterion yields a complete ranking of those rules with respect to the relative degree of uncertainty aversion they represent. In addition, we address a combinatorial question that arises in this context, and we examine conditions for the additive representability of our rules.
Resumo:
We reconsider the problem of aggregating individual preference orderings into a single social ordering when alternatives are lotteries and individual preferences are of the von Neumann-Morgenstern type. Relative egalitarianism ranks alternatives by applying the leximin ordering to the distributions of (0-1) normalized utilities they generate. We propose an axiomatic characterization of this aggregation rule and discuss related criteria.
Resumo:
Les systèmes Matériels/Logiciels deviennent indispensables dans tous les aspects de la vie quotidienne. La présence croissante de ces systèmes dans les différents produits et services incite à trouver des méthodes pour les développer efficacement. Mais une conception efficace de ces systèmes est limitée par plusieurs facteurs, certains d'entre eux sont: la complexité croissante des applications, une augmentation de la densité d'intégration, la nature hétérogène des produits et services, la diminution de temps d’accès au marché. Une modélisation transactionnelle (TLM) est considérée comme un paradigme prometteur permettant de gérer la complexité de conception et fournissant des moyens d’exploration et de validation d'alternatives de conception à des niveaux d’abstraction élevés. Cette recherche propose une méthodologie d’expression de temps dans TLM basée sur une analyse de contraintes temporelles. Nous proposons d'utiliser une combinaison de deux paradigmes de développement pour accélérer la conception: le TLM d'une part et une méthodologie d’expression de temps entre différentes transactions d’autre part. Cette synergie nous permet de combiner dans un seul environnement des méthodes de simulation performantes et des méthodes analytiques formelles. Nous avons proposé un nouvel algorithme de vérification temporelle basé sur la procédure de linéarisation des contraintes de type min/max et une technique d'optimisation afin d'améliorer l'efficacité de l'algorithme. Nous avons complété la description mathématique de tous les types de contraintes présentées dans la littérature. Nous avons développé des méthodes d'exploration et raffinement de système de communication qui nous a permis d'utiliser les algorithmes de vérification temporelle à différents niveaux TLM. Comme il existe plusieurs définitions du TLM, dans le cadre de notre recherche, nous avons défini une méthodologie de spécification et simulation pour des systèmes Matériel/Logiciel basée sur le paradigme de TLM. Dans cette méthodologie plusieurs concepts de modélisation peuvent être considérés séparément. Basée sur l'utilisation des technologies modernes de génie logiciel telles que XML, XSLT, XSD, la programmation orientée objet et plusieurs autres fournies par l’environnement .Net, la méthodologie proposée présente une approche qui rend possible une réutilisation des modèles intermédiaires afin de faire face à la contrainte de temps d’accès au marché. Elle fournit une approche générale dans la modélisation du système qui sépare les différents aspects de conception tels que des modèles de calculs utilisés pour décrire le système à des niveaux d’abstraction multiples. En conséquence, dans le modèle du système nous pouvons clairement identifier la fonctionnalité du système sans les détails reliés aux plateformes de développement et ceci mènera à améliorer la "portabilité" du modèle d'application.
Resumo:
Cette thèse avait pour objectif d’examiner les liens longitudinaux entre le timing pubertaire et les problèmes de comportement intériorisés et extériorisés à l’adolescence, soit les problèmes de conduite et les symptômes dépressifs. Guidé par la perspective théorique biosociale et le modèle de vulnérabilité-stress, le rôle modérateur de l’environnement social et des vulnérabilités personnelles préexistantes était également évalué. Les hypothèses initiales étaient qu’un timing pubertaire précoce ou déviant de la norme (précoce et tardif) serait associé à des niveaux plus élevés de problèmes de conduite et de symptômes dépressifs, mais que ce lien serait accentué dans des contextes sociaux et interpersonnels plus à risque et en présence de vulnérabilités individuelles chez les adolescents. Pour vérifier ces hypothèses, des données provenant de l’Enquête Longitudinale Nationale sur les Enfants et les Jeunes (ELNEJ) ont été analysées. Gérée par Statistique Canada, l’ELNEJ est une enquête prospective biennale comportant différents échantillons représentatifs d’enfants et d’adolescents canadiens. Les mesures utilisées dans cette thèse ont été collectées à différents cycles de l’enquête, soit à 10–11 ans, 12–13 ans, 14–15 ans et 16–17 ans, directement auprès des adolescents et de leurs parents par le biais de questionnaires et d’entrevues. Le premier article de la thèse a vérifié si l’interaction entre le timing pubertaire et des caractéristiques du contexte social des pairs (c.-à-d. l’affiliation avec des pairs déviants et l’implication amoureuse en début d’adolescence) prédisait la présentation de problèmes de conduite avec et sans agressivité physique à l’adolescence. Les résultats ont montré que le contexte social des pairs modérait l’association entre le timing pubertaire et les problèmes de conduite. Une interaction significative entre le timing pubertaire et l’affiliation à des pairs déviants a indiqué qu’une puberté plus précoce était associée à des fréquences plus élevées de problèmes de conduite agressive seulement chez les filles et les garçons qui fréquentaient des pairs déviants. Autrement dit, parmi les adolescents s’affiliant à des pairs déviants en début d’adolescence, les adolescents pubères précoces tendaient à présenter plus de problèmes de conduite agressive deux ans plus tard, en comparaison à leurs pairs pubères dans les temps moyens ou tardifs. Une seconde interaction significative obtenue chez les filles a montré que la puberté plus précoce était prédictrice des problèmes de conduite non-agressive seulement en présence d’un engagement amoureux en début d’adolescence. En effet, dans un contexte d’implication amoureuse, les filles pubères précoces présentaient plus de problèmes de conduite non-agressive que leurs pairs. Le deuxième article de la thèse avait pour objectif d’évaluer le rôle modérateur des vulnérabilités individuelles à la dépression (présence de symptômes intériorisés à la fin de l’enfance), du contexte social des pairs (affiliation à des pairs déviants, expérience amoureuse précoce et perception de popularité auprès des pairs) et des relations parent-adolescent (perception de rejet de la part des parents) dans l’association longitudinale entre le timing pubertaire et les symptômes dépressifs en fin d’adolescence. Chez les filles, une interaction triple a révélé que la puberté plus précoce était liée à davantage de symptômes dépressifs, mais seulement chez celles qui présentaient des symptômes intériorisés à la fin de l’enfance et une implication amoureuse précoce. Chez les garçons, un effet curvilinéaire du timing pubertaire a été observé alors que la puberté précoce et tardive était associée à plus de symptômes dépressifs, mais seulement chez les garçons qui manifestaient des symptômes intériorisés à la fin de l’enfance. La puberté plus précoce était aussi liée à des niveaux plus élevés de symptômes dépressifs en présence d’affiliation à des pairs déviants (garçons) et de perceptions plus importantes de rejet parental (filles et garçons). En somme, la mise en évidence d’interactions significatives entre le timing pubertaire, les caractéristiques de l’environnement social et les vulnérabilités individuelles suscite différentes réflexions au plan théorique et pratique. Tout d’abord, les résultats suggèrent que le timing pubertaire en lui-même ne paraît pas représenter un facteur de risque généralisé des problèmes de comportement intériorisés et extériorisés à l’adolescence. Plus particulièrement, ces résultats soulignent l’importance de considérer l’environnement social et les facteurs de risque individuels préexistants afin de mieux comprendre l’effet de la transition pubertaire sur l’adaptation psychosociale des adolescents.
Resumo:
Alors que certains mécanismes pourtant jugés cruciaux pour la transformation de la pluie en débit restent peu ou mal compris, le concept de connectivité hydrologique a récemment été proposé pour expliquer pourquoi certains processus sont déclenchés de manière épisodique en fonction des caractéristiques des événements de pluie et de la teneur en eau des sols avant l’événement. L’adoption de ce nouveau concept en hydrologie reste cependant difficile puisqu’il n’y a pas de consensus sur la définition de la connectivité, sa mesure, son intégration dans les modèles hydrologiques et son comportement lors des transferts d’échelles spatiales et temporelles. Le but de ce travail doctoral est donc de préciser la définition, la mesure, l’agrégation et la prédiction des processus liés à la connectivité hydrologique en s’attardant aux questions suivantes : 1) Quel cadre méthodologique adopter pour une étude sur la connectivité hydrologique ?, 2) Comment évaluer le degré de connectivité hydrologique des bassins versants à partir de données de terrain ?, et 3) Dans quelle mesure nos connaissances sur la connectivité hydrologique doivent-elles conduire à la modification des postulats de modélisation hydrologique ? Trois approches d’étude sont différenciées, soit i) une approche de type « boite noire », basée uniquement sur l’exploitation des données de pluie et de débits sans examiner le fonctionnement interne du bassin versant ; ii) une approche de type « boite grise » reposant sur l’étude de données géochimiques ponctuelles illustrant la dynamique interne du bassin versant ; et iii) une approche de type « boite blanche » axée sur l’analyse de patrons spatiaux exhaustifs de la topographie de surface, la topographie de subsurface et l’humidité du sol. Ces trois approches sont ensuite validées expérimentalement dans le bassin versant de l’Hermine (Basses Laurentides, Québec). Quatre types de réponses hydrologiques sont distingués en fonction de leur magnitude et de leur synchronisme, sachant que leur présence relative dépend des conditions antécédentes. Les forts débits enregistrés à l’exutoire du bassin versant sont associés à une contribution accrue de certaines sources de ruissellement, ce qui témoigne d’un lien hydraulique accru et donc d’un fort degré de connectivité hydrologique entre les sources concernées et le cours d’eau. Les aires saturées couvrant des superficies supérieures à 0,85 ha sont jugées critiques pour la genèse de forts débits de crue. La preuve est aussi faite que les propriétés statistiques des patrons d’humidité du sol en milieu forestier tempéré humide sont nettement différentes de celles observées en milieu de prairie tempéré sec, d’où la nécessité d’utiliser des méthodes de calcul différentes pour dériver des métriques spatiales de connectivité dans les deux types de milieux. Enfin, la double existence de sources contributives « linéaires » et « non linéaires » est mise en évidence à l’Hermine. Ces résultats suggèrent la révision de concepts qui sous-tendent l’élaboration et l’exécution des modèles hydrologiques. L’originalité de cette thèse est le fait même de son sujet. En effet, les objectifs de recherche poursuivis sont conformes à la théorie hydrologique renouvelée qui prône l’arrêt des études de particularismes de petite échelle au profit de l’examen des propriétés émergentes des bassins versants telles que la connectivité hydrologique. La contribution majeure de cette thèse consiste ainsi en la proposition d’une définition unifiée de la connectivité, d’un cadre méthodologique, d’approches de mesure sur le terrain, d’outils techniques et de pistes de solution pour la modélisation des systèmes hydrologiques.
Resumo:
Depuis quelques années, les États adoptent des politiques qui cherchent à séparer l’admission des réfugiés sur le territoire d’un État et l’attribution du statut de réfugié. En Europe, ce genre de politique est désigné par le terme externalisation. Cependant, par souci d’objectivité, nous avons choisi d’employer le terme extraterritorial. En effet, l’expression externalisation comporte en elle-même la critique de son objet. En Europe, aucune politique qui dissocie l’attribution du statut de réfugié et l’entrée sur le territoire d’un État n’a été mise en place, toutefois, cette idée fait partie des réflexions institutionnelles et elle reste un objectif de l’agenda européen. Ce mémoire cherche donc à analyser la proposition de traitement extraterritorial des demandes de statut de réfugié, faite en Europe, au regard de l’obligation la plus contraignante au sein du droit international des réfugiés : le principe de non refoulement. En ce sens, il sera nécessaire d'analyser l'étendue ainsi que les limites du principe de non refoulement, au regard de l’interprétation et de la mise en œuvre qui en sont faites. Ce mémoire démontrera que derrière une vive polémique sur la question, la proposition de traitement extraterritorial des demandes de statut de réfugié est compatible avec l’article 33 alinéa 1 de la Convention relative au statut des réfugiés.
Resumo:
Une multitude de recherches évaluatives ont démontré que les victimes de crime, qu’elles soient victimes d’un crime contre les biens ou contre la personne, apprécient l’approche réparatrice. Cependant, nous sommes toujours à la recherche des facteurs théoriques qui expliqueraient la satisfaction des victimes en ce qui concerne leur expérience avec les interventions réparatrices. La recherche décrite dans cette thèse concerne l’exploration des facteurs contribuant à la satisfaction des victimes de crime avec l’approche réparatrice ainsi que ses liens avec la théorie de justice procédurale. Selon la théorie de justice procédurale, la perception de justice n’est pas uniquement associée à l’appréciation du résultat d’une intervention, mais également à l’appréciation de la procédure, et que la procédure et le résultat peuvent être évalués de façon indépendante. Les procédures qui privilégient la confiance, la neutralité et le respect, ainsi que la participation et la voix des parties sont plus appréciées. Notre objectif de recherche était d’explorer l’analogie entre l’appréciation de la justice réparatrice et le concept de justice procédurale. En outre, nous avons voulu déterminer si la justice réparatrice surpasse, en termes de satisfaction, ceux prévus par la théorie de justice procédurale. Nous avons également examiné la différence dans l’appréciation de l’approche réparatrice selon le moment de l’application, soit avant ou après adjudication pénale. Ainsi, nous avons exploré le rôle d’une décision judiciaire dans l’évaluation de l’approche réparatrice. Pour répondre à nos objectifs de recherche, nous avons consulté des victimes de crime violent au sujet de leur expérience avec l’approche réparatrice. Nous avons mené des entrevues semi-directives avec des victimes de crime violent qui ont participé à une médiation auteur-victime, à une concertation réparatrice en groupe ou aux rencontres détenus-victimes au Canada (N=13) et en Belgique (N=21). Dans cet échantillon, 14 répondants ont participé à une intervention réparatrice avant adjudication judiciaire et 14 après adjudication. Nous avons observé que l’approche réparatrice semble être en analogie avec la théorie de justice procédurale. D’ailleurs, l’approche réparatrice dépasse les prémisses de la justice procédurale en étant flexible, en offrant de l’aide, en se concentrant sur le dialogue et en permettant d’aborder des raisons altruistes. Finalement, le moment de l’application, soit avant ou après adjudication, ne semble pas affecter l’appréciation des interventions réparatrices. Néanmoins, le rôle attribué à l’intervention réparatrice ainsi que l’effet sur l’évaluation du système judiciaire diffèrent selon le moment d’application. Les victimes suggèrent de continuer à développer l’approche réparatrice en tant que complément aux procédures judiciaires, plutôt qu’en tant que mesure alternative. Les témoignages des victimes servent la cause de l’offre réparatrice aux victimes de crime violent. L’offre réparatrice pourrait aussi être élargie aux différentes phases du système judiciaire. Cependant, la préférence pour l’approche réparatrice comme complément aux procédures judiciaires implique la nécessité d’investir également dans la capacité du système judiciaire de répondre aux besoins des victimes, tant sur le plan de la procédure que sur le plan du traitement par les autorités judiciaires.
Resumo:
Les comparaisons temporelles sont essentielles pour s’évaluer. Plusieurs études se sont intéressées aux conséquences négatives d’être insatisfait à la suite de comparaisons temporelles désavantageuses (c.-à.-d., à la privation relative). Peu d’étude a toutefois examiné l’évolution de ce sentiment d’insatisfaction. Le présent mémoire propose que ressentir différents niveaux d’insatisfaction au fil du temps, soit une trajectoire instable d’insatisfaction, affecte négativement le bien-être psychologique. Trois études expérimentales ont été menées. Les résultats révèlent que percevoir une trajectoire instable d’insatisfaction affecte négativement le bien-être psychologique. Une quatrième étude corrélationnelle a été menée au Kirghizstan afin d’examiner si les perceptions d’insatisfaction et d’instabilité mesurées à fil de l’histoire d’un groupe sont associées au bien-être psychologique lors de changements sociaux. Les résultats suggèrent que percevoir un haut niveau d’instabilité et d’insatisfaction au fil du temps est associé négativement au bien-être. Les implications théoriques et méthodologiques sont discutées.
Resumo:
Le système nerveux autonome cardiaque est devenu une cible dans les thérapies ablatives de la fibrillation auriculaire. Nous avons étudié les voies de communication et la fonction des plexus ganglionnaires (PG) de l'oreillette gauche (PGOG) afin de clarifier la validité physiopathologique des méthodes de détection et des thérapies impliquant ces groupes de neuronnes. Méthodes: Vingt-deux chiens ont subi une double thoracotomie et ont été instrumentés avec des plaques auriculaires épidcardiques de multiélectrodes. Une stimulation électrique (2 mA, 15 Hz) des PGOG a été réalisée à l'état basal et successivement après: 1) une décentralisation vagale, 2) l'ablation par radiofréquence des plexus péri-aortiques et de la veine cave supérieure (Ao/VCS) et 3) l'ablation du PG de l'oreillette droite (PGOD). Ces procédures de dénervation ont été réalisées suivant une séquence antérograde (n = 17) ou rétrograde (n = 5). Résultats: Chez 17 des 22 animaux, la stimulation des PGOG a induit une bradycardie sinusale (149 ± 34 bpm vs 136 ± 28 bpm, p < 0.002) et des changements de repolarization (ΔREPOL) auriculaires isointégrales. Dans le groupe des ablations antérogrades, les réponses aux stimulations vagales ont été supprimées suite à la décentralisation vagale chez un seul animal, par l'ablation des plexus Ao/VCS dans 4 cas et par l'ablation du PGOG dans 5 autres animaux. Des changements ont persisté tout au long chez 2 chiens. La valeur de surface des ΔREPOL a diminué avec les dénervations séquentielles, passant de 365 ± 252 mm2 en basale à 53 ± 106 mm2 après l'ablation du PGOD (p < 0.03). Dans le groupe de dénervation rétrograde, les changements de repolarisation et chronotropiques ont été supprimés suite à l'ablation du PGOD chez deux chiens et suite à l'ablation Ao/VCS chez trois. La valeur de surface du ΔREPOL a aussi diminué après l'ablation du PGOD (269±144mm2 vs 124±158mm2, p<0.05). Conclusion: Les PGOD sont identifiables en préablation par la réponse bradycardique à la stimulation directe dans la plupart des cas. Le PGOD semble former la principale, mais non la seule, voie de communication avec le nœud sinusal. Ces résultats pourraient avoir des implications dans le traitement de la FA par méthodes ablatives.
Resumo:
Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal