32 resultados para Pseudo-Philoxenus.

em Université de Montréal, Canada


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans cette thèse, on étudie les propriétés des sous-variétés lagrangiennes dans une variété symplectique en utilisant la relation de cobordisme lagrangien. Plus précisément, on s'intéresse à déterminer les conditions pour lesquelles les cobordismes lagrangiens élémentaires sont en fait triviaux. En utilisant des techniques de l'homologie de Floer et le théorème du s-cobordisme on démontre que, sous certaines hypothèses topologiques, un cobordisme lagrangien exact est une pseudo-isotopie lagrangienne. Ce resultat est une forme faible d'une conjecture due à Biran et Cornea qui stipule qu'un cobordisme lagrangien exact est hamiltonien isotope à une suspension lagrangianenne.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Several Authors Have Discussed Recently the Limited Dependent Variable Regression Model with Serial Correlation Between Residuals. the Pseudo-Maximum Likelihood Estimators Obtained by Ignoring Serial Correlation Altogether, Have Been Shown to Be Consistent. We Present Alternative Pseudo-Maximum Likelihood Estimators Which Are Obtained by Ignoring Serial Correlation Only Selectively. Monte Carlo Experiments on a Model with First Order Serial Correlation Suggest That Our Alternative Estimators Have Substantially Lower Mean-Squared Errors in Medium Size and Small Samples, Especially When the Serial Correlation Coefficient Is High. the Same Experiments Also Suggest That the True Level of the Confidence Intervals Established with Our Estimators by Assuming Asymptotic Normality, Is Somewhat Lower Than the Intended Level. Although the Paper Focuses on Models with Only First Order Serial Correlation, the Generalization of the Proposed Approach to Serial Correlation of Higher Order Is Also Discussed Briefly.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper addresses the issue of estimating semiparametric time series models specified by their conditional mean and conditional variance. We stress the importance of using joint restrictions on the mean and variance. This leads us to take into account the covariance between the mean and the variance and the variance of the variance, that is, the skewness and kurtosis. We establish the direct links between the usual parametric estimation methods, namely, the QMLE, the GMM and the M-estimation. The ususal univariate QMLE is, under non-normality, less efficient than the optimal GMM estimator. However, the bivariate QMLE based on the dependent variable and its square is as efficient as the optimal GMM one. A Monte Carlo analysis confirms the relevance of our approach, in particular, the importance of skewness.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les logiciels utilisés sont Splus et R.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les glucides constituent la classe de molécules organiques la plus abondante et ceux-ci jouent des rôles cruciaux dans divers processus biologiques. De part leur importance médicinale, la préparation des désoxy-sucres, des C-glycosides et des C-disaccharides est devenue un sujet de pointe en synthèse organique. De façon générale, cette thèse décrit une nouvelle synthèse de novo des 4-désoxy hexopyrannoses en plus de la préparation de C-glycosides biologiquement actifs. De plus, une attention particulière a été portée à la préparation de novo de 4-désoxy-C-disaccharides. Dans un premier temps, le catalyseur de Cr(III) de Jacobsen et un complexe binaphtol/titane ont été utilisés pour réaliser des hétéro-Diels-Alder énantiosélectives. Les dihydropyrannes ainsi générés ont été transformés en 4-désoxy hexopyrannoses présents dans la nature. De cette façon, un dérivé de l’acide ézoaminuroïque, un précurseur de la désosamine et de la néosidomycine, a été préparé suivant cette approche de novo. De plus, à titre comparatif, la néosidomycine a également été fabriquée selon une approche chiron, à partir du méthyl alpha-D-mannopyrannoside. Finalement, une évaluation biologique préliminaire de la néosidomycine a été effectuée sur une la concanavaline-A (Chapitre 2). Dans un deuxième temps, une allylation stéréosélective sur un aldéhyde lié via des liens C-C à une unité mannoside a permis de générer un alcool homoallylique. Cette dernière fonctionnalité a été transformée en 4-désoxy hexopyrannose de configuration D ou L. De cette façon, la préparation de pseudo 4-désoxy-C-disaccharides, de 4-désoxy-C-disaccharides et de pseudo 4-désoxy aza-C-disaccharides a facilement été réalisée. Les rapports diastéréoisomériques de la réaction d’allylation ont été déterminés en plus de la configuration absolue des nouveaux centres stéréogéniques formés. La transformation des alcools homoallyliques en pyrannes poly hydroxylés ou en lactames poly hydroxylés a été réalisée, en plus de la déprotection de certains membres de cette famille pour une évaluation biologique préliminaire sur la concanavaline-A (Chapitre 3). Finalement, la synthèse de C-glycosides biologiquement actifs a été réalisée selon deux volets: i) préparation de 3-C-mannopyrannosyl coumarines et ii) synthèse de C-galactosides, inhibiteurs de la lectine PA-IL. Pour ce faire, le couplage de Heck a été utilisé à partir d’un ester alpha,bêta-insaturé, attaché à une unité glycosidique via des liens C-C, pour générer un dérivé glycosyl cinnamate de méthyle. Cependant, lorsque le 2-iodophénol est utilisé comme partenaire de Heck, la coumarine correspondante a été isolée. Les dérivés C-galactopyrannosyl cinnamates de méthyle représentent de bons inhibiteurs monovalents de la PA-IL avec un Kd aussi bas que 37 micro M (Chapitre 4).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le GABA est le principal neurotransmetteur inhibiteur du SNC et est impliqué dans le développement du cerveau, la plasticité synaptique et la pathogénèse de maladies telles que l’épilepsie, les troubles de l’anxiété et la douleur chronique. Le modèle actuel de fonctionnement du récepteur GABA-B implique l’hétérodimérisation GABA-B1/B2, laquelle est requise au ciblage à la surface membranaire et au couplage des effecteurs. Il y est cependant des régions du cerveau, des types cellulaires et des périodes du développement cérébral où la sous-unité GABA-B1 est exprimée en plus grande quantité que GABA-B2, ce qui suggère qu’elle puisse être fonctionnelle seule ou en association avec des partenaires inconnus, à la surface cellulaire ou sur la membrane réticulaire. Dans le cadre de cette thèse, nous montrons la capacité des récepteurs GABA-B1 endogènes à activer la voie MAPK-ERK1/2 dans la lignée dérivée de la glie DI-TNC1, qui n’exprime pas GABA-B2. Les mécanismes qui sous-tendent ce couplage demeurent mal définis mais dépendent de Gi/o et PKC. L’immunohistochimie de récepteurs endogènes montre par ailleurs que des anticorps GABA-B1 dirigés contre la partie N-terminale reconnaissent des protéines localisées au RE tandis des anticorps C-terminaux (CT) marquent une protéine intranucléaire. Ces données suggèrent que le domaine CT de GABA-B1 pourrait être relâché par protéolyse. L’intensité des fragments potentiels est affectée par le traitement agoniste tant en immunohistochimie qu’en immunobuvardage de type western. Nous avons ensuite examiné la régulation du clivage par le protéasome en traitant les cellules avec l’inhibiteur epoxomicine pendant 12 h. Cela a résulté en l’augmentation du marquage intranucléaire de GABA-B1-CT et d’un interacteur connu, le facteur de transcription pro-survie ATF-4. Dans des cellules surexprimant GABA-B1-CT, l’induction et la translocation nucléaire d’ATF-4, qui suit le traitement epoxomicine, a complètement été abolie. Cette observation est associée à une forte diminution du décompte cellulaire. Étant donné que les trois derniers résidus de GABA-B1-CT (LYK) codent un ligand pseudo-PDZ et que les protéines à domaines PDZ sont impliquées dans la régulation du ciblage nucléaire et de la stabilité de protéines, en complément de leur rôle d’échaffaud à la surface cellulaire, nous avons muté les trois derniers résidus de GABA-B1-CT en alanines. Cette mutation a complètement annulé les effets de GABA-B1-CT sur l’induction d’ATF-4 et le décompte cellulaire. Cette deuxième série d’expériences suggère l’existence possible de fragments GABA-B1 intranucléaires régulés par le traitement agoniste et le protéasome dans les cellules DI-TNC1. Cette régulation d’ATF-4 dépend des résidus LYK de GABA-B1-CT, qui modulent la stabilité de GABA-B1-CT et favorisent peut-être la formation d’un complexe multiprotéique incluant GABA-B1-CT, ATF-4, de même qu’une protéine d’échaffaudage inconnue. En somme, nous démontrons que les sous-unités GABA-B1 localisées au RE, lorsque non-hétérodimérisées avec GABA-B2, demeurent capables de moduler les voies de signalisation de la prolifération, la différentiation et de la survie cellulaire, via le couplage de protéines G et possiblement la protéolyse régulée. Les mécanismes de signalisation proposés pourraient servir de nouvelle plate-forme dans la compréhension des actions retardées résultant de l’activation des récepteurs 7-TMs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les séquences protéiques naturelles sont le résultat net de l’interaction entre les mécanismes de mutation, de sélection naturelle et de dérive stochastique au cours des temps évolutifs. Les modèles probabilistes d’évolution moléculaire qui tiennent compte de ces différents facteurs ont été substantiellement améliorés au cours des dernières années. En particulier, ont été proposés des modèles incorporant explicitement la structure des protéines et les interdépendances entre sites, ainsi que les outils statistiques pour évaluer la performance de ces modèles. Toutefois, en dépit des avancées significatives dans cette direction, seules des représentations très simplifiées de la structure protéique ont été utilisées jusqu’à présent. Dans ce contexte, le sujet général de cette thèse est la modélisation de la structure tridimensionnelle des protéines, en tenant compte des limitations pratiques imposées par l’utilisation de méthodes phylogénétiques très gourmandes en temps de calcul. Dans un premier temps, une méthode statistique générale est présentée, visant à optimiser les paramètres d’un potentiel statistique (qui est une pseudo-énergie mesurant la compatibilité séquence-structure). La forme fonctionnelle du potentiel est par la suite raffinée, en augmentant le niveau de détails dans la description structurale sans alourdir les coûts computationnels. Plusieurs éléments structuraux sont explorés : interactions entre pairs de résidus, accessibilité au solvant, conformation de la chaîne principale et flexibilité. Les potentiels sont ensuite inclus dans un modèle d’évolution et leur performance est évaluée en termes d’ajustement statistique à des données réelles, et contrastée avec des modèles d’évolution standards. Finalement, le nouveau modèle structurellement contraint ainsi obtenu est utilisé pour mieux comprendre les relations entre niveau d’expression des gènes et sélection et conservation de leur séquence protéique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Soit (M,ω) un variété symplectique fermée et connexe.On considère des sous-variétés lagrangiennes α : L → (M,ω). Si α est monotone, c.- à-d. s’il existe η > 0 tel que ημ = ω, Paul Biran et Octav Conea ont défini une version relative de l’homologie quantique. Dans ce contexte ils ont déformé l’opérateur de bord du complexe de Morse ainsi que le produit d’intersection à l’aide de disques pseudo-holomorphes. On note (QH(L), ∗), l’homologie quantique de L munie du produit quantique. Le principal objectif de cette dissertation est de généraliser leur construction à un classe plus large d’espaces. Plus précisément on considère soit des sous-variétés presque monotone, c.-à-d. α est C1-proche d’un plongement lagrangian monotone ; soit les fibres toriques de variétés toriques Fano. Dans ces cas non nécessairement monotones, QH(L) va dépendre de certains choix, mais cela sera irrelevant pour les applications présentées ici. Dans le cas presque monotone, on s’intéresse principalement à des questions de déplaçabilité, d’uniréglage et d’estimation d’énergie de difféomorphismes hamiltoniens. Enfin nous terminons par une application combinant les deux approches, concernant la dynamique d’un hamiltonien déplaçant toutes les fibres toriques non-monotones dans CPn.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les amphibiens urodèles (e.g. les axolotls) possèdent la remarquable capacité de régénérer plusieurs parties de leur corps. Ils peuvent, entre autres, régénérer parfaitement un membre amputé par épimorphose, un processus biphasique comprenant une phase de préparation, spécifique à la régénération, et une phase de redéveloppement, commune à l’épimorphose et au développement embryonnaire. Durant la phase de préparation, les cellules du moignon se dédifférencient en cellules pseudo-embryonnaires, prolifèrent et migrent distalement au plan d’amputation pour former un blastème de régénération. Parmi les vertébrés, la dédifférenciation est unique aux urodèles. Afin de mieux comprendre le contrôle moléculaire de la régénération chez les urodèles, nous avons choisi d’étudier BMP-2, un facteur de croissance, en raison de son implication dans la régénération des phalanges distales chez les mammifères. Le facteur de transcription MSX-1 a également été sélectionné en raison de sa capacité à induire la dédifférenciation cellulaire in vitro et de son interaction potentielle avec la signalisation des BMPs. Les résultats présentés dans cette thèse démontrent que BMP-2 et MSX-1 sont exprimés lors des phases de préparation et de redéveloppement de l’épimorphose, et que leur profil d'expression spatio-temporel est très semblable, ce qui suggère une interaction de leurs signaux. En outre, chez les tétrapodes amniotes, l’expression de Shh est restreinte au mésenchyme postérieur des membres en développement et chevauche l’expression de BMP-2. Toutefois, l’expression de BMP-2 n’est pas restreinte à la région postérieure mais forme un gradient postéro-antérieur. Shh est le principal régulateur de la formation du patron de développement antéro-postérieur du ii membre. Étant donné les domaines d’expression chevauchants de BMP-2 et Shh et la restriction postérieure d’expression de Shh, on croit que Shh régule la formation du patron de développement de postérieur à antérieur par l’activation de l’expression de BMP-2. Fait intéressant, l’axolotl exprime également Shh dans la région postérieure, mais le développement des pattes se fait de la région antérieure à la région postérieure au lieu de postérieur à antérieur comme chez les autres tétrapodes, et ceci durant le développement et la régénération. Nous avons utilisé cette caractéristique de l’axolotl pour démontrer que la signalisation Shh ne structure pas l’autopode via BMP-2. En effet, l’expression de BMP-2 n'est pas régulée par l'inhibition de la signalisation Shh, et son expression est du côté opposé à celle de Shh durant le développement et la régénération des pattes de l’axolotl. Il a été observé durant le développement du membre chez la souris que MSX-1 est régulé par la signalisation Shh. Nos résultats ont démontrés que chez l’axolotl, MSX-1 ne semble pas régulé par l'inhibition de la signalisation Shh au cours de la régénération du membre. De plus, nous avons démontré que contrairement à l’expression de Shh, l’expression de BMP-2 est corrélée avec l’ordre de formation des phalanges, est impliquée dans la condensation cellulaire et dans l'apoptose précédant la chondrogenèse. L’ensemble de ces résultats suggère un rôle de BMP-2 dans l’initiation de l’ossification endochondrale. Enfin, nous avons démontré que la signalisation BMP est indispensable pour l’épimorphose du membre durant la phase de redéveloppement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’application des métaux de transition à la fonctionnalisation directe a ouvert la voie à une nouvelle classe de réactions pour la formation de liens carbone-carbone. De par l'omniprésence des liaisons C–H, l’introduction de nouvelles fonctionnalités chimiques par voie directe et pré-activation minimale s’impose comme une stratégie de synthèse très attrayante. Ainsi, il est envisageable de préparer de manière rapide et efficace des supports complexes menant à des molécules complexes, qui pourraient être utiles dans divers domaines de la chimie. L'objectif principal de la présente thèse vise la fonctionnalisation directe des arènes hétérocycliques et non hétérocycliques et, plus précisément, les techniques d’arylation. Dans un premier temps, nous allons aborder le thème de l’arylation directe tout en mettant l’accent sur les pyridines (Chapitre 1). Ces molécules sont à la base d'une multitude de composés biologiquement actifs et jouent un rôle important dans le domaine des sciences des matériaux, de l’agrochimie et de la synthèse des produits naturels. Dans un deuxième temps, nous discuterons de nos travaux sur l’arylation directe catalysé par un complex de palladium sur des ylures de N-iminopyridinium en soulignant la dérivatisation du sel de pyridinium après une phénylation sp2 (Chapitre 2). L’étude de ce procédé nous a permis de mettre en lumière plusieurs découvertes importantes, que nous expliquerons en détails une à une : l’arylation benzylique directe lorsque des ylures N-iminopyridinium substituées avec un groupement alkyl à la position 2 sont utilisés comme partenaires dans la réaction; les allylations Tsuji-Trost catalysée par un complex de palladium; et l’alkylation directe et sans métal via une catalyse par transfert de phase. Plusieurs défis restent à relever pour le développement de procédés directs utilisant des métaux de transition peu coûteux, d’autant plus que la synthèse par transformation directe des pyridines 2-alcényles, lesquelles sont pertinentes sur le plan pharmacologique, n’a pas encore été rapportée à ce jour. Avec cette problématique en tête, nous avons réussi à mettre au point une alcénylation directe catalysé par un complex de cuivre sur des ylures de N-iminopyridinium. Nous discuterons également d’une nouvelle méthode pour la préparation des iodures de vinyle utilisés dans les couplages. Ces réactions sont non seulement remarquablement chimiosélectives, mais sont aussi applicables à plusieurs substrats (Chapitre 3). En optimisant ce procédé direct, nous avons découvert une façon unique de synthétiser les pyrazolo[1,5-a]pyridines 2-substituées (Chapitre 4). Le mécanisme global met en jeu une séquence tandem de fonctionnalisation-cyclisation directe et un procédé direct en cascade, qui n’avais jamais été rapporté. Cela simplifie ansi la synthèse autrement compliquée de ces substrats en y apportant une solution à un problème de longue date. Dans les deux derniers chapitres, nous examinerons en détail les techniques d’arylation directe qui n'impliquent pas les partenaires de couplage hétérocycliques. Entre autres, au Chapitre 5, nous soulignerons notre découverte d’un umpolung dirigé et catalysé par un complexe de palladium du benzène et de quelques autres dérivés arènes. Il s’agit là du premier cas de fonctionnalisation directe dans laquelle le groupe directeur se trouve sur le partenaire halogène et il s’ajoute à la courte liste d’exemples connus dans la littérature rapportant une arylation directe du benzène. Finalement, au Chapitre 6, nous passerons en revue une nouvelle arylation directe catalysée au fer, qui se veut un procédé peu coûteux, durable et présentant une économie d’atomes. Nous discutons des substrats possibles ainsi des études mécanistiques réalisés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La détermination de la structure tertiaire du ribosome fut une étape importante dans la compréhension du mécanisme de la synthèse des protéines. Par contre, l’élucidation de la structure du ribosome comme tel ne permet pas une compréhension de sa fonction. Pour mieux comprendre la nature des relations entre la structure et la fonction du ribosome, sa structure doit être étudiée de manière systématique. Au cours des dernières années, nous avons entrepris une démarche systématique afin d’identifier et de caractériser de nouveaux motifs structuraux qui existent dans la structure du ribosome et d’autres molécules contenant de l’ARN. L’analyse de plusieurs exemples d’empaquetage de deux hélices d’ARN dans la structure du ribosome nous a permis d’identifier un nouveau motif structural, nommé « G-ribo ». Dans ce motif, l’interaction d’une guanosine dans une hélice avec le ribose d’un nucléotide d’une autre hélice donne naissance à un réseau d’interactions complexes entre les nucléotides voisins. Le motif G-ribo est retrouvé à 8 endroits dans la structure du ribosome. La structure du G-ribo possède certaines particularités qui lui permettent de favoriser la formation d’un certain type de pseudo-nœuds dans le ribosome. L’analyse systématique de la structure du ribosome et de la ARNase P a permis d’identifier un autre motif structural, nommé « DTJ » ou « Double-Twist Joint motif ». Ce motif est formé de trois courtes hélices qui s’empilent l’une sur l’autre. Dans la zone de contact entre chaque paire d’hélices, deux paires de bases consécutives sont surenroulées par rapport à deux paires de bases consécutives retrouvées dans l’ARN de forme A. Un nucléotide d’une paire de bases est toujours connecté directement à un nucléotide de la paire de bases surenroulée, tandis que les nucléotides opposés sont connectés par un ou plusieurs nucléotides non appariés. L’introduction d’un surenroulement entre deux paires de bases consécutives brise l’empilement entre les nucléotides et déstabilise l’hélice d’ARN. Dans le motif DTJ, les nucléotides non appariés qui lient les deux paires de bases surenroulées interagissent avec une des trois hélices qui forment le motif, offrant ainsi une stratégie élégante de stabilisation de l’arrangement. Pour déterminer les contraintes de séquences imposées sur la structure tertiaire d’un motif récurrent dans le ribosome, nous avons développé une nouvelle approche expérimentale. Nous avons introduit des librairies combinatoires de certains nucléotides retrouvés dans des motifs particuliers du ribosome. Suite à l’analyse des séquences alternatives sélectionnées in vivo pour différents représentants d’un motif, nous avons été en mesure d’identifier les contraintes responsables de l’intégrité d’un motif et celles responsables d’interactions avec les éléments qui forment le contexte structural du motif. Les résultats présentés dans cette thèse élargissent considérablement notre compréhension des principes de formation de la structure d’ARN et apportent une nouvelle façon d’identifier et de caractériser de nouveaux motifs structuraux d’ARN.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La maladie d’Alzheimer (MA) est de loin le type de démence le plus répandu chez les personnes âgées. Il est maintenant possible de proposer un certain nombre d’interventions ou de stratégies préventives aux personnes portant un diagnostic de MA ou à risque de développer la maladie. Il est donc important de diagnostiquer cette maladie le plus tôt possible. Les personnes avec un trouble cognitif léger (TCL) représentent une population d’intérêt puisqu’elles sont à haut risque d’évoluer vers une démence et plusieurs d’entres elles seraient ainsi dans une phase prodromale de la MA. Les travaux de cette thèse visent à explorer les activations fonctionnelles associées à la mémoire épisodique et à la mémoire de travail dans le TCL ainsi qu’aux effets de la sévérité de la maladie et des caractéristiques de la tâche sur ces activations. Dans un premier temps, nous exposerons les connaissances relatives au niveau des atteintes cognitives, du patron d’activation fonctionnelle et des plus récents modèles élaborés pour expliquer les changements d’activation dans le vieillissement normal et pathologique (Chapitre 1). Par la suite, les études réalisées dans le cadre de cette thèse seront présentées. Nous avons d’abord étudié la fiabilité du signal d’activation chez les TCL et chez les personnes âgées saines (PA) à l’aide de tâches d’encodage et de récupération de mots (Chapitre 2). Nous avons ensuite comparé le patron d’activation cérébral des PA et des personnes TCL alors qu’elles réalisaient une tâche d’encodage et de récupération de mots. L’effet de la sévérité a été évalué en corrélant les activations des personnes TCL à leurs scores obtenu à une échelle évaluant leur cognition globale (Chapitre 3). L’effet de sévérité a ensuite été étudié de manière plus approfondie chez un plus grand nombre de TCL en utilisant la médiane du groupe à cette même échelle pour déterminer un groupe de TCL plus atteints et un groupe de TCL moins atteints. Ces deux groupes ont ensuite été comparés à un groupe de PA lors d’une tâche d’encodage de paires de mots reliés sémantiquement ou non-reliés (Chapitre 4), une tâche de reconnaissance de paires de mots mesurant principalement la familiarité ou principalement la recollection (Chapitre 5), ainsi que deux tâches impliquant des composantes différentes de la mémoire de travail et des fonctions exécutives, soit la manipulation de l’information et l’attention divisée (Chapitre 6). Les résultats présentés dans cette thèse ont mis en évidence une distinction entre le patron d’activation des TCL et des PA qui semble caractérisée par une interaction entre le niveau de sévérité de la maladie et les processus cognitifs impliqués dans la tâche. L’effet de sévérité a été observé lors de plusieurs tâches impliquant des processus cognitifs différents où les MCI moins atteints ont montré principalement des hyperactivations sous-tendant des mécanismes compensatoires et les MCI plus atteints ont montré principalement des hypoactivations soulignant la dégradation de ces mécanismes. Par ailleurs, les résultats de nos études ont aussi montré que cet effet de sévérité est modulé par le moment d’altération du processus cognitif impliqué dans la tâche: les processus altérés précocément dans le TCL sont caractériséees par des hyperactivations chez les TCL moins atteints tandis que les processus altérés plus tardivement ont plutôt élicité des hyperactivations chez les TCL plus atteints. Les implications de ces résultats, ainsi que les limites des études, sont discutés (Chapitre 7).