971 resultados para ALS data-set


Relevância:

80.00% 80.00%

Publicador:

Resumo:

1-1 is torically, the predominan t method of reconstructing phylogenies has been through the use of morphological characters. There are new techniques now gaining acceptance, including molecular techniques al1d chromosomal information. Altl10ugh the study of behaviour has been used in a comparative framework, these analyses have, historically, been based on intuition. Hennig (1966) devised a neV\' method of reconstructing phylogenies which provided a 110ncircular method for formulating, testing and refining phylogenies. Subsequent s)Tstematists had virtually abandoned ecological and beha\lioural data as primary indicators of phylogenetic relationships (Brooks and McLennan 1991). Therefore, in a modern cladistic framework (sensu Hennig) the analysis of behavioural traits remains underrepresented as a method of reconstructing phylogenies. This thesis will reconstruct the phylogeny for species of black flies (Diptera: Simuliidae), using two steps. The first step is to thoroughl)' understand and explain the cocoon spinning in black fly larvae. There have bee115 previous descriptions of cocoon spinning, but all were incomplete or erroneous. The advances in technology, including video recorders and VCRs, have allowed this behaviour to be analyzed in great detail in 20 different species. A complete description of the cocoon spinning of Simulium \littatum is given. This description will be used as a template for the other species observed. The description and understanding of cococ)n spinning was the first step in undertaking a phylogenetic analysis using this behaviour. The behaviour was then broken down and analyzed, revealing 23 characters, 3 either qualitative and quantitative in nature. These characters were assessed in a cladistic framework (sensu Hennig) and a phylogenetic tree was reconstructed with a e.I of 0.91 and an R.I. of 0.96. This phylogenetic tree closely resembles a previously established pllylogenetic tree produced from morphological and cytological information. The importance of this result is the indication that, contrary to some authors, behavioural characters, if used properly, can add very informative characters to a data set.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The current study examined the association between involvement in bullying and victimization and internalizing difficulties such as self-esteem, social anxiety, depression and body image. Possible gender differences were also examined. The participants, high school students from Southern Ontario (N=533), were drawn from a larger, data set as part ofa study that was completed by the Youth Lifestyle Choices: Community Research Alliance (YLCCURA). The students completed a self-report questionnaire on a number ofmeasures; including, bullying, victimization, self-esteem, social anxiety, depression and body image. The results of this study suggest that those students who self-identified as victims and bully-victims also report higher levels of anxiety and depression than controls and bullies. Severe victims and bullyvictims had a lower body image than severe bullies and controls, whereas severe bullies seem to have a higher body image score than controls. These results are relevant when considering treatments and interventions for students experiencing adjustment difficulties who may also be at risk for bullying victimization. The results also suggest that particular attention needs to be focused on those adolescents who play multi-roles in bullying situations (i.e., bully-victims), since these students may come to the attention ofthe school system for externalizing behaviours, but may also need assistance for internalizing maladjustments.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Changes in the configuration of a tree stern result insignificant differences in its total volume and in the proportion of that volume that is merchantable timber. Tree allometry, as represented by stem-fo~, is the result of the vertical force of gravity and the horizontal force of wind. The effect of wind force is demonstrated in the relationship between stem-form, standclosure and site-conditions. An increase in wind force on the individual tree due to a decrease in stand density should produce a more tapered tree. The density of the stand is determined by the conditions that the trees are growing under. The ability of the tree to respond to increased wind force may also be a function of these conditions . This stem-form/stand-closure/site-conditions relationship was examined using a pre-existing database from westcentral Alberta. This database consisted of environmental, vegetation, soils and timber data covering a wide range of sites. There were 653 sample trees with 82 variables that formed the basis of the analysis. There were eight tree species consisting of Pinus contorta, Picea mariana, Picea engelmannii x glauca, Abies lasiocarpa, Larix laricina, Populus tremuloides, Betula papyrifera and Populus balsamifera plus a comprehensive all-species data set. As the actual conformation of the stern is very individual, stem-fo~was represented by the diameter at breast height to total height r~tio. The four stand-closure variables, crown closure, total basal area, total volume and total number of stems were reduced to total basal area and total number of stems utilizing a bivariate correlation matrix by species. Site-conditions were subdivided into macro, meso and micro variables and reduced in number 3 using cross-tabulations, bivariate correlation and principal components analysis as screening tools. The stem-fo~/stand-closure relationship was examined using bivariate correlation coefficients for stem-fo~ with total number of stems and stem-fo~ with total basal area. The stem-fo~/site-conditions and the stand-closure/site- conditions relationships were examined using multiple correlation coefficients. The stem-form/stand-closure/site-conditions relationship was examined using multiple correlation coefficients in separate analyses for both total number of stems and total basal area. An increase in stand-closure produced a decrease in stem-form for both total number of stems and total basal area for most species. There was a significant relationship between stem-form and site-conditions and between stand-closure and site-conditions for both total number of stems and total basal area for most species. There was a significant relationship between the stemform and site-conditions, including the stand-closure, for most species; total number of stems was involved independently of the site-conditions in the prediction of stem-form and total basal area was not. Larix laricina and Betula papyrifera were the exceptions to the trends observed with most species. The influence of both stand-closure (total number of stems in particular) and site-conditions (elevation in particular) suggest that forest management practices should include these- ecological parameters in determining appropriate restocking levels.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Objective. Despite steady declines in the prevalence of tobacco use among Canadians, young adult tobacco use has remained stubbornly high over the past two decades (CTUMS, 2005a). Currently in Ontario, young adults have the highest proportion of smokers of all age cohorts at 26%. A growing body of evidence shows that smoking restrictions and other tobacco control policies can reduce tobacco use and consumption among adults and deter initiation among youth; whether young adult university students' smoking participation is influenced by community smoking restrictions, campus tobacco control policies or both remains an empirical question. The purpose of this study is to examine the relationship among current smoking status of students on university campuses across Ontario and various tobacco control policies, 3including clean air bylaws of students' home towns, clean air by-laws of the community where the university is situated, and campus policies. Methods. Two data sets were used. The 200512006 Tobacco Use in a Representative Sample of Post-Secondary Students data set provides information about the tobacco use of 10,600 students from 23 universities and colleges across Ontario. Data screening for this study reduced the sample to 5,114 17-to-24 year old undergraduate students from nine universities. The second data set is researcher-generated and includes information about strength and duration of, and students' exposure to home town, local and campus tobacco control policies. Municipal by-laws (of students' home towns and university towns) were categorized as weak, moderate or strong based on criteria set out in the Ontario Municipal By-law Report; campus policies were categorized in a roughly parallel fashion. Durations of municipal and campus policies were calculated; and length of students' exposure to the policies was estimated (all in months). Multinomial logistic regression analyses were used to examine the relationship between students' current smoking status (daily, less-than-daily, never-smokers) and the following policy measures: strength of, duration of, and students' exposure to campus policy; strength of, duration of, and students' exposure to the by-law in the university town; and, strength of, duration of, and students' exposure to the by-law in the home town they grew up in. Sociodemographic variables were controlled for. Results. Among the Ontario university students surveyed, 7.0% currently use tobacco daily and 15.4% use tobacco less-than-daily. The proportions of students experiencing strong tobacco control policies in their home town, the community in which their university is located and at their current university were 33.9%,64.1 %, and 31.3% respectively. However, 13.7% of students attended a university that had a weak campus policy. Multinomial logistic regressions suggested current smoking status was associated with university town by-law strength, home town by-law strength and the strength of the campus tobacco control policy. In the fmal model, after controlling for sociodemographic factors, a strong by-law in the university town and a strong by-law in students' home town were associated with reduced odds of being both a less-than-daily (OR = 0.64, 95%CI: 0.48-0.86; OR = 0.80, 95%CI: 0.66-0.95) and daily smoker (OR = 0.59, 95%CI: 0.39-0.89; OR = 0.76, 95%CI: 0.58-0.99), while a weak campus tobacco control policy was associated with higher odds of being a daily smoker (OR = 2.08, 95%CI: 1.31-3.30) (but unrelated to less-than-daily smoking). Longer exposure to the municipal by-law (OR = 0.93; 95%CI: 0.90-0.96) was also related to smoking status. Conclusions. Students' smoking prevalence was associated with the strength of the restrictions in university, and with campus-specific tobacco control policies. Lessthan- daily smoking was not as strongly associated with policy measures as daily smoking was. University campuses may wish to adopt more progressive campus policies and support clean air restrictions in the broader community. More research is needed to determine the direction of influence between tobacco control policies and students' smoking.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Rough Set Data Analysis (RSDA) is a non-invasive data analysis approach that solely relies on the data to find patterns and decision rules. Despite its noninvasive approach and ability to generate human readable rules, classical RSDA has not been successfully used in commercial data mining and rule generating engines. The reason is its scalability. Classical RSDA slows down a great deal with the larger data sets and takes much longer times to generate the rules. This research is aimed to address the issue of scalability in rough sets by improving the performance of the attribute reduction step of the classical RSDA - which is the root cause of its slow performance. We propose to move the entire attribute reduction process into the database. We defined a new schema to store the initial data set. We then defined SOL queries on this new schema to find the attribute reducts correctly and faster than the traditional RSDA approach. We tested our technique on two typical data sets and compared our results with the traditional RSDA approach for attribute reduction. In the end we also highlighted some of the issues with our proposed approach which could lead to future research.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Emerging markets have received wide attention from investors around the globe because of their return potential and risk diversification. This research examines the selection and timing performance of Canadian mutual funds which invest in fixed-income and equity securities in emerging markets. We use (un)conditional two- and five-factor benchmark models that accommodate the dynamics of returns in emerging markets. We also adopt the cross-sectional bootstrap methodology to distinguish between ‘skill’ and ‘luck’ for individual funds. All the tests are conducted using a comprehensive data set of bond and equity emerging funds over the period of 1989-2011. The risk-adjusted measures of performance are estimated using the least squares method with the Newey-West adjustment for standard errors that are robust to conditional heteroskedasticity and autocorrelation. The performance statistics of the emerging funds before (after) management-related costs are insignificantly positive (significantly negative). They are sensitive to the chosen benchmark model and conditional information improves selection performance. The timing statistics are largely insignificant throughout the sample period and are not sensitive to the benchmark model. Evidence of timing and selecting abilities is obtained in a small number of funds which is not sensitive to the fees structure. We also find evidence that a majority of individual funds provide zero (very few provide positive) abnormal return before fees and a significantly negative return after fees. At the negative end of the tail of performance distribution, our resampling tests fail to reject the role of bad luck in the poor performance of funds and we conclude that most of them are merely ‘unlucky’.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Regulatory light chain (RLC) phosphorylation in fast twitch muscle is catalyzed by skeletal myosin light chain kinase (skMLCK), a reaction known to increase muscle force, work, and power. The purpose of this study was to explore the contribution of RLC phosphorylation on the power of mouse fast muscle during high frequency (100 Hz) concentric contractions. To determine peak power shortening ramps (1.05 to 0.90 Lo) were applied to Wildtype (WT) and skMLCK knockout (skMLCK-/-) EDL muscles at a range of shortening velocities between 0.05-0.65 of maximal shortening velocity (Vmax), before and after a conditioning stimulus (CS). As a result, mean power was increased to 1.28 ± 0.05 and 1.11 ± .05 of pre-CS values, when collapsed for shortening velocity in WT and skMLCK-/-, respectively (n = 10). In addition, fitting each data set to a second order polynomial revealed that WT mice had significantly higher peak power output (27.67 ± 1.12 W/ kg-1) than skMLCK-/- (25.97 ± 1.02 W/ kg-1), (p < .05). No significant differences in optimal velocity for peak power were found between conditions and genotypes (p > .05). Analysis with Urea Glycerol PAGE determined that RLC phosphate content had been elevated in WT muscles from 8 to 63 % while minimal changes were observed in skMLCK-/- muscles: 3 and 8 %, respectively. Therefore, the lack of stimulation induced increase in RLC phosphate content resulted in a ~40 % smaller enhancement of mean power in skMLCK-/-. The increase in power output in WT mice suggests that RLC phosphorylation is a major potentiating component required for achieving peak muscle performance during brief high frequency concentric contractions.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

L’objectif de ce papier est de déterminer les facteurs susceptibles d’expliquer les faillites bancaires au sein de l’Union économique et monétaire ouest-africaine (UEMOA) entre 1980 et 1995. Utilisant le modèle logit conditionnel sur des données en panel, nos résultats montrent que les variables qui affectent positivement la probabilité de faire faillite des banques sont : i) le niveau d’endettement auprès de la banque centrale; ii) un faible niveau de comptes disponibles et à vue; iii) les portefeuilles d’effets commerciaux par rapport au total des crédits; iv) le faible montant des dépôts à terme de plus de 2 ans à 10 ans par rapport aux actifs totaux; et v) le ratio actifs liquides sur actifs totaux. En revanche, les variables qui contribuent positivement sur la vraisemblance de survie des banques sont les suivantes : i) le ratio capital sur actifs totaux; ii) les bénéfices nets par rapport aux actifs totaux; iii) le ratio crédit total sur actifs totaux; iv) les dépôts à terme à 2 ans par rapport aux actifs totaux; et v) le niveau des engagements sous forme de cautions et avals par rapport aux actifs totaux. Les ratios portefeuilles d’effets commerciaux et actifs liquides par rapport aux actifs totaux sont les variables qui expliquent la faillite des banques commerciales, alors que ce sont les dépôts à terme de plus de 2 ans à 10 ans qui sont à l’origine des faillites des banques de développement. Ces faillites ont été considérablement réduites par la création en 1989 de la commission de réglementation bancaire régionale. Dans l’UEMOA, seule la variable affectée au Sénégal semble contribuer positivement sur la probabilité de faire faillite.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This paper documents and discusses a dramatic change in the cyclical behavior of aggregate hours worked by individuals with a college degree (skilled workers) since the mid-1980’s. Using the CPS outgoing rotation data set for the period 1979:1-2003:4, we find that the volatility of aggregate skilled hours relative to the volatility of GDP has nearly tripled since 1984. In contrast, the cyclical properties of unskilled hours have remained essentially unchanged. We evaluate the extent to which a simple supply/demand model for skilled and unskilled labor with capital-skill complementarity in production can help explain this stylized fact. Within this framework, we identify three effects which would lead to an increase in the relative volatility of skilled hours: (i) a reduction in the degree of capital-skill complementarity, (ii) a reduction in the absolute volatility of GDP (and unskilled hours), and (iii) an increase in the level of capital equipment relative to skilled labor. We provide empirical evidence in support of each of these effects. Our conclusion is that these three mechanisms can jointly explain about sixty percent of the observed increase in the relative volatility of skilled labor. The reduction in the degree of capital-skill complementarity contributes the most to this result.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Affiliation: Département de Biochimie, Université de Montréal

Relevância:

80.00% 80.00%

Publicador:

Resumo:

In the presence of moral hazard, received agency theory predicts the Marshallian inefficiency of agricultural tenancy contracts, meaning that inputs per hectare on sharecropped land will differ from that on owned land. in this paper, we test for the presence of Marshallian inefficiency using a unique data set collected in the Tunisian village of El Oulja in 1993.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Notre patrimoine génétique dévoile, de plus en plus, les passerelles démogénétiques d’une susceptibilité plus accrue de certains individus à des maladies infectieuses complexes. En vue d’une caractérisation de la variabilité génétique des populations ouest-africaines, nous avons analysé 659 chromosomes X au locus dys44 qui comprend, 35 SNPs et un microsatellite distribués sur 2853 pb en amont et 5034 pb en aval de l’exon 44 du gène de la dystrophine en Xp21.3. Les génotypes obtenus, par ASO dynamique et électrophorèse sur gel d’acrylamide, ont servi à la détermination des haplotypes. Des paramètres comme la diversité haplotypique (G) et l'indice de fixation (Fst) ont été calculés. Des analyses en composantes principales ainsi que multidimensionnelles ont été réalisées. Sur 68 haplotypes détectés, 26 sont nouveaux, et cette région, avec une diversité haplotypique moyenne (Gmoy) de 0,91 ± 0,03, se révèle beaucoup plus hétérogène que le reste du continent (Gmoy = 0,85 ± 0,04). Toutefois, malgré l’existence de disparités sous régionales dans la distribution des variants du marqueur dys44, l’AMOVA montre d’une manière générale, une faible érosion de l’éloignement génétique entre les populations subsahariennes (Fst = 1,5% ; p<10-5). Certains variants tel que l’haplotype eurasien B006 paraissent indiquer des flux transsahariens de gènes entre les populations nord-africaines et celles subsahariennes, comme l’exemplifie le pool génétique de l’une des populations ubiquitaires de la famille linguistique Nigéro-congolaise : Les Fulani. Nos résultats vont aussi dans le sens d’un héritage phylétique commun entre les Biaka, les Afro-américains et les populations de la sous-famille de langues Volta-Congo.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Ce mémoire est composé de trois articles qui s’unissent sous le thème de la recommandation musicale à grande échelle. Nous présentons d’abord une méthode pour effectuer des recommandations musicales en récoltant des étiquettes (tags) décrivant les items et en utilisant cette aura textuelle pour déterminer leur similarité. En plus d’effectuer des recommandations qui sont transparentes et personnalisables, notre méthode, basée sur le contenu, n’est pas victime des problèmes dont souffrent les systèmes de filtrage collaboratif, comme le problème du démarrage à froid (cold start problem). Nous présentons ensuite un algorithme d’apprentissage automatique qui applique des étiquettes à des chansons à partir d’attributs extraits de leur fichier audio. L’ensemble de données que nous utilisons est construit à partir d’une très grande quantité de données sociales provenant du site Last.fm. Nous présentons finalement un algorithme de génération automatique de liste d’écoute personnalisable qui apprend un espace de similarité musical à partir d’attributs audio extraits de chansons jouées dans des listes d’écoute de stations de radio commerciale. En plus d’utiliser cet espace de similarité, notre système prend aussi en compte un nuage d’étiquettes que l’utilisateur est en mesure de manipuler, ce qui lui permet de décrire de manière abstraite la sorte de musique qu’il désire écouter.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les pays industrialisés comme le Canada doivent faire face au vieillissement de leur population. En particulier, la majorité des personnes âgées, vivant à domicile et souvent seules, font face à des situations à risques telles que des chutes. Dans ce contexte, la vidéosurveillance est une solution innovante qui peut leur permettre de vivre normalement dans un environnement sécurisé. L’idée serait de placer un réseau de caméras dans l’appartement de la personne pour détecter automatiquement une chute. En cas de problème, un message pourrait être envoyé suivant l’urgence aux secours ou à la famille via une connexion internet sécurisée. Pour un système bas coût, nous avons limité le nombre de caméras à une seule par pièce ce qui nous a poussé à explorer les méthodes monoculaires de détection de chutes. Nous avons d’abord exploré le problème d’un point de vue 2D (image) en nous intéressant aux changements importants de la silhouette de la personne lors d’une chute. Les données d’activités normales d’une personne âgée ont été modélisées par un mélange de gaussiennes nous permettant de détecter tout événement anormal. Notre méthode a été validée à l’aide d’une vidéothèque de chutes simulées et d’activités normales réalistes. Cependant, une information 3D telle que la localisation de la personne par rapport à son environnement peut être très intéressante pour un système d’analyse de comportement. Bien qu’il soit préférable d’utiliser un système multi-caméras pour obtenir une information 3D, nous avons prouvé qu’avec une seule caméra calibrée, il était possible de localiser une personne dans son environnement grâce à sa tête. Concrêtement, la tête de la personne, modélisée par une ellipsoide, est suivie dans la séquence d’images à l’aide d’un filtre à particules. La précision de la localisation 3D de la tête a été évaluée avec une bibliothèque de séquence vidéos contenant les vraies localisations 3D obtenues par un système de capture de mouvement (Motion Capture). Un exemple d’application utilisant la trajectoire 3D de la tête est proposée dans le cadre de la détection de chutes. En conclusion, un système de vidéosurveillance pour la détection de chutes avec une seule caméra par pièce est parfaitement envisageable. Pour réduire au maximum les risques de fausses alarmes, une méthode hybride combinant des informations 2D et 3D pourrait être envisagée.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.