887 resultados para panel data with spatial effects
Resumo:
β-Citronellol is an alcoholic monoterpene found in essential oils such Cymbopogon citratus (a plant with antihypertensive properties). β-Citronellol can act against pathogenic microorganisms that affect airways and, in virtue of the popular use of β-citronellol-enriched essential oils in aromatherapy, we assessed its pharmacologic effects on the contractility of rat trachea. Contractions of isolated tracheal rings were recorded isometrically through a force transducer connected to a data-acquisition device. β-Citronellol relaxed sustained contractions induced by acetylcholine or high extracellular potassium, but half-maximal inhibitory concentrations (IC50) for K+-elicited stimuli were smaller than those for cholinergic contractions. It also inhibited contractions induced by electrical field stimulation or sodium orthovanadate with pharmacologic potency equivalent to that seen against acetylcholine-induced contractions. When contractions were evoked by selective recruitment of Ca2+ from the extracellular medium, β-citronellol preferentially inhibited contractions that involved voltage-operated (but not receptor-operated) pathways. β-Citronellol (but not verapamil) inhibited contractions induced by restoration of external Ca2+ levels after depleting internal Ca2+ stores with the concomitant presence of thapsigargin and recurrent challenge with acetylcholine. Treatment of tracheal rings with L-NAME, indomethacin or tetraethylammonium did not change the relaxing effects of β-citronellol. Inhibition of transient receptor potential vanilloid subtype 1 (TRPV1) or transient receptor potential ankyrin 1 (TRPA1) receptors with selective antagonists caused no change in the effects of β-citronellol. In conclusion, β-citronellol exerted inhibitory effects on rat tracheal rings, with predominant effects on contractions that recruit Ca2+ inflow towards the cytosol by voltage-gated pathways, whereas it appears less active against contractions elicited by receptor-operated Ca2+ channels.
Resumo:
This study sought to evaluate the acceptance of "dulce de leche" with coffee and whey. The results were analyzed through response surface, ANOVA, test of averages, histograms, and preference map correlating the global impression data with results of physical, physiochemical and sensory analysis. The response surface methodology, by itself, was not enough to find the best formulation. For ANOVA, test of averages, and preference map it was observed that the consumers' favorite "dulce de leche" were those of formulation 1 (10% whey and 1% coffee) and 2 (30% whey and 1% coffee), followed by formulation 9 (20% whey and 1.25% coffee). The acceptance of samples 1 and 2 was influenced by the higher acceptability in relation to the flavor and for presenting higher pH, L*, and b* values. It was observed that samples 1 and 2 presented higher purchase approval score and higher percentages of responses for the 'ideal' category in terms of sweetness and coffee flavor. It was found that consumers preferred the samples with low concentrations of coffee independent of the concentration of whey thus enabling the use of whey and coffee in the manufacture of dulce de leche, obtaining a new product.
Resumo:
There are more than 7000 languages in the world, and many of these have emerged through linguistic divergence. While questions related to the drivers of linguistic diversity have been studied before, including studies with quantitative methods, there is no consensus as to which factors drive linguistic divergence, and how. In the thesis, I have studied linguistic divergence with a multidisciplinary approach, applying the framework and quantitative methods of evolutionary biology to language data. With quantitative methods, large datasets may be analyzed objectively, while approaches from evolutionary biology make it possible to revisit old questions (related to, for example, the shape of the phylogeny) with new methods, and adopt novel perspectives to pose novel questions. My chief focus was on the effects exerted on the speakers of a language by environmental and cultural factors. My approach was thus an ecological one, in the sense that I was interested in how the local environment affects humans and whether this human-environment connection plays a possible role in the divergence process. I studied this question in relation to the Uralic language family and to the dialects of Finnish, thus covering two different levels of divergence. However, as the Uralic languages have not previously been studied using quantitative phylogenetic methods, nor have population genetic methods been previously applied to any dialect data, I first evaluated the applicability of these biological methods to language data. I found the biological methodology to be applicable to language data, as my results were rather similar to traditional views as to both the shape of the Uralic phylogeny and the division of Finnish dialects. I also found environmental conditions, or changes in them, to be plausible inducers of linguistic divergence: whether in the first steps in the divergence process, i.e. dialect divergence, or on a large scale with the entire language family. My findings concerning Finnish dialects led me to conclude that the functional connection between linguistic divergence and environmental conditions may arise through human cultural adaptation to varying environmental conditions. This is also one possible explanation on the scale of the Uralic language family as a whole. The results of the thesis bring insights on several different issues in both a local and a global context. First, they shed light on the emergence of the Finnish dialects. If the approach used in the thesis is applied to the dialects of other languages, broader generalizations may be drawn as to the inducers of linguistic divergence. This again brings us closer to understanding the global patterns of linguistic diversity. Secondly, the quantitative phylogeny of the Uralic languages, with estimated times of language divergences, yields another hypothesis as to the shape and age of the language family tree. In addition, the Uralic languages can now be added to the growing list of language families studied with quantitative methods. This will allow broader inferences as to global patterns of language evolution, and more language families can be included in constructing the tree of the world’s languages. Studying history through language, however, is only one way to illuminate the human past. Therefore, thirdly, the findings of the thesis, when combined with studies of other language families, and those for example in genetics and archaeology, bring us again closer to an understanding of human history.
Resumo:
Behavioral researchers commonly use single subject designs to evaluate the effects of a given treatment. Several different methods of data analysis are used, each with their own set of methodological strengths and limitations. Visual inspection is commonly used as a method of analyzing data which assesses the variability, level, and trend both within and between conditions (Cooper, Heron, & Heward, 2007). In an attempt to quantify treatment outcomes, researchers developed two methods for analysing data called Percentage of Non-overlapping Data Points (PND) and Percentage of Data Points Exceeding the Median (PEM). The purpose of the present study is to compare and contrast the use of Hierarchical Linear Modelling (HLM), PND and PEM in single subject research. The present study used 39 behaviours, across 17 participants to compare treatment outcomes of a group cognitive behavioural therapy program, using PND, PEM, and HLM on three response classes of Obsessive Compulsive Behaviour in children with Autism Spectrum Disorder. Findings suggest that PEM and HLM complement each other and both add invaluable information to the overall treatment results. Future research should consider using both PEM and HLM when analysing single subject designs, specifically grouped data with variability.
Resumo:
This note investigates the adequacy of the finite-sample approximation provided by the Functional Central Limit Theorem (FCLT) when the errors are allowed to be dependent. We compare the distribution of the scaled partial sums of some data with the distribution of the Wiener process to which it converges. Our setup is purposely very simple in that it considers data generated from an ARMA(1,1) process. Yet, this is sufficient to bring out interesting conclusions about the particular elements which cause the approximations to be inadequate in even quite large sample sizes.
Resumo:
Recent work shows that a low correlation between the instruments and the included variables leads to serious inference problems. We extend the local-to-zero analysis of models with weak instruments to models with estimated instruments and regressors and with higher-order dependence between instruments and disturbances. This makes this framework applicable to linear models with expectation variables that are estimated non-parametrically. Two examples of such models are the risk-return trade-off in finance and the impact of inflation uncertainty on real economic activity. Results show that inference based on Lagrange Multiplier (LM) tests is more robust to weak instruments than Wald-based inference. Using LM confidence intervals leads us to conclude that no statistically significant risk premium is present in returns on the S&P 500 index, excess holding yields between 6-month and 3-month Treasury bills, or in yen-dollar spot returns.
Resumo:
In this paper we propose exact likelihood-based mean-variance efficiency tests of the market portfolio in the context of Capital Asset Pricing Model (CAPM), allowing for a wide class of error distributions which include normality as a special case. These tests are developed in the frame-work of multivariate linear regressions (MLR). It is well known however that despite their simple statistical structure, standard asymptotically justified MLR-based tests are unreliable. In financial econometrics, exact tests have been proposed for a few specific hypotheses [Jobson and Korkie (Journal of Financial Economics, 1982), MacKinlay (Journal of Financial Economics, 1987), Gib-bons, Ross and Shanken (Econometrica, 1989), Zhou (Journal of Finance 1993)], most of which depend on normality. For the gaussian model, our tests correspond to Gibbons, Ross and Shanken’s mean-variance efficiency tests. In non-gaussian contexts, we reconsider mean-variance efficiency tests allowing for multivariate Student-t and gaussian mixture errors. Our framework allows to cast more evidence on whether the normality assumption is too restrictive when testing the CAPM. We also propose exact multivariate diagnostic checks (including tests for multivariate GARCH and mul-tivariate generalization of the well known variance ratio tests) and goodness of fit tests as well as a set estimate for the intervening nuisance parameters. Our results [over five-year subperiods] show the following: (i) multivariate normality is rejected in most subperiods, (ii) residual checks reveal no significant departures from the multivariate i.i.d. assumption, and (iii) mean-variance efficiency tests of the market portfolio is not rejected as frequently once it is allowed for the possibility of non-normal errors.
Resumo:
This paper studies testing for a unit root for large n and T panels in which the cross-sectional units are correlated. To model this cross-sectional correlation, we assume that the data is generated by an unknown number of unobservable common factors. We propose unit root tests in this environment and derive their (Gaussian) asymptotic distribution under the null hypothesis of a unit root and local alternatives. We show that these tests have significant asymptotic power when the model has no incidental trends. However, when there are incidental trends in the model and it is necessary to remove heterogeneous deterministic components, we show that these tests have no power against the same local alternatives. Through Monte Carlo simulations, we provide evidence on the finite sample properties of these new tests.
Resumo:
We study the problem of testing the error distribution in a multivariate linear regression (MLR) model. The tests are functions of appropriately standardized multivariate least squares residuals whose distribution is invariant to the unknown cross-equation error covariance matrix. Empirical multivariate skewness and kurtosis criteria are then compared to simulation-based estimate of their expected value under the hypothesized distribution. Special cases considered include testing multivariate normal, Student t; normal mixtures and stable error models. In the Gaussian case, finite-sample versions of the standard multivariate skewness and kurtosis tests are derived. To do this, we exploit simple, double and multi-stage Monte Carlo test methods. For non-Gaussian distribution families involving nuisance parameters, confidence sets are derived for the the nuisance parameters and the error distribution. The procedures considered are evaluated in a small simulation experi-ment. Finally, the tests are applied to an asset pricing model with observable risk-free rates, using monthly returns on New York Stock Exchange (NYSE) portfolios over five-year subperiods from 1926-1995.
Resumo:
In this paper, we propose exact inference procedures for asset pricing models that can be formulated in the framework of a multivariate linear regression (CAPM), allowing for stable error distributions. The normality assumption on the distribution of stock returns is usually rejected in empirical studies, due to excess kurtosis and asymmetry. To model such data, we propose a comprehensive statistical approach which allows for alternative - possibly asymmetric - heavy tailed distributions without the use of large-sample approximations. The methods suggested are based on Monte Carlo test techniques. Goodness-of-fit tests are formally incorporated to ensure that the error distributions considered are empirically sustainable, from which exact confidence sets for the unknown tail area and asymmetry parameters of the stable error distribution are derived. Tests for the efficiency of the market portfolio (zero intercepts) which explicitly allow for the presence of (unknown) nuisance parameter in the stable error distribution are derived. The methods proposed are applied to monthly returns on 12 portfolios of the New York Stock Exchange over the period 1926-1995 (5 year subperiods). We find that stable possibly skewed distributions provide statistically significant improvement in goodness-of-fit and lead to fewer rejections of the efficiency hypothesis.
Resumo:
Les milieux de travail canadiens présentent des visages diversifiés et en pleine mutation. En raison de facteurs tels que les nouvelles technologies, la mondialisation, l’économie du savoir ou encore l’évolution démographique, la transformation des entreprises canadiennes passe par une main-d’œuvre qualifiée, adaptable et de qualité. Notre recherche s’inscrit dans le cadre des études s’intéressant aux comportements des entreprises en matière d’investissement en capital humain au Canada. Nous avons retenu un cadre théorique qui est constitué principalement de la théorie du capital humain, de celle des ressources internes et de l’approche des coûts et des bénéfices. Pour les fins de notre recherche, nous retenons une approche quantitative longitudinale, en utilisant des données secondaires issues du questionnaire des employeurs de l’Enquête sur le milieu de travail et les employés pour les années 1999 à 2005 inclusivement. La nature longitudinale de l’EMTE permet de corriger pour les biais liés à l’hétérogénéité non observée des firmes et à l’endogénéité possible de la variable de formation. Notre étude se divise globalement en trois articles. Dans les deux premiers cas, les dépenses en formation sont considérées comme une variable explicative de la productivité et du taux de roulement des employés. Dans le troisième cas, les dépenses de formation constituent la variable dépendante à l’étude. Le premier article examine l’effet des investissements en formation sur la productivité des entreprises canadiennes. La littérature scientifique traitant de l’impact de la formation sur la performance des entreprises continue de s’accroître dû aux nouvelles techniques d’estimations, à la disponibilité des données, et à l’intérêt grandissant pour le capital humain. Les résultats partiels des études antérieures montrent la possibilité que les retours des investissements réalisés en formation puissent avoir des effets au-delà de l’année courante. Sur le plan théorique, cette hypothèse a du sens, mais au niveau empirique il semble que les liens formels entre la formation et la productivité des entreprises ne sont pas clairement identifiés. Nos résultats montrent que les investissements en formation réalisés avec trois années de retard engendrent des effets positifs et significatifs sur la productivité à court et à moyen termes. L’interaction entre les différents types d’investissements permet de vérifier l’hypothèse à l’effet que les investissements en capital physique et en capital humain soient complémentaires et se supportent mutuellement. Après avoir procédé à l’estimation de l’effet des dépenses en formation structurée sur la productivité des entreprises, nous nous demandons pour quelles raisons les employeurs demeurent réticents quant aux retours des investissements en formation ? Dans le cadre de cette seconde réflexion, nous nous intéressons à deux dimensions de l’estimation du roulement, à savoir le roulement de nature volontaire et une mesure de l’optimum. Les résultats obtenus quant à l’effet des dépenses en formation structurée par employé sur les taux de roulement volontaire et optimal montrent que la relation est positive dans les deux cas. Cet article vise également à vérifier si différents outils organisationnels associés aux relations industrielles peuvent avoir un effet sur la réduction du taux de roulement volontaire des employés. Nos résultats montrent aussi que la présence syndicale et la perception d’un bon climat de travail traduisent dans un sens, un environnement dans lequel l’employeur et les employés ont des intérêts communs pour la poursuite de mêmes objectifs. Dans le cadre du troisième article, nous examinons certains déterminants des investissements en formation structurée au sein des milieux de travail. Nos résultats montrent qu’une entreprise de grande taille, qui investit davantage en capital physique par employé par rapport à la moyenne, au sein de laquelle un grand pourcentage de travailleurs utilisent un ordinateur, où il y a une proportion élevée de nouvelles embauches et pour laquelle l’employeur introduit un système cohérent de pratiques dépense davantage en formation structurée qu’une entreprise qui ne possède pas ces caractéristiques, toutes choses égales par ailleurs. Ces résultats permettent de discuter également de la complémentarité des facteurs faisant partie d’un cercle vertueux de croissance des entreprises pouvant déterminer les investissements en formation.
Resumo:
La désinfection de l’eau de consommation et des piscines induit la formation de sous-produits (SPD) potentiellement nocifs pour la santé, parmi lesquels les trihalométhanes (THM), les acides haloacétiques (HAA) et les chloramines (CAM). La difficulté d’estimer l’exposition humaine à ces SPD empêche de cerner précisément les risques sanitaires possiblement associés (i.e., cancérigènes, reprotoxiques, irritatifs). Nos travaux s’articulent autour d’une méthodologie consistant à intégrer des données d’occurrence environnementales à des modèles toxicocinétiques à base physiologique (TCBP) pour améliorer les mesures de l’exposition aux SPD. Cette approche multidisciplinaire veut prendre en compte de manière aussi appropriée que possible les deux composantes majeures des variations de cette exposition : les variations spatio-temporelles des niveaux de contamination environnementale et l’impact des différences inter- et intra-individuelles sur les niveaux biologiques. Cette thèse, organisée en deux volets qui explorent chacun successivement des aspects environnemental et biologique de la problématique, vise à contribuer au développement de cette stratégie innovante d’estimation de l’exposition et, plus généralement, à des meilleures pratiques en la matière. Le premier volet de la thèse s’intéresse à l’exposition en milieu domestique (i.e., résultant de l’utilisation de l’eau potable au domicile) et est consacré au cas complexe des THM, les plus abondants et volatils des SPD, absorbables par ingestion mais aussi par inhalation et voie percutanée. Les articles I et II, constitutifs de ce volet, documentent spécifiquement la question des variations inter- et intra- journalières de présence des SPD en réseau et de leurs impacts sur les estimateurs de l’exposition biologique. Ils décrivent l’amplitude et la diversité des variations à court terme des niveaux environnementaux, présentent les difficultés à proposer une façon systématique et « épidémiologiquement » pratique de les modéliser et proposent, de manière originale, une évaluation des mésestimations, somme toute modestes, des mesures biologiques de l’exposition résultant de leurs non-prise en compte. Le deuxième volet de la thèse se penche sur l’exposition aux SPD en piscine, d’un intérêt grandissant au niveau international, et se restreint au cas jugé prioritaire des piscines publiques intérieures. Ce volet envisage, pour quantifier l’exposition dans ce contexte particulier, l’extension de l’approche méthodologique préconisée, élaborée originellement pour application dans un contexte domestique : d’abord, à travers une analyse approfondie des variations des niveaux de contamination (eau, air) des SPD en piscine en vue de les modéliser (article III); puis en examinant, dans le cas particulier du chloroforme, le THM le plus abondant, la possibilité d’utiliser la modélisation TCBP pour simuler des expositions en piscine (article IV). Les résultats mettent notamment en évidence la difficulté d’appréhender précisément la contamination environnementale autrement que par un échantillonnage in situ tandis que la modélisation TCBP apparait, sur le plan toxicologique, comme l’outil le plus pertinent à ce jour, notamment au regard des autres approches existantes, mais qu’il convient d’améliorer pour mieux prédire les niveaux d’exposition biologique. Finalement, ces travaux illustrent la pertinence et la nécessité d’une approche multidisciplinaire et intégratrice et suggère, sur cette base, les pistes à explorer en priorité pour mieux évaluer l’exposition aux SPD et, in fine, cerner véritablement les risques sanitaires qui en résultent.
Resumo:
La maladie de Crohn (MC) pédiatrique a des conséquences majeures sur la qualité de vie des patients atteints (troubles de croissance, absentéisme scolaire, etc). L’étiologie de la MC est inconnue. La théorie de l’hygiène (TH) stipule que les conditions de vie sanitaires des pays industrialisés préviennent l’exposition antigénique et empêchent le développement de la tolérance immunitaire chez les enfants. Ceci mènerait à une réaction excessive du système immunitaire lors d’expositions subséquentes et engendrerait le développement de maladies inflammatoires chroniques telles la MC. Objectif: Analyser l’association entre la fréquence, la temporalité et le type d’infections infantiles (indicateurs d’environnements pourvus d’antigènes) et le risque de MC pédiatrique. Une étude cas-témoin fût réalisée, les cas de MC provenant d’un centre hospitalier tertiaire montréalais. Les témoins, provenant des registres de la Régie d’assurance maladie du Québec (RAMQ), furent appariés aux cas selon leur âge, sexe et lieu de résidence. L’exposition aux infections fût déterminée grâce aux codes de diagnostic ICD-9 inscrits dans la base de données de la RAMQ. Un modèle de régression logistique conditionnelle fût construit afin d’analyser l’association entre infections et MC. Des ratios de cotes (RC) et intervalles de confiance à 95% (IC 95%) furent calculés. Résultats: 409 cas et 1621 témoins furent recrutés. Les résultats de l’analyse suggèrent un effet protecteur des infections infantiles sur le risque de MC (RC: 0,67 [IC: 0,48-0,93], p=0,018), plus particulièrement au cours des 5 premières années de vie (RC: 0.74 [IC: 0,57-0,96], p=0,025). Les infections rénales et urinaires, ainsi que les infections des voies orales et du système nerveux central (virale), semblent particulièrement associées à l’effet protecteur. Les résultats de l’étude appuient la théorie de l’hygiène: l’exposition aux infections infantiles pourrait réduire le risque de MC pédiatrique.
Resumo:
Ma thèse est composée de trois essais sur l'inférence par le bootstrap à la fois dans les modèles de données de panel et les modèles à grands nombres de variables instrumentales #VI# dont un grand nombre peut être faible. La théorie asymptotique n'étant pas toujours une bonne approximation de la distribution d'échantillonnage des estimateurs et statistiques de tests, je considère le bootstrap comme une alternative. Ces essais tentent d'étudier la validité asymptotique des procédures bootstrap existantes et quand invalides, proposent de nouvelles méthodes bootstrap valides. Le premier chapitre #co-écrit avec Sílvia Gonçalves# étudie la validité du bootstrap pour l'inférence dans un modèle de panel de données linéaire, dynamique et stationnaire à effets fixes. Nous considérons trois méthodes bootstrap: le recursive-design bootstrap, le fixed-design bootstrap et le pairs bootstrap. Ces méthodes sont des généralisations naturelles au contexte des panels des méthodes bootstrap considérées par Gonçalves et Kilian #2004# dans les modèles autorégressifs en séries temporelles. Nous montrons que l'estimateur MCO obtenu par le recursive-design bootstrap contient un terme intégré qui imite le biais de l'estimateur original. Ceci est en contraste avec le fixed-design bootstrap et le pairs bootstrap dont les distributions sont incorrectement centrées à zéro. Cependant, le recursive-design bootstrap et le pairs bootstrap sont asymptotiquement valides quand ils sont appliqués à l'estimateur corrigé du biais, contrairement au fixed-design bootstrap. Dans les simulations, le recursive-design bootstrap est la méthode qui produit les meilleurs résultats. Le deuxième chapitre étend les résultats du pairs bootstrap aux modèles de panel non linéaires dynamiques avec des effets fixes. Ces modèles sont souvent estimés par l'estimateur du maximum de vraisemblance #EMV# qui souffre également d'un biais. Récemment, Dhaene et Johmans #2014# ont proposé la méthode d'estimation split-jackknife. Bien que ces estimateurs ont des approximations asymptotiques normales centrées sur le vrai paramètre, de sérieuses distorsions demeurent à échantillons finis. Dhaene et Johmans #2014# ont proposé le pairs bootstrap comme alternative dans ce contexte sans aucune justification théorique. Pour combler cette lacune, je montre que cette méthode est asymptotiquement valide lorsqu'elle est utilisée pour estimer la distribution de l'estimateur split-jackknife bien qu'incapable d'estimer la distribution de l'EMV. Des simulations Monte Carlo montrent que les intervalles de confiance bootstrap basés sur l'estimateur split-jackknife aident grandement à réduire les distorsions liées à l'approximation normale en échantillons finis. En outre, j'applique cette méthode bootstrap à un modèle de participation des femmes au marché du travail pour construire des intervalles de confiance valides. Dans le dernier chapitre #co-écrit avec Wenjie Wang#, nous étudions la validité asymptotique des procédures bootstrap pour les modèles à grands nombres de variables instrumentales #VI# dont un grand nombre peu être faible. Nous montrons analytiquement qu'un bootstrap standard basé sur les résidus et le bootstrap restreint et efficace #RE# de Davidson et MacKinnon #2008, 2010, 2014# ne peuvent pas estimer la distribution limite de l'estimateur du maximum de vraisemblance à information limitée #EMVIL#. La raison principale est qu'ils ne parviennent pas à bien imiter le paramètre qui caractérise l'intensité de l'identification dans l'échantillon. Par conséquent, nous proposons une méthode bootstrap modifiée qui estime de facon convergente cette distribution limite. Nos simulations montrent que la méthode bootstrap modifiée réduit considérablement les distorsions des tests asymptotiques de type Wald #$t$# dans les échantillons finis, en particulier lorsque le degré d'endogénéité est élevé.
Resumo:
Les fluctuations économiques représentent les mouvements de la croissance économique. Celle-ci peut connaître des phases d'accélération (expansion) ou de ralentissement (récession), voire même de dépression si la baisse de production est persistente. Les fluctuations économiques sont liées aux écarts entre croissance effective et croissance potentielle. Elles peuvent s'expliquer par des chocs d'offre et demande, ainsi que par le cycle du crédit. Dans le premier cas, les conditions de la production se trouvent modifiées. C'est le cas lorsque le prix des facteurs de production (salaires, prix des matières premières) ou que des facteurs externes influençant le prix des produits (taux de change) évolue. Ainsi, une hausse du prix des facteurs de production provoque un choc négatif et ralentit la croissance. Ce ralentissement peut être également dû à un choc de demande négatif provoqué par une hausse du prix des produits causée par une appréciation de la devise, engendrant une diminution des exportations. Le deuxième cas concerne les variables financières et les actifs financiers. Ainsi, en période d'expansion, les agents économiques s'endettent et ont des comportements spéculatifs en réaction à des chocs d'offre ou demande anticipés. La valeur des titres et actifs financiers augmente, provoquant une bulle qui finit par éclater et provoquer un effondrement de la valeur des biens. Dès lors, l'activité économique ne peut plus être financée. C'est ce qui génère une récession, parfois profonde, comme lors de la récente crise financière. Cette thèse inclut trois essais sur les fluctuations macroéconomiques et les cycles économiques, plus précisément sur les thèmes décrit ci-dessus. Le premier chapitre s'intéresse aux anticipations sur la politique monétaire et sur la réaction des agents écononomiques face à ces anticipations. Une emphase particulière est mise sur la consommation de biens durables et l'endettement relié à ce type de consommation. Le deuxième chapitre aborde la question de l'influence des variations du taux de change sur la demande de travail dans le secteur manufacturier canadien. Finalement, le troisième chapitre s'intéresse aux retombées économiques, parfois négatives, du marché immobilier sur la consommation des ménages et aux répercussions sur le prix des actifs immobiliers et sur l'endettement des ménages d'anticipations infondées sur la demande dans le marché immobilier. Le premier chapitre, intitulé ``Monetary Policy News Shocks and Durable Consumption'', fournit une étude sur le lien entre les dépenses en biens durables et les chocs monétaires anticipés. Nous proposons et mettons en oeuvre une nouvelle approche pour identifier les chocs anticipés (nouvelles) de politique monétaire, en les identifiant de manière récursive à partir des résidus d’une règle de Taylor estimée à l’aide de données de sondage multi-horizon. Nous utilisons ensuite les chocs anticipés inférer dans un modèle autorégressif vectoriel structurel (ARVS). L’anticipation d’une politique de resserrement monétaire mène à une augmentation de la production, de la consommation de biens non-durables et durables, ainsi qu’à une augmentation du prix réel des biens durables. Bien que les chocs anticipés expliquent une part significative des variations de la production et de la consommation, leur impact est moindre que celui des chocs non-anticipés sur les fluctuations économiques. Finalement, nous menons une analyse théorique avec un modèle d’équilibre général dynamique stochastique (EGDS) avec biens durables et rigidités nominales. Les résultats indiquent que le modèle avec les prix des biens durables rigides peut reproduire la corrélation positive entre les fonctions de réponse de la consommation de biens non-durables et durables à un choc anticipé de politique monétaire trouvées à l’aide du ARVS. Le second chapitre s'intitule ``Exchange Rate Fluctuations and Labour Market Adjustments in Canadian Manufacturing Industries''. Dans ce chapitre, nous évaluons la sensibilité de l'emploi et des heures travaillées dans les industries manufacturières canadiennes aux variations du taux de change. L’analyse est basée sur un modèle dynamique de demande de travail et utilise l’approche en deux étapes pour l'estimation des relations de cointégration en données de panel. Nos données sont prises d’un panel de 20 industries manufacturières, provenant de la base de données KLEMS de Statistique Canada, et couvrent une longue période qui inclut deux cycles complets d’appréciation-dépréciation de la valeur du dollar canadien. Les effets nets de l'appréciation du dollar canadien se sont avérés statistiquement et économiquement significatifs et négatifs pour l'emploi et les heures travaillées, et ses effets sont plus prononcés dans les industries davantage exposées au commerce international. Finalement, le dernier chapitre s'intitule ``Housing Market Dynamics and Macroprudential Policy'', dans lequel nous étudions la relation statistique suggérant un lien collatéral entre le marché immobilier and le reste de l'économique et si ce lien est davantage entraîné par des facteurs de demandes ou d'offres. Nous suivons également la littérature sur les chocs anticipés et examinons un cyle d'expansion-récession peut survenir de façon endogène la suite d'anticipations non-réalisées d'une hausse de la demande de logements. À cette fin, nous construisons un modèle néo-Keynésien au sein duquel le pouvoir d’emprunt du partie des consommateurs est limité par la valeur de leur patrimoine immobilier. Nous estimons le modèle en utilisant une méthode Bayésienne avec des données canadiennes. Nous évaluons la capacité du modèle à capter les caractéristiques principales de la consommation et du prix des maisons. Finalement, nous effectuons une analyse pour déterminer dans quelle mesure l'introduction d'un ratio prêt-à-la-valeur contracyclique peut réduire l'endettement des ménages et les fluctuations du prix des maisons comparativement à une règle de politique monétaire répondant à l'inflation du prix des maisons. Nous trouvons une relation statistique suggérant un important lien collatéral entre le marché immobilier et le reste de l'économie, et ce lien s'explique principalement par des facteurs de demande. Nous constatons également que l'introduction de chocs anticipés peut générer un cycle d'expansion-récession du marché immobilier, la récession faisant suite aux attentes non-réalisées par rapport à la demande de logements. Enfin, notre étude suggère également qu'un ratio contracyclique de prêt-à-la-valeur est une politique utile pour réduire les retombées du marché du logement sur la consommation par l'intermédiaire de la valeur garantie.