932 resultados para ExternaI Time-varying Reference Consumption Level
Resumo:
Taloussuhdanteiden yhteisvaihtelun tutkimus on eräs taloustieteiden vanhimmista tutkimusaloista. Finanssikriisi ja euroalueen kohtaamat talousvaikeudet ovat kuitenkin nostaneet aiheen jälleen hyvin ajankohtaiseksi. Kuluneiden kahdenkymmenen vuoden aikana tutkimusalueesta on muodostunut erittäin laaja lukuisine näkökulmineen ja debatteineen. Tutkielman aiheena on Suomen taloussuhdanteiden kansainvälinen yhteisvaihtelu valittujen vertailumaiden kanssa. Vertailumaat ovat Ruotsi, Norja, Tanska, Saksa, Ranska, Iso-Britannia ja Yhdysvallat. Tutkielmaan valitut taloussuhdannetta kuvaavat muuttujat ovat reaalinen bruttokansantuote, yksityinen kokonaiskulutus ja teollisuustuotantoindeksi. Aineisto on kerätty Lappeenrannan tiedekirjaston Nelli-portaalin OECD iLibrary-tietokannasta ja se kattaa aikajakson 1960 Q1- 2014 Q4. Maakohtainen taloussuhdanne operationalisoidaan laskemalla ensimmäinen logaritminen differenssi, joka edustaa perinteistä reaalisuhdanneteoreettisen koulukunnan näkemystä taloussuhdanteesta. Tutkielman näkökulmaksi valitaan yhden maan näkökulma, joka on hieman harvinaisempi näkökulma verrattuna laajempiin alueellisiin näkökulmiin. Tutkimusmenetelminä käytetään Pearsonin korrelaatiokerrointa, Engle-Granger- sekä Johansenin yhteisintegroituvuustestejä ja VAR-GARCH-BEKK –mallilla laskettua dynaamista korrelaatiota, jotka lasketaan Suomen ja vertailumaiden välille maapareittain. Tuloksia tulkitaan suomalaisen vientiä vertailumaihin suunnittelevan yrityksen näkökulmasta. Tutkielman tulosten perusteella Engle-Grangerin menetelmällä laskettu samanaikainen yhteisintegroituvuus Suomen ja vertailumaiden välillä on epätodennäköistä. Kun yhteisintegroituvuuden annetaan riippua myös viiveistä, saadaan Johansenin menetelmällä yhteisintegroituvuus Suomen ja Yhdysvaltojen välille reaalisessa bruttokansantuotteessa, Suomen ja Saksan, Suomen ja Ranskan sekä Suomen ja Yhdysvaltojen välille yksityisessä kokonaiskulutuksessa sekä Suomen ja Norjan välille teollisuustuotantoindeksissä. Tulosten tulkintaa vaikeuttavat niiden malliriippuvuus ja informaatiokriteerien toisistaan poikkeavat mallisuositukset, joten yhteisintegroituvuus on mahdollinen myös muiden maaparien kohdalla. Dynaamisten korrelaatiokuvaajien perusteella maaparien välisen yhteisvaihtelun voimakkuus muuttuu ajan mukana. Finanssikriisin aikana kokonaistuotannossa on havaittavissa korkeampi korrelaatio, mutta korrelaatio palaa sen jälkeen perustasolleen. Kokonaiskulutuksen korrelaatio on kokonaistuotantoa alhaisempi ja pitemmissä aikajaksoissa vaihtelevaa.
Resumo:
Les questions abordées dans les deux premiers articles de ma thèse cherchent à comprendre les facteurs économiques qui affectent la structure à terme des taux d'intérêt et la prime de risque. Je construis des modèles non linéaires d'équilibre général en y intégrant des obligations de différentes échéances. Spécifiquement, le premier article a pour objectif de comprendre la relation entre les facteurs macroéconomiques et le niveau de prime de risque dans un cadre Néo-keynésien d'équilibre général avec incertitude. L'incertitude dans le modèle provient de trois sources : les chocs de productivité, les chocs monétaires et les chocs de préférences. Le modèle comporte deux types de rigidités réelles à savoir la formation des habitudes dans les préférences et les coûts d'ajustement du stock de capital. Le modèle est résolu par la méthode des perturbations à l'ordre deux et calibré à l'économie américaine. Puisque la prime de risque est par nature une compensation pour le risque, l'approximation d'ordre deux implique que la prime de risque est une combinaison linéaire des volatilités des trois chocs. Les résultats montrent qu'avec les paramètres calibrés, les chocs réels (productivité et préférences) jouent un rôle plus important dans la détermination du niveau de la prime de risque relativement aux chocs monétaires. Je montre que contrairement aux travaux précédents (dans lesquels le capital de production est fixe), l'effet du paramètre de la formation des habitudes sur la prime de risque dépend du degré des coûts d'ajustement du capital. Lorsque les coûts d'ajustement du capital sont élevés au point que le stock de capital est fixe à l'équilibre, une augmentation du paramètre de formation des habitudes entraine une augmentation de la prime de risque. Par contre, lorsque les agents peuvent librement ajuster le stock de capital sans coûts, l'effet du paramètre de la formation des habitudes sur la prime de risque est négligeable. Ce résultat s'explique par le fait que lorsque le stock de capital peut être ajusté sans coûts, cela ouvre un canal additionnel de lissage de consommation pour les agents. Par conséquent, l'effet de la formation des habitudes sur la prime de risque est amoindri. En outre, les résultats montrent que la façon dont la banque centrale conduit sa politique monétaire a un effet sur la prime de risque. Plus la banque centrale est agressive vis-à-vis de l'inflation, plus la prime de risque diminue et vice versa. Cela est due au fait que lorsque la banque centrale combat l'inflation cela entraine une baisse de la variance de l'inflation. Par suite, la prime de risque due au risque d'inflation diminue. Dans le deuxième article, je fais une extension du premier article en utilisant des préférences récursives de type Epstein -- Zin et en permettant aux volatilités conditionnelles des chocs de varier avec le temps. L'emploi de ce cadre est motivé par deux raisons. D'abord des études récentes (Doh, 2010, Rudebusch and Swanson, 2012) ont montré que ces préférences sont appropriées pour l'analyse du prix des actifs dans les modèles d'équilibre général. Ensuite, l'hétéroscedasticité est une caractéristique courante des données économiques et financières. Cela implique que contrairement au premier article, l'incertitude varie dans le temps. Le cadre dans cet article est donc plus général et plus réaliste que celui du premier article. L'objectif principal de cet article est d'examiner l'impact des chocs de volatilités conditionnelles sur le niveau et la dynamique des taux d'intérêt et de la prime de risque. Puisque la prime de risque est constante a l'approximation d'ordre deux, le modèle est résolu par la méthode des perturbations avec une approximation d'ordre trois. Ainsi on obtient une prime de risque qui varie dans le temps. L'avantage d'introduire des chocs de volatilités conditionnelles est que cela induit des variables d'état supplémentaires qui apportent une contribution additionnelle à la dynamique de la prime de risque. Je montre que l'approximation d'ordre trois implique que les primes de risque ont une représentation de type ARCH-M (Autoregressive Conditional Heteroscedasticty in Mean) comme celui introduit par Engle, Lilien et Robins (1987). La différence est que dans ce modèle les paramètres sont structurels et les volatilités sont des volatilités conditionnelles de chocs économiques et non celles des variables elles-mêmes. J'estime les paramètres du modèle par la méthode des moments simulés (SMM) en utilisant des données de l'économie américaine. Les résultats de l'estimation montrent qu'il y a une évidence de volatilité stochastique dans les trois chocs. De plus, la contribution des volatilités conditionnelles des chocs au niveau et à la dynamique de la prime de risque est significative. En particulier, les effets des volatilités conditionnelles des chocs de productivité et de préférences sont significatifs. La volatilité conditionnelle du choc de productivité contribue positivement aux moyennes et aux écart-types des primes de risque. Ces contributions varient avec la maturité des bonds. La volatilité conditionnelle du choc de préférences quant à elle contribue négativement aux moyennes et positivement aux variances des primes de risque. Quant au choc de volatilité de la politique monétaire, son impact sur les primes de risque est négligeable. Le troisième article (coécrit avec Eric Schaling, Alain Kabundi, révisé et resoumis au journal of Economic Modelling) traite de l'hétérogénéité dans la formation des attentes d'inflation de divers groupes économiques et de leur impact sur la politique monétaire en Afrique du sud. La question principale est d'examiner si différents groupes d'agents économiques forment leurs attentes d'inflation de la même façon et s'ils perçoivent de la même façon la politique monétaire de la banque centrale (South African Reserve Bank). Ainsi on spécifie un modèle de prédiction d'inflation qui nous permet de tester l'arrimage des attentes d'inflation à la bande d'inflation cible (3% - 6%) de la banque centrale. Les données utilisées sont des données d'enquête réalisée par la banque centrale auprès de trois groupes d'agents : les analystes financiers, les firmes et les syndicats. On exploite donc la structure de panel des données pour tester l'hétérogénéité dans les attentes d'inflation et déduire leur perception de la politique monétaire. Les résultats montrent qu'il y a évidence d'hétérogénéité dans la manière dont les différents groupes forment leurs attentes. Les attentes des analystes financiers sont arrimées à la bande d'inflation cible alors que celles des firmes et des syndicats ne sont pas arrimées. En effet, les firmes et les syndicats accordent un poids significatif à l'inflation retardée d'une période et leurs prédictions varient avec l'inflation réalisée (retardée). Ce qui dénote un manque de crédibilité parfaite de la banque centrale au vu de ces agents.
Resumo:
The present study described about the interaction of a two level atom and squeezed field with time varying frequency. By applying a sinusoidal variation in the frequency of the field, the randomness in population inversion is reduced and the collapses and periodic revivals are regained. Quantum optics is an emerging field in physics which mainly deals with the interaction of atoms with quantised electromagnetic fields. Jaynes-Cummings Model (JCM) is a key model among them, which describes the interaction between a two level atom and a single mode radiation field. Here the study begins with a brief history of light, atom and their interactions. Also discussed the interaction between atoms and electromagnetic fields. The study suggest a method to manipulate the population inversion due to interaction and control the randomness in it, by applying a time dependence on the frequency of the interacting squeezed field.The change in behaviour of the population inversion due to the presence of a phase factor in the applied frequency variation is explained here.This study also describes the interaction between two level atom and electromagnetic field in nonlinear Kerr medium. It deals with atomic and field state evolution in a coupled cavity system. Our results suggest a new method to control and manipulate the population of states in two level atom radiation interaction,which is very essential for quantum information processing.We have also studied the variation of atomic population inversion with time, when a two level atom interacts with light field, where the light field has a sinusoidal frequency variation with a constant phase. In both coherent field and squeezed field cases, the population inversion variation is completely different from the phase zero frequency modulation case. It is observed that in the presence of a non zero phase φ, the population inversion oscillates sinusoidally.Also the collapses and revivals gradually disappears when φ increases from 0 to π/2. When φ = π/2 the evolution of population inversion is identical to the case when a two level atom interacts with a Fock state. Thus, by applying a phase shifted frequency modulation one can induce sinusoidal oscillations of atomic inversion in linear medium, those normally observed in Kerr medium. We noticed that the entanglement between the atom and field can be controlled by varying the period of the field frequency fluctuations. The system has been solved numerically and the behaviour of it for different initial conditions and different susceptibility values are analysed. It is observed that, for weak cavity coupling the effect of susceptibility is minimal. In cases of strong cavity coupling, susceptibility factor modifies the nature in which the probability oscillates with time. Effect of susceptibility on probability of states is closely related to the initial state of the system.
Resumo:
Capturing the pattern of structural change is a relevant task in applied demand analysis, as consumer preferences may vary significantly over time. Filtering and smoothing techniques have recently played an increasingly relevant role. A dynamic Almost Ideal Demand System with random walk parameters is estimated in order to detect modifications in consumer habits and preferences, as well as changes in the behavioural response to prices and income. Systemwise estimation, consistent with the underlying constraints from economic theory, is achieved through the EM algorithm. The proposed model is applied to UK aggregate consumption of alcohol and tobacco, using quarterly data from 1963 to 2003. Increased alcohol consumption is explained by a preference shift, addictive behaviour and a lower price elasticity. The dynamic and time-varying specification is consistent with the theoretical requirements imposed at each sample point. (c) 2005 Elsevier B.V. All rights reserved.
Resumo:
Pregnant rats were given control (46 mg iron/kg, 61 mg zinc/kg), low-Zn (6.9 mg Zn/kg) or low-Zn plus Fe (168 mg Fe/kg) diets from day 1 of pregnancy. The animals were allowed to give birth and parturition times recorded. Exactly 24 h after the end of parturition the pups were killed and analysed for water, fat, protein, Fe and Zn contents and the mothers' haemoglobin (Hb) and packed cell volume (PCV) were measured. There were no differences in weight gain or food intakes throughout pregnancy. Parturition times were similar (mean time 123 (SE 15) min) and there were no differences in the number of pups born. Protein, water and fat contents of the pups were similar but the low-Zn Fe-supplemented group had higher pup Fe than the low-Zn unsupplemented group, and the control group had higher pup Zn than both the low-Zn groups. The low-Zn groups had a greater incidence of haemorrhaged or deformed pups, or both, than the controls. Pregnant rats were given diets of adequate Zn level (40 mg/kg) but with varying Fe:Zn (0.8, 1.7, 2.9, 3.7). Zn retention from the diet was measured using 65Zn as an extrinsic label on days 3, 10 and 17 of pregnancy with a whole-body gamma-counter. A group of non-pregnant rats was also included as controls. The 65Zn content of mothers and pups was measured 24-48 h after birth and at 14, 21 and 24 d of age. In all groups Zn retention was highest from the first meal, fell in the second meal and then rose in the third meal of the pregnant but not the non-pregnant rats. There were no differences between the groups given diets of varying Fe:Zn level. Approximately 25% of the 65Zn was transferred from the mothers to the pups by the time they were 48 h old, and a further 17% during the first 14 d of lactation. The pup 65Zn content did not significantly increase after the first 20 d of lactation but the maternal 65Zn level continued to fall gradually.
Resumo:
In the first essay, "Determinants of Credit Expansion in Brazil", analyzes the determinants of credit using an extensive bank level panel dataset. Brazilian economy has experienced a major boost in leverage in the first decade of 2000 as a result of a set factors ranging from macroeconomic stability to the abundant liquidity in international financial markets before 2008 and a set of deliberate decisions taken by President Lula's to expand credit, boost consumption and gain political support from the lower social strata. As relevant conclusions to our investigation we verify that: credit expansion relied on the reduction of the monetary policy rate, international financial markets are an important source of funds, payroll-guaranteed credit and investment grade status affected positively credit supply. We were not able to confirm the importance of financial inclusion efforts. The importance of financial sector sanity indicators of credit conditions cannot be underestimated. These results raise questions over the sustainability of this expansion process and financial stability in the future. The second essay, “Public Credit, Monetary Policy and Financial Stability”, discusses the role of public credit. The supply of public credit in Brazil has successfully served to relaunch the economy after the Lehman-Brothers demise. It was later transformed into a driver for economic growth as well as a regulation device to force private banks to reduce interest rates. We argue that the use of public funds to finance economic growth has three important drawbacks: it generates inflation, induces higher loan rates and may induce financial instability. An additional effect is the prevention of market credit solutions. This study contributes to the understanding of the costs and benefits of credit as a fiscal policy tool. The third essay, “Bayesian Forecasting of Interest Rates: Do Priors Matter?”, discusses the choice of priors when forecasting short-term interest rates. Central Banks that commit to an Inflation Target monetary regime are bound to respond to inflation expectation spikes and product hiatus widening in a clear and transparent way by abiding to a Taylor rule. There are various reports of central banks being more responsive to inflationary than to deflationary shocks rendering the monetary policy response to be indeed non-linear. Besides that there is no guarantee that coefficients remain stable during time. Central Banks may switch to a dual target regime to consider deviations from inflation and the output gap. The estimation of a Taylor rule may therefore have to consider a non-linear model with time varying parameters. This paper uses Bayesian forecasting methods to predict short-term interest rates. We take two different approaches: from a theoretic perspective we focus on an augmented version of the Taylor rule and include the Real Exchange Rate, the Credit-to-GDP and the Net Public Debt-to-GDP ratios. We also take an ”atheoretic” approach based on the Expectations Theory of the Term Structure to model short-term interest. The selection of priors is particularly relevant for predictive accuracy yet, ideally, forecasting models should require as little a priori expert insight as possible. We present recent developments in prior selection, in particular we propose the use of hierarchical hyper-g priors for better forecasting in a framework that can be easily extended to other key macroeconomic indicators.
Resumo:
An adaptive scheme is shown by the authors of the above paper (ibid. vol. 71, no. 2, pp. 275-276, Feb. 1983) for continuous time model reference adaptive systems (MRAS), where relays replace the usual multipliers in the existing MRAS. The commenter shows an error in the analysis of the hyperstability of the scheme, such that the validity of this configuration becomes an open question.
Resumo:
Background. The high prevalence of obesity among children has spurred creation of a list of possible causative factors, including the advertising of foods of minimal nutritional value, a decrease in physical activity, and increased media use. Few studies show prevalence rates of these factors among large cohorts of children. ^ Methods. Using data from the 2004-2005 School Physical Activity and Nutrition project (SPAN), a secondary analysis of 7907 4th-grade children (mean age 9.74 years) was conducted. In addition, a comic-book–based intervention that addressed advertised food consumption, physical activity, and media use was developed and evaluated using a pre-post test design among 4th-grade children in an urban school district. ^ Results. Among a cohort of 4th-grade children across the state of Texas, children who had more than 2 hours of video game or computer time the previous day were more than twice as likely to drink soda and eat candy or pastries. In addition, children who watched more than 2 hours of TV the previous day were more than three times as likely to consume chips, punch, soda, candy, frozen desserts, or pastries (AOR 3.41, 95% CI: 1.58, 7.37). A comic-book based intervention held great promise and acceptance among 4th-grade children. Outcome evaluation showed that while results moved in a positive direction, they were not statistically significant. ^ Conclusion. Statistically significant associations were found between screen time and eating various types of advertised food. The comic book intervention was widely accepted by the children exposed to it, and pre-post surveys indicated they moved constructs in a positive direction. Further research is needed to look at more specific ways in which children are exposed to TV, and the relationship of the TV viewing time with their consumption of advertised foods. In addition, researchers should look at comic book interventions more closely and attempt to utilize them in more in studies with a longer follow-up time. ^
Resumo:
There exist different ways for defining a welfare function. Traditionally, welfare economic theory foundation is based on the Net Present Value (NPV) calculation where the time dependent preferences of considered agents are taken into account. However, the time preferences, remains a controversial subject. Currently, the traditional approach employs a unique discount rate for various agents. Nevertheless, this way of discounting appears inconsistent with sustainable development. New research work suggests that the discount rate may not be a homogeneous value. The discount rates may change following the individual’s preferences. A significant body of evidence suggests that people do not behave following a constant discount rate. In fact, UK Government has quickly recognized the power of the arguments for time-varying rates, as it has done in its official guidance to Ministries on the appraisal of investments and policies. Other authors deal with not just time preference but with uncertainty about future income (precautionary saving). In a situation in which economic growth rates are similar across time periods, the rationale for declining social optimal discount rates is driven by the preferences of the individuals in the economy, rather than expectations of growth. However, these approaches have been mainly focused on long-term policies where intergenerational risks may appear. The traditional cost-benefit analysis (CBA) uses a unique discount rate derived from market interest rates or investment rates of return for discounting the costs and benefits of all social agents included in the CBA. However, recent literature showed that a more adequate measure of social benefit is possible by using different discount rates including inter-temporal preferences rate of users, private investment discount rate and intertemporal preferences rate of government. Actually, the costs of opportunity may differ amongst individuals, firms, governments, or society in general, as do the returns on savings. In general, the firms or operators require an investment rate linked to the current return on savings, while the discount rate of consumers-users depends on their time preferences with respect of the current and the future consumption, as well as society can take into account the intergenerational well-being, adopting a lower discount rate for today’s generation. Time discount rate of social actors (users, operators, government and society) places a lower value in a future gain, but the uncertainty about future income strongly determines the individual preferences. These time and uncertainty depends on preferences and should be integrated into a transport policy formulation that may have significant social impacts. The discount rate of a user cannot be the same than the operator’s discount rate. The preferences of both are different. In addition, another school of thought suggests that people, such as a social group, may have different attitudes towards future costs and benefits. Particularly, the users have different discount rates related to their income. Some research work tried to modify user discount rates using a compensating weight which represents the inverse of household income level. The inter-temporal preferences are a proxy of the willingness to pay during the time. Its consideration is important in order to make acceptable or not a policy or investment
Resumo:
Today, quantitative real-time PCR is the method of choice for rapid and reliable quantification of mRNA transcription. However, for an exact comparison of mRNA transcription in different samples or tissues it is crucial to choose the appropriate reference gene. Recently glyceraldehyde 3-phosphate dehydrogenase and P-actin have been used for that purpose. However, it has been reported that these genes as well as alternatives, like rRNA genes, are unsuitable references, because their transcription is significantly regulated in various experimental settings and variable in different tissues. Therefore, quantitative real-time PCR was used to determine the mRNA transcription profiles of 13 putative reference genes, comparing their transcription in 16 different tissues and in CCRF-HSB-2 cells stimulated with 12-O-tetradecanoylphorbol-13-acetate and ionomycin. Our results show that Classical reference genes are indeed unsuitable, whereas the RNA polymerase II gene was the gene with the most constant expression in different tissues and following stimulation in CCRF-HSB-2 cells. (C) 2003 Elsevier Inc. All rights reserved.
Resumo:
We use the consumption-based asset pricing model with habit formation to study the predictability and cross-section of returns from the international equity markets. We find that the predictability of returns from many developed countries' equity markets is explained in part by changing prices of risks associated with consumption relative to habit at the world as well as local levels. We also provide an exploratory investigation of the cross-sectional implications of the model under the complete world market integration hypothesis and find that the model performs mildly better than the traditional consumption-based model. the unconditional and conditional world CAPMs and a three-factor international asset pricing model. (C) 2004 Elsevier B.V. All rights reserved.
Resumo:
Cette thèse se compose de trois articles sur les politiques budgétaires et monétaires optimales. Dans le premier article, J'étudie la détermination conjointe de la politique budgétaire et monétaire optimale dans un cadre néo-keynésien avec les marchés du travail frictionnels, de la monnaie et avec distortion des taux d'imposition du revenu du travail. Dans le premier article, je trouve que lorsque le pouvoir de négociation des travailleurs est faible, la politique Ramsey-optimale appelle à un taux optimal d'inflation annuel significativement plus élevé, au-delà de 9.5%, qui est aussi très volatile, au-delà de 7.4%. Le gouvernement Ramsey utilise l'inflation pour induire des fluctuations efficaces dans les marchés du travail, malgré le fait que l'évolution des prix est coûteuse et malgré la présence de la fiscalité du travail variant dans le temps. Les résultats quantitatifs montrent clairement que le planificateur s'appuie plus fortement sur l'inflation, pas sur l'impôts, pour lisser les distorsions dans l'économie au cours du cycle économique. En effet, il ya un compromis tout à fait clair entre le taux optimal de l'inflation et sa volatilité et le taux d'impôt sur le revenu optimal et sa variabilité. Le plus faible est le degré de rigidité des prix, le plus élevé sont le taux d'inflation optimal et la volatilité de l'inflation et le plus faible sont le taux d'impôt optimal sur le revenu et la volatilité de l'impôt sur le revenu. Pour dix fois plus petit degré de rigidité des prix, le taux d'inflation optimal et sa volatilité augmentent remarquablement, plus de 58% et 10%, respectivement, et le taux d'impôt optimal sur le revenu et sa volatilité déclinent de façon spectaculaire. Ces résultats sont d'une grande importance étant donné que dans les modèles frictionnels du marché du travail sans politique budgétaire et monnaie, ou dans les Nouveaux cadres keynésien même avec un riche éventail de rigidités réelles et nominales et un minuscule degré de rigidité des prix, la stabilité des prix semble être l'objectif central de la politique monétaire optimale. En l'absence de politique budgétaire et la demande de monnaie, le taux d'inflation optimal tombe très proche de zéro, avec une volatilité environ 97 pour cent moins, compatible avec la littérature. Dans le deuxième article, je montre comment les résultats quantitatifs impliquent que le pouvoir de négociation des travailleurs et les coûts de l'aide sociale de règles monétaires sont liées négativement. Autrement dit, le plus faible est le pouvoir de négociation des travailleurs, le plus grand sont les coûts sociaux des règles de politique monétaire. Toutefois, dans un contraste saisissant par rapport à la littérature, les règles qui régissent à la production et à l'étroitesse du marché du travail entraînent des coûts de bien-être considérablement plus faible que la règle de ciblage de l'inflation. C'est en particulier le cas pour la règle qui répond à l'étroitesse du marché du travail. Les coûts de l'aide sociale aussi baisse remarquablement en augmentant la taille du coefficient de production dans les règles monétaires. Mes résultats indiquent qu'en augmentant le pouvoir de négociation du travailleur au niveau Hosios ou plus, les coûts de l'aide sociale des trois règles monétaires diminuent significativement et la réponse à la production ou à la étroitesse du marché du travail n'entraîne plus une baisse des coûts de bien-être moindre que la règle de ciblage de l'inflation, qui est en ligne avec la littérature existante. Dans le troisième article, je montre d'abord que la règle Friedman dans un modèle monétaire avec une contrainte de type cash-in-advance pour les entreprises n’est pas optimale lorsque le gouvernement pour financer ses dépenses a accès à des taxes à distorsion sur la consommation. Je soutiens donc que, la règle Friedman en présence de ces taxes à distorsion est optimale si nous supposons un modèle avec travaie raw-efficace où seule le travaie raw est soumis à la contrainte de type cash-in-advance et la fonction d'utilité est homothétique dans deux types de main-d'oeuvre et séparable dans la consommation. Lorsque la fonction de production présente des rendements constants à l'échelle, contrairement au modèle des produits de trésorerie de crédit que les prix de ces deux produits sont les mêmes, la règle Friedman est optimal même lorsque les taux de salaire sont différents. Si la fonction de production des rendements d'échelle croissant ou decroissant, pour avoir l'optimalité de la règle Friedman, les taux de salaire doivent être égales.
Resumo:
This thesis studies the field of asset price bubbles. It is comprised of three independent chapters. Each of these chapters either directly or indirectly analyse the existence or implications of asset price bubbles. The type of bubbles assumed in each of these chapters is consistent with rational expectations. Thus, the kind of price bubbles investigated here are known as rational bubbles in the literature. The following describes the three chapters. Chapter 1: This chapter attempts to explain the recent US housing price bubble by developing a heterogeneous agent endowment economy asset pricing model with risky housing, endogenous collateral and defaults. Investment in housing is subject to an idiosyncratic risk and some mortgages are defaulted in equilibrium. We analytically derive the leverage or the endogenous loan to value ratio. This variable comes from a limited participation constraint in a one period mortgage contract with monitoring costs. Our results show that low values of housing investment risk produces a credit easing effect encouraging excess leverage and generates credit driven rational price bubbles in the housing good. Conversely, high values of housing investment risk produces a credit crunch characterized by tight borrowing constraints, low leverage and low house prices. Furthermore, the leverage ratio was found to be procyclical and the rate of defaults countercyclical consistent with empirical evidence. Chapter 2: It is widely believed that financial assets have considerable persistence and are susceptible to bubbles. However, identification of this persistence and potential bubbles is not straightforward. This chapter tests for price bubbles in the United States housing market accounting for long memory and structural breaks. The intuition is that the presence of long memory negates price bubbles while the presence of breaks could artificially induce bubble behaviour. Hence, we use procedures namely semi-parametric Whittle and parametric ARFIMA procedures that are consistent for a variety of residual biases to estimate the value of the long memory parameter, d, of the log rent-price ratio. We find that the semi-parametric estimation procedures robust to non-normality and heteroskedasticity errors found far more bubble regions than parametric ones. A structural break was identified in the mean and trend of all the series which when accounted for removed bubble behaviour in a number of regions. Importantly, the United States housing market showed evidence for rational bubbles at both the aggregate and regional levels. In the third and final chapter, we attempt to answer the following question: To what extend should individuals participate in the stock market and hold risky assets over their lifecycle? We answer this question by employing a lifecycle consumption-portfolio choice model with housing, labour income and time varying predictable returns where the agents are constrained in the level of their borrowing. We first analytically characterize and then numerically solve for the optimal asset allocation on the risky asset comparing the return predictability case with that of IID returns. We successfully resolve the puzzles and find equity holding and participation rates close to the data. We also find that return predictability substantially alter both the level of risky portfolio allocation and the rate of stock market participation. High factor (dividend-price ratio) realization and high persistence of factor process indicative of stock market bubbles raise the amount of wealth invested in risky assets and the level of stock market participation, respectively. Conversely, rare disasters were found to bring down these rates, the change being severe for investors in the later years of the life-cycle. Furthermore, investors following time varying returns (return predictability) hedged background risks significantly better than the IID ones.
Resumo:
Cette thèse se compose de trois articles sur les politiques budgétaires et monétaires optimales. Dans le premier article, J'étudie la détermination conjointe de la politique budgétaire et monétaire optimale dans un cadre néo-keynésien avec les marchés du travail frictionnels, de la monnaie et avec distortion des taux d'imposition du revenu du travail. Dans le premier article, je trouve que lorsque le pouvoir de négociation des travailleurs est faible, la politique Ramsey-optimale appelle à un taux optimal d'inflation annuel significativement plus élevé, au-delà de 9.5%, qui est aussi très volatile, au-delà de 7.4%. Le gouvernement Ramsey utilise l'inflation pour induire des fluctuations efficaces dans les marchés du travail, malgré le fait que l'évolution des prix est coûteuse et malgré la présence de la fiscalité du travail variant dans le temps. Les résultats quantitatifs montrent clairement que le planificateur s'appuie plus fortement sur l'inflation, pas sur l'impôts, pour lisser les distorsions dans l'économie au cours du cycle économique. En effet, il ya un compromis tout à fait clair entre le taux optimal de l'inflation et sa volatilité et le taux d'impôt sur le revenu optimal et sa variabilité. Le plus faible est le degré de rigidité des prix, le plus élevé sont le taux d'inflation optimal et la volatilité de l'inflation et le plus faible sont le taux d'impôt optimal sur le revenu et la volatilité de l'impôt sur le revenu. Pour dix fois plus petit degré de rigidité des prix, le taux d'inflation optimal et sa volatilité augmentent remarquablement, plus de 58% et 10%, respectivement, et le taux d'impôt optimal sur le revenu et sa volatilité déclinent de façon spectaculaire. Ces résultats sont d'une grande importance étant donné que dans les modèles frictionnels du marché du travail sans politique budgétaire et monnaie, ou dans les Nouveaux cadres keynésien même avec un riche éventail de rigidités réelles et nominales et un minuscule degré de rigidité des prix, la stabilité des prix semble être l'objectif central de la politique monétaire optimale. En l'absence de politique budgétaire et la demande de monnaie, le taux d'inflation optimal tombe très proche de zéro, avec une volatilité environ 97 pour cent moins, compatible avec la littérature. Dans le deuxième article, je montre comment les résultats quantitatifs impliquent que le pouvoir de négociation des travailleurs et les coûts de l'aide sociale de règles monétaires sont liées négativement. Autrement dit, le plus faible est le pouvoir de négociation des travailleurs, le plus grand sont les coûts sociaux des règles de politique monétaire. Toutefois, dans un contraste saisissant par rapport à la littérature, les règles qui régissent à la production et à l'étroitesse du marché du travail entraînent des coûts de bien-être considérablement plus faible que la règle de ciblage de l'inflation. C'est en particulier le cas pour la règle qui répond à l'étroitesse du marché du travail. Les coûts de l'aide sociale aussi baisse remarquablement en augmentant la taille du coefficient de production dans les règles monétaires. Mes résultats indiquent qu'en augmentant le pouvoir de négociation du travailleur au niveau Hosios ou plus, les coûts de l'aide sociale des trois règles monétaires diminuent significativement et la réponse à la production ou à la étroitesse du marché du travail n'entraîne plus une baisse des coûts de bien-être moindre que la règle de ciblage de l'inflation, qui est en ligne avec la littérature existante. Dans le troisième article, je montre d'abord que la règle Friedman dans un modèle monétaire avec une contrainte de type cash-in-advance pour les entreprises n’est pas optimale lorsque le gouvernement pour financer ses dépenses a accès à des taxes à distorsion sur la consommation. Je soutiens donc que, la règle Friedman en présence de ces taxes à distorsion est optimale si nous supposons un modèle avec travaie raw-efficace où seule le travaie raw est soumis à la contrainte de type cash-in-advance et la fonction d'utilité est homothétique dans deux types de main-d'oeuvre et séparable dans la consommation. Lorsque la fonction de production présente des rendements constants à l'échelle, contrairement au modèle des produits de trésorerie de crédit que les prix de ces deux produits sont les mêmes, la règle Friedman est optimal même lorsque les taux de salaire sont différents. Si la fonction de production des rendements d'échelle croissant ou decroissant, pour avoir l'optimalité de la règle Friedman, les taux de salaire doivent être égales.