829 resultados para Explicit Difference Approximation
Resumo:
Les questions abordées dans les deux premiers articles de ma thèse cherchent à comprendre les facteurs économiques qui affectent la structure à terme des taux d'intérêt et la prime de risque. Je construis des modèles non linéaires d'équilibre général en y intégrant des obligations de différentes échéances. Spécifiquement, le premier article a pour objectif de comprendre la relation entre les facteurs macroéconomiques et le niveau de prime de risque dans un cadre Néo-keynésien d'équilibre général avec incertitude. L'incertitude dans le modèle provient de trois sources : les chocs de productivité, les chocs monétaires et les chocs de préférences. Le modèle comporte deux types de rigidités réelles à savoir la formation des habitudes dans les préférences et les coûts d'ajustement du stock de capital. Le modèle est résolu par la méthode des perturbations à l'ordre deux et calibré à l'économie américaine. Puisque la prime de risque est par nature une compensation pour le risque, l'approximation d'ordre deux implique que la prime de risque est une combinaison linéaire des volatilités des trois chocs. Les résultats montrent qu'avec les paramètres calibrés, les chocs réels (productivité et préférences) jouent un rôle plus important dans la détermination du niveau de la prime de risque relativement aux chocs monétaires. Je montre que contrairement aux travaux précédents (dans lesquels le capital de production est fixe), l'effet du paramètre de la formation des habitudes sur la prime de risque dépend du degré des coûts d'ajustement du capital. Lorsque les coûts d'ajustement du capital sont élevés au point que le stock de capital est fixe à l'équilibre, une augmentation du paramètre de formation des habitudes entraine une augmentation de la prime de risque. Par contre, lorsque les agents peuvent librement ajuster le stock de capital sans coûts, l'effet du paramètre de la formation des habitudes sur la prime de risque est négligeable. Ce résultat s'explique par le fait que lorsque le stock de capital peut être ajusté sans coûts, cela ouvre un canal additionnel de lissage de consommation pour les agents. Par conséquent, l'effet de la formation des habitudes sur la prime de risque est amoindri. En outre, les résultats montrent que la façon dont la banque centrale conduit sa politique monétaire a un effet sur la prime de risque. Plus la banque centrale est agressive vis-à-vis de l'inflation, plus la prime de risque diminue et vice versa. Cela est due au fait que lorsque la banque centrale combat l'inflation cela entraine une baisse de la variance de l'inflation. Par suite, la prime de risque due au risque d'inflation diminue. Dans le deuxième article, je fais une extension du premier article en utilisant des préférences récursives de type Epstein -- Zin et en permettant aux volatilités conditionnelles des chocs de varier avec le temps. L'emploi de ce cadre est motivé par deux raisons. D'abord des études récentes (Doh, 2010, Rudebusch and Swanson, 2012) ont montré que ces préférences sont appropriées pour l'analyse du prix des actifs dans les modèles d'équilibre général. Ensuite, l'hétéroscedasticité est une caractéristique courante des données économiques et financières. Cela implique que contrairement au premier article, l'incertitude varie dans le temps. Le cadre dans cet article est donc plus général et plus réaliste que celui du premier article. L'objectif principal de cet article est d'examiner l'impact des chocs de volatilités conditionnelles sur le niveau et la dynamique des taux d'intérêt et de la prime de risque. Puisque la prime de risque est constante a l'approximation d'ordre deux, le modèle est résolu par la méthode des perturbations avec une approximation d'ordre trois. Ainsi on obtient une prime de risque qui varie dans le temps. L'avantage d'introduire des chocs de volatilités conditionnelles est que cela induit des variables d'état supplémentaires qui apportent une contribution additionnelle à la dynamique de la prime de risque. Je montre que l'approximation d'ordre trois implique que les primes de risque ont une représentation de type ARCH-M (Autoregressive Conditional Heteroscedasticty in Mean) comme celui introduit par Engle, Lilien et Robins (1987). La différence est que dans ce modèle les paramètres sont structurels et les volatilités sont des volatilités conditionnelles de chocs économiques et non celles des variables elles-mêmes. J'estime les paramètres du modèle par la méthode des moments simulés (SMM) en utilisant des données de l'économie américaine. Les résultats de l'estimation montrent qu'il y a une évidence de volatilité stochastique dans les trois chocs. De plus, la contribution des volatilités conditionnelles des chocs au niveau et à la dynamique de la prime de risque est significative. En particulier, les effets des volatilités conditionnelles des chocs de productivité et de préférences sont significatifs. La volatilité conditionnelle du choc de productivité contribue positivement aux moyennes et aux écart-types des primes de risque. Ces contributions varient avec la maturité des bonds. La volatilité conditionnelle du choc de préférences quant à elle contribue négativement aux moyennes et positivement aux variances des primes de risque. Quant au choc de volatilité de la politique monétaire, son impact sur les primes de risque est négligeable. Le troisième article (coécrit avec Eric Schaling, Alain Kabundi, révisé et resoumis au journal of Economic Modelling) traite de l'hétérogénéité dans la formation des attentes d'inflation de divers groupes économiques et de leur impact sur la politique monétaire en Afrique du sud. La question principale est d'examiner si différents groupes d'agents économiques forment leurs attentes d'inflation de la même façon et s'ils perçoivent de la même façon la politique monétaire de la banque centrale (South African Reserve Bank). Ainsi on spécifie un modèle de prédiction d'inflation qui nous permet de tester l'arrimage des attentes d'inflation à la bande d'inflation cible (3% - 6%) de la banque centrale. Les données utilisées sont des données d'enquête réalisée par la banque centrale auprès de trois groupes d'agents : les analystes financiers, les firmes et les syndicats. On exploite donc la structure de panel des données pour tester l'hétérogénéité dans les attentes d'inflation et déduire leur perception de la politique monétaire. Les résultats montrent qu'il y a évidence d'hétérogénéité dans la manière dont les différents groupes forment leurs attentes. Les attentes des analystes financiers sont arrimées à la bande d'inflation cible alors que celles des firmes et des syndicats ne sont pas arrimées. En effet, les firmes et les syndicats accordent un poids significatif à l'inflation retardée d'une période et leurs prédictions varient avec l'inflation réalisée (retardée). Ce qui dénote un manque de crédibilité parfaite de la banque centrale au vu de ces agents.
Resumo:
Étant donnée une fonction bornée (supérieurement ou inférieurement) $f:\mathbb{N}^k \To \Real$ par une expression mathématique, le problème de trouver les points extrémaux de $f$ sur chaque ensemble fini $S \subset \mathbb{N}^k$ est bien défini du point de vu classique. Du point de vue de la théorie de la calculabilité néanmoins il faut éviter les cas pathologiques où ce problème a une complexité de Kolmogorov infinie. La principale restriction consiste à définir l'ordre, parce que la comparaison entre les nombres réels n'est pas décidable. On résout ce problème grâce à une structure qui contient deux algorithmes, un algorithme d'analyse réelle récursive pour évaluer la fonction-coût en arithmétique à précision infinie et un autre algorithme qui transforme chaque valeur de cette fonction en un vecteur d'un espace, qui en général est de dimension infinie. On développe trois cas particuliers de cette structure, un de eux correspondant à la méthode d'approximation de Rauzy. Finalement, on établit une comparaison entre les meilleures approximations diophantiennes simultanées obtenues par la méthode de Rauzy (selon l'interprétation donnée ici) et une autre méthode, appelée tétraédrique, que l'on introduit à partir de l'espace vectoriel engendré par les logarithmes de nombres premiers.
Resumo:
This paper introduces and examines the logicist construction of Peano Arithmetic that can be performed into Leśniewski’s logical calculus of names called Ontology. Against neo-Fregeans, it is argued that a logicist program cannot be based on implicit definitions of the mathematical concepts. Using only explicit definitions, the construction to be presented here constitutes a real reduction of arithmetic to Leśniewski’s logic with the addition of an axiom of infinity. I argue however that such a program is not reductionist, for it only provides what I will call a picture of arithmetic, that is to say a specific interpretation of arithmetic in which purely logical entities play the role of natural numbers. The reduction does not show that arithmetic is simply a part of logic. The process is not of ontological significance, for numbers are not shown to be logical entities. This neo-logicist program nevertheless shows the existence of a purely analytical route to the knowledge of arithmetical laws.
Resumo:
The present study on the vertical structure of horizontal wind variability in the surface boundary layer over Sriharikota. Based on clock wind speed and direction measuring meteorological tower facility from seven levels in the 100 m layer. The study on wind variability and elliptical approximation of wind hodographs investigated for this tropical coastal station established that Sriharikota is of meso-scale weather entity. Wind variability ratio increases from lower levels to upper levels. In South West monsoon months the station is of high ratio values and it gets affected with meso-scale weather features like thunderstorms. Average total shears are observed greater values than scalar shears. Scalar shears are high in the lowest shear levels compared to upper levels. Semi diurnal types of oscillation in average total shears are found in south west monsoon months. During cyclonic storm passage it is observed that there can be significant difference in mean wind speed from 10 m to 100 m level, but it is not so for peak wind speeds. The variations in wind variability ratio in different months is clearly depicted its strong link to define meso-scale or synoptic –scale forcing domination for this station. Meso-scale forcing is characterized by diurnal wind variability and synoptic- scale forcing by interdiurnal wind variability.
Resumo:
An attempt is made to determine the relative power distribution in a step-index parabolic cylindrical waveguide (PCW) with high deformation across the direction of propagation. The guide is assumed to be made of silica. The scalar field approximation is employed for the analysis under which a vanishing refractive-index (RI) difference in the waveguide materials is considered. Further, no approximation for folds- is used in the analytical treatment. Due to the geometry of such waceguides, PCWs lose the well-defined modal discreteness, and a kind of mode bunching is observed instead, which becomes much more prominent in PCWs with high bends. However, with the increase in cross-sectional size, the mode-bunching tendency is slightly reduced. The general expressions for power in the guiding and nonguiding sections are obtained, and the fractional power patterns in all of the sections are presented for PCWs of various cross-sectional dimensions. It is observed that the confinement of power in the core section is increased for PCWs of larger cross-sectional size. Moreover, a fairly uniform distribution of power is seen over the modes having intermediate values of propagation constants
Resumo:
A fairly rigorous analytical treatment of the power characteristics of dielectric optical waveguides with Piet Hein core-cross sectional geometry is presented in this paper. This kind of wareguide structure would be advantageous owing to the absence of corners, which are found in rectangular guides, resulting in undesirable loss (hit to the scattering of light. In order to simplify this theoretical approach. em approximation of vanishing refractive index difference between the guiding and the non-guiding sections is implemented. The variation eJ logarithmic power is shown for different dimensions of the core, corresponding to different azimuthal modal indices. It is found that the nutlet with higher index values carry less logaritlunic power in the lower tail of the propagation 's constant range, and this feature affects the higher tail. A better kind of uniformity of the power distribution is observed near the higher tail of the range of propagation Constants
Resumo:
Department of Mathematics, Cochin University of Science and Technology
Resumo:
University of Cochin
Resumo:
This thesis deals with the study of light beam propagation through different nonlinear media. Analytical and numerical methods are used to show the formation of solitonS in these media. Basic experiments have also been performed to show the formation of a self-written waveguide in a photopolymer. The variational method is used for the analytical analysis throughout the thesis. Numerical method based on the finite-difference forms of the original partial differential equation is used for the numerical analysis.In Chapter 2, we have studied two kinds of solitons, the (2 + 1) D spatial solitons and the (3 + l)D spatio-temporal solitons in a cubic-quintic medium in the presence of multiphoton ionization.In Chapter 3, we have studied the evolution of light beam through a different kind of nonlinear media, the photorcfractive polymer. We study modulational instability and beam propagation through a photorefractive polymer in the presence of absorption losses. The one dimensional beam propagation through the nonlinear medium is studied using variational and numerical methods. Stable soliton propagation is observed both analytically and numerically.Chapter 4 deals with the study of modulational instability in a photorefractive crystal in the presence of wave mixing effects. Modulational instability in a photorefractive medium is studied in the presence of two wave mixing. We then propose and derive a model for forward four wave mixing in the photorefractive medium and investigate the modulational instability induced by four wave mixing effects. By using the standard linear stability analysis the instability gain is obtained.Chapter 5 deals with the study of self-written waveguides. Besides the usual analytical analysis, basic experiments were done showing the formation of self-written waveguide in a photopolymer system. The formation of a directional coupler in a photopolymer system is studied theoretically in Chapter 6. We propose and study, using the variational approximation as well as numerical simulation, the evolution of a probe beam through a directional coupler formed in a photopolymer system.
Resumo:
The longitudinal dipole response of a quantum dot has been calculated in the far-infrared regime using local-spin-density-functional theory. We have studied the coupling between the collective spin and density modes as a function of the magnetic field. We have found that the spin dipole mode and single-particle excitations have a sizable overlap, and that the magnetoplasmon modes can be excited by the dipole spin operator if the dot is spin polarized. The frequency of the dipole spin edge mode presents an oscillation which is clearly filling factor (v) related. We have found that the spin dipole mode is especially soft for even-n values. Results for selected numbers of electrons and confining potentials are discussed.
Resumo:
This study is concerned with Autoregressive Moving Average (ARMA) models of time series. ARMA models form a subclass of the class of general linear models which represents stationary time series, a phenomenon encountered most often in practice by engineers, scientists and economists. It is always desirable to employ models which use parameters parsimoniously. Parsimony will be achieved by ARMA models because it has only finite number of parameters. Even though the discussion is primarily concerned with stationary time series, later we will take up the case of homogeneous non stationary time series which can be transformed to stationary time series. Time series models, obtained with the help of the present and past data is used for forecasting future values. Physical science as well as social science take benefits of forecasting models. The role of forecasting cuts across all fields of management-—finance, marketing, production, business economics, as also in signal process, communication engineering, chemical processes, electronics etc. This high applicability of time series is the motivation to this study.
Resumo:
We study the analytical solution of the Monte Carlo dynamics in the spherical Sherrington-Kirkpatrick model using the technique of the generating function. Explicit solutions for one-time observables (like the energy) and two-time observables (like the correlation and response function) are obtained. We show that the crucial quantity which governs the dynamics is the acceptance rate. At zero temperature, an adiabatic approximation reveals that the relaxational behavior of the model corresponds to that of a single harmonic oscillator with an effective renormalized mass.