968 resultados para Non linear processes
Resumo:
Les questions abordées dans les deux premiers articles de ma thèse cherchent à comprendre les facteurs économiques qui affectent la structure à terme des taux d'intérêt et la prime de risque. Je construis des modèles non linéaires d'équilibre général en y intégrant des obligations de différentes échéances. Spécifiquement, le premier article a pour objectif de comprendre la relation entre les facteurs macroéconomiques et le niveau de prime de risque dans un cadre Néo-keynésien d'équilibre général avec incertitude. L'incertitude dans le modèle provient de trois sources : les chocs de productivité, les chocs monétaires et les chocs de préférences. Le modèle comporte deux types de rigidités réelles à savoir la formation des habitudes dans les préférences et les coûts d'ajustement du stock de capital. Le modèle est résolu par la méthode des perturbations à l'ordre deux et calibré à l'économie américaine. Puisque la prime de risque est par nature une compensation pour le risque, l'approximation d'ordre deux implique que la prime de risque est une combinaison linéaire des volatilités des trois chocs. Les résultats montrent qu'avec les paramètres calibrés, les chocs réels (productivité et préférences) jouent un rôle plus important dans la détermination du niveau de la prime de risque relativement aux chocs monétaires. Je montre que contrairement aux travaux précédents (dans lesquels le capital de production est fixe), l'effet du paramètre de la formation des habitudes sur la prime de risque dépend du degré des coûts d'ajustement du capital. Lorsque les coûts d'ajustement du capital sont élevés au point que le stock de capital est fixe à l'équilibre, une augmentation du paramètre de formation des habitudes entraine une augmentation de la prime de risque. Par contre, lorsque les agents peuvent librement ajuster le stock de capital sans coûts, l'effet du paramètre de la formation des habitudes sur la prime de risque est négligeable. Ce résultat s'explique par le fait que lorsque le stock de capital peut être ajusté sans coûts, cela ouvre un canal additionnel de lissage de consommation pour les agents. Par conséquent, l'effet de la formation des habitudes sur la prime de risque est amoindri. En outre, les résultats montrent que la façon dont la banque centrale conduit sa politique monétaire a un effet sur la prime de risque. Plus la banque centrale est agressive vis-à-vis de l'inflation, plus la prime de risque diminue et vice versa. Cela est due au fait que lorsque la banque centrale combat l'inflation cela entraine une baisse de la variance de l'inflation. Par suite, la prime de risque due au risque d'inflation diminue. Dans le deuxième article, je fais une extension du premier article en utilisant des préférences récursives de type Epstein -- Zin et en permettant aux volatilités conditionnelles des chocs de varier avec le temps. L'emploi de ce cadre est motivé par deux raisons. D'abord des études récentes (Doh, 2010, Rudebusch and Swanson, 2012) ont montré que ces préférences sont appropriées pour l'analyse du prix des actifs dans les modèles d'équilibre général. Ensuite, l'hétéroscedasticité est une caractéristique courante des données économiques et financières. Cela implique que contrairement au premier article, l'incertitude varie dans le temps. Le cadre dans cet article est donc plus général et plus réaliste que celui du premier article. L'objectif principal de cet article est d'examiner l'impact des chocs de volatilités conditionnelles sur le niveau et la dynamique des taux d'intérêt et de la prime de risque. Puisque la prime de risque est constante a l'approximation d'ordre deux, le modèle est résolu par la méthode des perturbations avec une approximation d'ordre trois. Ainsi on obtient une prime de risque qui varie dans le temps. L'avantage d'introduire des chocs de volatilités conditionnelles est que cela induit des variables d'état supplémentaires qui apportent une contribution additionnelle à la dynamique de la prime de risque. Je montre que l'approximation d'ordre trois implique que les primes de risque ont une représentation de type ARCH-M (Autoregressive Conditional Heteroscedasticty in Mean) comme celui introduit par Engle, Lilien et Robins (1987). La différence est que dans ce modèle les paramètres sont structurels et les volatilités sont des volatilités conditionnelles de chocs économiques et non celles des variables elles-mêmes. J'estime les paramètres du modèle par la méthode des moments simulés (SMM) en utilisant des données de l'économie américaine. Les résultats de l'estimation montrent qu'il y a une évidence de volatilité stochastique dans les trois chocs. De plus, la contribution des volatilités conditionnelles des chocs au niveau et à la dynamique de la prime de risque est significative. En particulier, les effets des volatilités conditionnelles des chocs de productivité et de préférences sont significatifs. La volatilité conditionnelle du choc de productivité contribue positivement aux moyennes et aux écart-types des primes de risque. Ces contributions varient avec la maturité des bonds. La volatilité conditionnelle du choc de préférences quant à elle contribue négativement aux moyennes et positivement aux variances des primes de risque. Quant au choc de volatilité de la politique monétaire, son impact sur les primes de risque est négligeable. Le troisième article (coécrit avec Eric Schaling, Alain Kabundi, révisé et resoumis au journal of Economic Modelling) traite de l'hétérogénéité dans la formation des attentes d'inflation de divers groupes économiques et de leur impact sur la politique monétaire en Afrique du sud. La question principale est d'examiner si différents groupes d'agents économiques forment leurs attentes d'inflation de la même façon et s'ils perçoivent de la même façon la politique monétaire de la banque centrale (South African Reserve Bank). Ainsi on spécifie un modèle de prédiction d'inflation qui nous permet de tester l'arrimage des attentes d'inflation à la bande d'inflation cible (3% - 6%) de la banque centrale. Les données utilisées sont des données d'enquête réalisée par la banque centrale auprès de trois groupes d'agents : les analystes financiers, les firmes et les syndicats. On exploite donc la structure de panel des données pour tester l'hétérogénéité dans les attentes d'inflation et déduire leur perception de la politique monétaire. Les résultats montrent qu'il y a évidence d'hétérogénéité dans la manière dont les différents groupes forment leurs attentes. Les attentes des analystes financiers sont arrimées à la bande d'inflation cible alors que celles des firmes et des syndicats ne sont pas arrimées. En effet, les firmes et les syndicats accordent un poids significatif à l'inflation retardée d'une période et leurs prédictions varient avec l'inflation réalisée (retardée). Ce qui dénote un manque de crédibilité parfaite de la banque centrale au vu de ces agents.
Resumo:
Cette thèse est divisée en deux grands chapitres, dont le premier porte sur des problèmes de commande optimale en dimension un et le deuxième sur des problèmes en dimension deux ou plus. Notons bien que, dans cette thèse, nous avons supposé que le facteur temps n'intervient pas. Dans le premier chapitre, nous calculons, au début, l'équation de programmation dynamique pour la valeur minimale F de l'espérance mathématique de la fonction de coût considérée. Ensuite, nous utilisons le théorème de Whittle qui est applicable seulement si une condition entre le bruit blanc v et les termes b et q associés à la commande est satisfaite. Sinon, nous procédons autrement. En effet, un changement de variable transforme notre équation en une équation de Riccati en G= F', mais sans conditions initiales. Dans certains cas, à partir de la symétrie des paramètres infinitésimaux et de q, nous pouvons en déduire le point x' où G(x')=0. Si ce n'est pas le cas, nous nous limitons à des bonnes approximations. Cette même démarche est toujours possible si nous sommes dans des situations particulières, par exemple, lorsque nous avons une seule barrière. Dans le deuxième chapitre, nous traitons les problèmes en dimension deux ou plus. Puisque la condition de Whittle est difficile à satisfaire dans ce cas, nous essayons de généraliser les résultats du premier chapitre. Nous utilisons alors dans quelques exemples la méthode des similitudes, qui permet de transformer le problème en dimension un. Ensuite, nous proposons une nouvelle méthode de résolution. Cette dernière linéarise l'équation de programmation dynamique qui est une équation aux dérivées partielles non linéaire. Il reste à la fin à trouver les conditions initiales pour la nouvelle fonction et aussi à vérifier que les n expressions obtenues pour F sont équivalentes.
Resumo:
La pression artérielle est un déterminant potentiellement majeur de l’évolution de pathologies telles que la FA et l’insuffisance cardiaque. Pourtant, il demeure plusieurs incertitudes quant à la prise en charge optimale de la pression artérielle chez ces patients. Le rôle potentiel de la pression artérielle sur l’efficacité du maintien en rythme sinusal est inconnu. De plus, en présence d’insuffisance cardiaque, non seulement une pression artérielle élevée, mais aussi une pression artérielle basse pourrait augmenter la mortalité. Les travaux présentés ont pour but d’évaluer l’impact de la pression artérielle sur l’efficacité du contrôle du rythme et la mortalité ainsi que d’évaluer le rôle potentiel de l’insuffisance cardiaque sur cette interaction. Une étude post-hoc utilisant une banque de données combinant les études AFFIRM et AF-CHF a été réalisée. Les patients ont d’abord été classés selon leur FEVG (>40%, ≤40%), puis nous avons évalué l’impact de la PAS (<120 mmHg, 120-140 mmHg, >140 mmHg) sur les issues. Premièrement, chez les 2715 patients randomisés au contrôle du rythme, nous avons évalué la survie sans récidive de FA. Deuxièmement, chez tous les 5436 patients inclus dans les 2 études sources, nous avons évalué la mortalité et la morbidité. Chez les patients avec FEVG >40%, aucune des issues n’a été affectée par la PAS dans des analyses de régression multivariées de Cox. Par contraste, chez les patients avec FEVG ≤40%, le taux de récidive de FA était plus élevé avec une PAS >140 mmHg et une PAS <120 mmHg, par rapport à une PAS de 120-140 mmHg [HR, 1.47; IC 95% (1.12-1.93)] et [HR 1.15; IC 95% (0.92-1.43)], respectivement. La mortalité s’est également avérée augmentée chez ces patients avec une PAS >140 mmHg et une PAS <120 mmHg [HR 1.75; IC 95% (1.41-2.17)] et [HR 1.40; IC 95% (1.04-1.90)], respectivement. En conclusion, le maintien en rythme sinusal et la survie sont influencés par la PAS chez les patients avec FA et FEVG diminuée, mais non chez les patients avec FEVG normale. Une courbe en forme de U a été identifiée, où les pression plus basses (<120 mmHg) et plus hautes (>140 mmHg) sont associées à un moins bon pronostic.
Resumo:
Ce mémoire porte sur la simulation d'intervalles de crédibilité simultanés dans un contexte bayésien. Dans un premier temps, nous nous intéresserons à des données de précipitations et des fonctions basées sur ces données : la fonction de répartition empirique et la période de retour, une fonction non linéaire de la fonction de répartition. Nous exposerons différentes méthodes déjà connues pour obtenir des intervalles de confiance simultanés sur ces fonctions à l'aide d'une base polynomiale et nous présenterons une méthode de simulation d'intervalles de crédibilité simultanés. Nous nous placerons ensuite dans un contexte bayésien en explorant différents modèles de densité a priori. Pour le modèle le plus complexe, nous aurons besoin d'utiliser la simulation Monte-Carlo pour obtenir les intervalles de crédibilité simultanés a posteriori. Finalement, nous utiliserons une base non linéaire faisant appel à la transformation angulaire et aux splines monotones pour obtenir un intervalle de crédibilité simultané valide pour la période de retour.
Resumo:
La présente thèse porte sur différentes questions émanant de la géométrie spectrale. Ce domaine des mathématiques fondamentales a pour objet d'établir des liens entre la géométrie et le spectre d'une variété riemannienne. Le spectre d'une variété compacte fermée M munie d'une métrique riemannienne $g$ associée à l'opérateur de Laplace-Beltrami est une suite de nombres non négatifs croissante qui tend vers l’infini. La racine carrée de ces derniers représente une fréquence de vibration de la variété. Cette thèse présente quatre articles touchant divers aspects de la géométrie spectrale. Le premier article, présenté au Chapitre 1 et intitulé « Superlevel sets and nodal extrema of Laplace eigenfunctions », porte sur la géométrie nodale d'opérateurs elliptiques. L’objectif de mes travaux a été de généraliser un résultat de L. Polterovich et de M. Sodin qui établit une borne sur la distribution des extrema nodaux sur une surface riemannienne pour une assez vaste classe de fonctions, incluant, entre autres, les fonctions propres associées à l'opérateur de Laplace-Beltrami. La preuve fournie par ces auteurs n'étant valable que pour les surfaces riemanniennes, je prouve dans ce chapitre une approche indépendante pour les fonctions propres de l’opérateur de Laplace-Beltrami dans le cas des variétés riemanniennes de dimension arbitraire. Les deuxième et troisième articles traitent d'un autre opérateur elliptique, le p-laplacien. Sa particularité réside dans le fait qu'il est non linéaire. Au Chapitre 2, l'article « Principal frequency of the p-laplacian and the inradius of Euclidean domains » se penche sur l'étude de bornes inférieures sur la première valeur propre du problème de Dirichlet du p-laplacien en termes du rayon inscrit d’un domaine euclidien. Plus particulièrement, je prouve que, si p est supérieur à la dimension du domaine, il est possible d'établir une borne inférieure sans aucune hypothèse sur la topologie de ce dernier. L'étude de telles bornes a fait l'objet de nombreux articles par des chercheurs connus, tels que W. K. Haymann, E. Lieb, R. Banuelos et T. Carroll, principalement pour le cas de l'opérateur de Laplace. L'adaptation de ce type de bornes au cas du p-laplacien est abordée dans mon troisième article, « Bounds on the Principal Frequency of the p-Laplacian », présenté au Chapitre 3 de cet ouvrage. Mon quatrième article, « Wolf-Keller theorem for Neumann Eigenvalues », est le fruit d'une collaboration avec Guillaume Roy-Fortin. Le thème central de ce travail gravite autour de l'optimisation de formes dans le contexte du problème aux valeurs limites de Neumann. Le résultat principal de cet article est que les valeurs propres de Neumann ne sont pas toujours maximisées par l'union disjointe de disques arbitraires pour les domaines planaires d'aire fixée. Le tout est présenté au Chapitre 4 de cette thèse.
Resumo:
Ce texte de mémoire est accompagné du webdocumentaire interactif : De la chaise à la mer, disponible à l'adresse http://www.delachaisealamer.net.
Resumo:
Afin de mieux cerner les enjeux de la transition entre le secondaire et le postsecondaire, nous proposons un examen du passage de la notion de fonction à celle de dérivée. À la lumière de plusieurs travaux mettant en évidence des difficultés inhérentes à ce passage, et nous basant sur les recherches de Carlson et ses collègues (Carlson, 2002; Carlson, Jacobs, Coe, Larsen et Hsu, 2002; Carlson, Larsen et Jacobs, 2001; Oehrtman, Carlson et Thompson, 2008) sur le raisonnement covariationnel, nous présentons une analyse de la dynamique du développement de ce raisonnement chez des petits groupes d’élèves de la fin du secondaire et du début du collégial dans quatre situations-problèmes différentes. L’analyse des raisonnements de ces groupes d’élèves nous a permis, d’une part, de raffiner la grille proposée par Carlson en mettant en évidence, non seulement des unités de processus de modélisation (ou unités de raisonnement) mises en action par ces élèves lors des activités proposées, mais aussi leurs rôles au sein de la dynamique du raisonnement. D’autre part, cette analyse révèle l’influence de certaines caractéristiques des situations sur les interactions non linéaires entre ces unités.
Resumo:
The thesis deals with some of the non-linear Gaussian and non-Gaussian time models and mainly concentrated in studying the properties and application of a first order autoregressive process with Cauchy marginal distribution. In this thesis some of the non-linear Gaussian and non-Gaussian time series models and mainly concentrated in studying the properties and application of a order autoregressive process with Cauchy marginal distribution. Time series relating to prices, consumptions, money in circulation, bank deposits and bank clearing, sales and profit in a departmental store, national income and foreign exchange reserves, prices and dividend of shares in a stock exchange etc. are examples of economic and business time series. The thesis discuses the application of a threshold autoregressive(TAR) model, try to fit this model to a time series data. Another important non-linear model is the ARCH model, and the third model is the TARCH model. The main objective here is to identify an appropriate model to a given set of data. The data considered are the daily coconut oil prices for a period of three years. Since it is a price data the consecutive prices may not be independent and hence a time series based model is more appropriate. In this study the properties like ergodicity, mixing property and time reversibility and also various estimation procedures used to estimate the unknown parameters of the process.
Resumo:
The thesis report results obtained from a detailed analysis of the fluctuations of the rheological parameters viz. shear and normal stresses, simulated by means of the Stokesian Dynamics method, of a macroscopically homogeneous sheared suspension of neutrally buoyant non-Brownian suspension of identical spheres in the Couette gap between two parallel walls in the limit of vanishingly small Reynolds numbers using the tools of non-linear dynamics and chaos theory for a range of particle concentration and Couette gaps. The thesis used the tools of nonlinear dynamics and chaos theory viz. average mutual information, space-time separation plots, visual recurrence analysis, principal component analysis, false nearest-neighbor technique, correlation integrals, computation of Lyapunov exponents for a range of area fraction of particles and for different Couette gaps. The thesis observed that one stress component can be predicted using another stress component at the same area fraction. This implies a type of synchronization of one stress component with another stress component. This finding suggests us to further analysis of the synchronization of stress components with another stress component at the same or different area fraction of particles. The different model equations of stress components for different area fraction of particles hints at the possible existence a general formula for stress fluctuations with area fraction of particle as a parameter
Resumo:
Certain organic crystals are found to possess high non- linear optical coefficients,often one to two orders of magnitude higher than those of the well known inorganic non-linear optical materials.Benzoyl glycine is one such crystal whose optical second-harmonic generation efficiency is much higher than that of potassium dihydrogen phosphate. Single crystals of benzoyl glycine are grown by solvent evaporation technique using N,N-dimethyl formamide as the solvent.All the nine second-order elastic stiffness constants of this orthorhombic crystal are determined from ultrasonic wave velocity measurements employing the pulse echo overlap technique.The anisotropy of elastic wave propagation in this crystal is demonstrated by plotting the phase velocity, slowness,Young's modulus and linear compressibility surfaces along symmetry planes.The volume compressibility, bulk modulus and relevant Poisson's ratios are also determined. Variation of the diagonal elastic stiffness constants with temperature over a limited range are measured and reported.
Resumo:
Light-scattering experiments gained prominence as potential applications of quantum optics, nonlinear optics, and photon localization. The possibility of the realization of lasing action in random media has created much interest in the study of the coherent structure of the backscattered light from disordered media. Backscattering (BS) studies are carried out to analyze the possibilities of photon localization in colloidal silica. The scattering enhancement is best associated with the density of the scatterers. The width of the BS cone and, hence, the mean-free path is related to the concentration of the medium. The dependence of the photon wavelength on the possible characteristics of the scattering is presented.
Resumo:
The thesis deals with the development of short nylon fiber-reclaimed rubber/elastomer composites. Three rubbers viz, natural rubber, acrylonitrile butadiene rubber and styrene butadiene rubber were selected and were partially replaced with reclaimed rubber. The blend ratio was optimized with respect to cure characteristics and mechanical properties. Reclaimed rubber replaced 40 parts of NR and SBR and 20 parts of NBR without much affecting the properties. These blends were then reinforced with short nylon fibers. The mechanical properties of the composites were studied in detail. In all the cases the tensile strength, tear strength and the abrasion resistance increased with increase in fiber content. In the case of NRlreclaimed rubber blends, the tensile strength-fiberloading relationship was non-linear where as in the case of NBRlreclaimed rubber blends and SBRlreclaimed rubber blends the tensile strength-fiber loading relationship was linear. All the composites showed anisotropy in mechanical properties. The effect of bonding system on the composite properties was also studied with respect to cure characteristics and mechanical properties. For this, a 20 phr fiber loaded reclaimed rubber/elastomer composites were selected and the effect of MDI/PEG resin system was studied. The resin used was 5 phr and the resin ratios used were 0.67: I, 1:1, 1.5:1 and 2:1. The bonding system improved the tensile strength, tear strength and abrasion resistance. The best results are with SBRlreclaimed rubber-short nylon fiber composites. The optimized resin ratio was 1:1 MDI/PEG for all the composites.
Resumo:
This thesis deals with the study of light beam propagation through different nonlinear media. Analytical and numerical methods are used to show the formation of solitonS in these media. Basic experiments have also been performed to show the formation of a self-written waveguide in a photopolymer. The variational method is used for the analytical analysis throughout the thesis. Numerical method based on the finite-difference forms of the original partial differential equation is used for the numerical analysis.In Chapter 2, we have studied two kinds of solitons, the (2 + 1) D spatial solitons and the (3 + l)D spatio-temporal solitons in a cubic-quintic medium in the presence of multiphoton ionization.In Chapter 3, we have studied the evolution of light beam through a different kind of nonlinear media, the photorcfractive polymer. We study modulational instability and beam propagation through a photorefractive polymer in the presence of absorption losses. The one dimensional beam propagation through the nonlinear medium is studied using variational and numerical methods. Stable soliton propagation is observed both analytically and numerically.Chapter 4 deals with the study of modulational instability in a photorefractive crystal in the presence of wave mixing effects. Modulational instability in a photorefractive medium is studied in the presence of two wave mixing. We then propose and derive a model for forward four wave mixing in the photorefractive medium and investigate the modulational instability induced by four wave mixing effects. By using the standard linear stability analysis the instability gain is obtained.Chapter 5 deals with the study of self-written waveguides. Besides the usual analytical analysis, basic experiments were done showing the formation of self-written waveguide in a photopolymer system. The formation of a directional coupler in a photopolymer system is studied theoretically in Chapter 6. We propose and study, using the variational approximation as well as numerical simulation, the evolution of a probe beam through a directional coupler formed in a photopolymer system.
Resumo:
Electromagnetic tomography has been applied to problems in nondestructive evolution, ground-penetrating radar, synthetic aperture radar, target identification, electrical well logging, medical imaging etc. The problem of electromagnetic tomography involves the estimation of cross sectional distribution dielectric permittivity, conductivity etc based on measurement of the scattered fields. The inverse scattering problem of electromagnetic imaging is highly non linear and ill posed, and is liable to get trapped in local minima. The iterative solution techniques employed for computing the inverse scattering problem of electromagnetic imaging are highly computation intensive. Thus the solution to electromagnetic imaging problem is beset with convergence and computational issues. The attempt of this thesis is to develop methods suitable for improving the convergence and reduce the total computations for tomographic imaging of two dimensional dielectric cylinders illuminated by TM polarized waves, where the scattering problem is defmed using scalar equations. A multi resolution frequency hopping approach was proposed as opposed to the conventional frequency hopping approach employed to image large inhomogeneous scatterers. The strategy was tested on both synthetic and experimental data and gave results that were better localized and also accelerated the iterative procedure employed for the imaging. A Degree of Symmetry formulation was introduced to locate the scatterer in the investigation domain when the scatterer cross section was circular. The investigation domain could thus be reduced which reduced the degrees of freedom of the inverse scattering process. Thus the entire measured scattered data was available for the optimization of fewer numbers of pixels. This resulted in better and more robust reconstructions of the scatterer cross sectional profile. The Degree of Symmetry formulation could also be applied to the practical problem of limited angle tomography, as in the case of a buried pipeline, where the ill posedness is much larger. The formulation was also tested using experimental data generated from an experimental setup that was designed. The experimental results confirmed the practical applicability of the formulation.
Resumo:
In this Letter we present the spectral and nonlinear optical properties of ZnO–Ag nanocomposites prepared by colloidal chemical synthesis. Obvious enhancement of ultraviolet (UV) emission of the samples is observed and the strongest UV emission is over three times than that of pure ZnO. These nanocomposites show self-defocusing nonlinearity and good nonlinear absorption behaviour which increases with increasing Ag volume fraction. The observed nonlinear absorption is explained through two photon absorption followed by free carrier absorption. ZnO–Ag is a potential nanocomposite material for the UV light emission and for the development of nonlinear optical devices with a relatively small limiting threshold.