986 resultados para Third-order nonlinearity
Resumo:
We develop a systematic method to derive all orders of mode couplings in a weakly nonlinear approach to the dynamics of the interface between two immiscible viscous fluids in a Hele-Shaw cell. The method is completely general: it applies to arbitrary geometry and driving. Here we apply it to the channel geometry driven by gravity and pressure. The finite radius of convergence of the mode-coupling expansion is found. Calculation up to third-order couplings is done, which is necessary to account for the time-dependent Saffman-Taylor finger solution and the case of zero viscosity contrast. The explicit results provide relevant analytical information about the role that the viscosity contrast and the surface tension play in the dynamics of the system. We finally check the quantitative validity of different orders of approximation and a resummation scheme against a physically relevant, exact time-dependent solution. The agreement between the low-order approximations and the exact solution is excellent within the radius of convergence, and is even reasonably good beyond this radius.
Resumo:
Summary This dissertation explores how stakeholder dialogue influences corporate processes, and speculates about the potential of this phenomenon - particularly with actors, like non-governmental organizations (NGOs) and other representatives of civil society, which have received growing attention against a backdrop of increasing globalisation and which have often been cast in an adversarial light by firms - as a source of teaming and a spark for innovation in the firm. The study is set within the context of the introduction of genetically-modified organisms (GMOs) in Europe. Its significance lies in the fact that scientific developments and new technologies are being generated at an unprecedented rate in an era where civil society is becoming more informed, more reflexive, and more active in facilitating or blocking such new developments, which could have the potential to trigger widespread changes in economies, attitudes, and lifestyles, and address global problems like poverty, hunger, climate change, and environmental degradation. In the 1990s, companies using biotechnology to develop and offer novel products began to experience increasing pressure from civil society to disclose information about the risks associated with the use of biotechnology and GMOs, in particular. Although no harmful effects for humans or the environment have been factually demonstrated even to date (2008), this technology remains highly-contested and its introduction in Europe catalysed major companies to invest significant financial and human resources in stakeholder dialogue. A relatively new phenomenon at the time, with little theoretical backing, dialogue was seen to reflect a move towards greater engagement with stakeholders, commonly defined as those "individuals or groups with which. business interacts who have a 'stake', or vested interest in the firm" (Carroll, 1993:22) with whom firms are seen to be inextricably embedded (Andriof & Waddock, 2002). Regarding the organisation of this dissertation, Chapter 1 (Introduction) describes the context of the study, elaborates its significance for academics and business practitioners as an empirical work embedded in a sector at the heart of the debate on corporate social responsibility (CSR). Chapter 2 (Literature Review) traces the roots and evolution of CSR, drawing on Stakeholder Theory, Institutional Theory, Resource Dependence Theory, and Organisational Learning to establish what has already been developed in the literature regarding the stakeholder concept, motivations for engagement with stakeholders, the corporate response to external constituencies, and outcomes for the firm in terms of organisational learning and change. I used this review of the literature to guide my inquiry and to develop the key constructs through which I viewed the empirical data that was gathered. In this respect, concepts related to how the firm views itself (as a victim, follower, leader), how stakeholders are viewed (as a source of pressure and/or threat; as an asset: current and future), corporate responses (in the form of buffering, bridging, boundary redefinition), and types of organisational teaming (single-loop, double-loop, triple-loop) and change (first order, second order, third order) were particularly important in building the key constructs of the conceptual model that emerged from the analysis of the data. Chapter 3 (Methodology) describes the methodology that was used to conduct the study, affirms the appropriateness of the case study method in addressing the research question, and describes the procedures for collecting and analysing the data. Data collection took place in two phases -extending from August 1999 to October 2000, and from May to December 2001, which functioned as `snapshots' in time of the three companies under study. The data was systematically analysed and coded using ATLAS/ti, a qualitative data analysis tool, which enabled me to sort, organise, and reduce the data into a manageable form. Chapter 4 (Data Analysis) contains the three cases that were developed (anonymised as Pioneer, Helvetica, and Viking). Each case is presented in its entirety (constituting a `within case' analysis), followed by a 'cross-case' analysis, backed up by extensive verbatim evidence. Chapter 5 presents the research findings, outlines the study's limitations, describes managerial implications, and offers suggestions for where more research could elaborate the conceptual model developed through this study, as well as suggestions for additional research in areas where managerial implications were outlined. References and Appendices are included at the end. This dissertation results in the construction and description of a conceptual model, grounded in the empirical data and tied to existing literature, which portrays a set of elements and relationships deemed important for understanding the impact of stakeholder engagement for firms in terms of organisational learning and change. This model suggests that corporate perceptions about the nature of stakeholder influence the perceived value of stakeholder contributions. When stakeholders are primarily viewed as a source of pressure or threat, firms tend to adopt a reactive/defensive posture in an effort to manage stakeholders and protect the firm from sources of outside pressure -behaviour consistent with Resource Dependence Theory, which suggests that firms try to get control over extemal threats by focussing on the relevant stakeholders on whom they depend for critical resources, and try to reverse the control potentially exerted by extemal constituencies by trying to influence and manipulate these valuable stakeholders. In situations where stakeholders are viewed as a current strategic asset, firms tend to adopt a proactive/offensive posture in an effort to tap stakeholder contributions and connect the organisation to its environment - behaviour consistent with Institutional Theory, which suggests that firms try to ensure the continuing license to operate by internalising external expectations. In instances where stakeholders are viewed as a source of future value, firms tend to adopt an interactive/innovative posture in an effort to reduce or widen the embedded system and bring stakeholders into systems of innovation and feedback -behaviour consistent with the literature on Organisational Learning, which suggests that firms can learn how to optimize their performance as they develop systems and structures that are more adaptable and responsive to change The conceptual model moreover suggests that the perceived value of stakeholder contribution drives corporate aims for engagement, which can be usefully categorised as dialogue intentions spanning a continuum running from low-level to high-level to very-high level. This study suggests that activities aimed at disarming critical stakeholders (`manipulation') providing guidance and correcting misinformation (`education'), being transparent about corporate activities and policies (`information'), alleviating stakeholder concerns (`placation'), and accessing stakeholder opinion ('consultation') represent low-level dialogue intentions and are experienced by stakeholders as asymmetrical, persuasive, compliance-gaining activities that are not in line with `true' dialogue. This study also finds evidence that activities aimed at redistributing power ('partnership'), involving stakeholders in internal corporate processes (`participation'), and demonstrating corporate responsibility (`stewardship') reflect high-level dialogue intentions. This study additionally finds evidence that building and sustaining high-quality, trusted relationships which can meaningfully influence organisational policies incline a firm towards the type of interactive, proactive processes that underpin the development of sustainable corporate strategies. Dialogue intentions are related to type of corporate response: low-level intentions can lead to buffering strategies; high-level intentions can underpin bridging strategies; very high-level intentions can incline a firm towards boundary redefinition. The nature of corporate response (which encapsulates a firm's posture towards stakeholders, demonstrated by the level of dialogue intention and the firm's strategy for dealing with stakeholders) favours the type of learning and change experienced by the organisation. This study indicates that buffering strategies, where the firm attempts to protect itself against external influences and cant' out its existing strategy, typically lead to single-loop learning, whereby the firm teams how to perform better within its existing paradigm and at most, improves the performance of the established system - an outcome associated with first-order change. Bridging responses, where the firm adapts organisational activities to meet external expectations, typically leads a firm to acquire new behavioural capacities characteristic of double-loop learning, whereby insights and understanding are uncovered that are fundamentally different from existing knowledge and where stakeholders are brought into problem-solving conversations that enable them to influence corporate decision-making to address shortcomings in the system - an outcome associated with second-order change. Boundary redefinition suggests that the firm engages in triple-loop learning, where the firm changes relations with stakeholders in profound ways, considers problems from a whole-system perspective, examining the deep structures that sustain the system, producing innovation to address chronic problems and develop new opportunities - an outcome associated with third-order change. This study supports earlier theoretical and empirical studies {e.g. Weick's (1979, 1985) work on self-enactment; Maitlis & Lawrence's (2007) and Maitlis' (2005) work and Weick et al's (2005) work on sensegiving and sensemaking in organisations; Brickson's (2005, 2007) and Scott & Lane's (2000) work on organisational identity orientation}, which indicate that corporate self-perception is a key underlying factor driving the dynamics of organisational teaming and change. Such theorizing has important implications for managerial practice; namely, that a company which perceives itself as a 'victim' may be highly inclined to view stakeholders as a source of negative influence, and would therefore be potentially unable to benefit from the positive influence of engagement. Such a selfperception can blind the firm from seeing stakeholders in a more positive, contributing light, which suggests that such firms may not be inclined to embrace external sources of innovation and teaming, as they are focussed on protecting the firm against disturbing environmental influences (through buffering), and remain more likely to perform better within an existing paradigm (single-loop teaming). By contrast, a company that perceives itself as a 'leader' may be highly inclined to view stakeholders as a source of positive influence. On the downside, such a firm might have difficulty distinguishing when stakeholder contributions are less pertinent as it is deliberately more open to elements in operating environment (including stakeholders) as potential sources of learning and change, as the firm is oriented towards creating space for fundamental change (through boundary redefinition), opening issues to entirely new ways of thinking and addressing issues from whole-system perspective. A significant implication of this study is that potentially only those companies who see themselves as a leader are ultimately able to tap the innovation potential of stakeholder dialogue.
Resumo:
We describe the preparation and some optical properties of high refractive index TeO2-PbO-TiO2 glass system. Highly homogeneous glasses were obtained by agitating the mixture during the melting process in an alumina crucible. The characterization was done by X-ray diffraction, Raman scattering, light absorption and linear refractive index measurements. The results show a change in the glass structure as the PbO content increases: the TeO4 trigonal bipyramids characteristics of TeO2 glasses transform into TeO3 trigonal pyramids. However, the measured refractive indices are almost independent of the glass composition. We show that third-order nonlinear optical susceptibilities calculated from the measured refractive indices using Lines' theoretical model are also independent of the glass composition.
Resumo:
Different parameters of carbon ceramic electrodes (CCE) preparation, such as type of precursor, carbon material, catalyst amount, among others, significantly influence the morphological properties and consequently their electrochemical responses. This paper describes a 2³ factorial design (2 factors and 3 levels with central point replicates), which the factors analyzed were catalyst amount (HCl 12 mol L-1), graphite/precursor ratio, and precursor type (TEOS - tetraethoxysilane and MTMOS - methyltrimetoxysilane). The design resulted in a significant third order interaction for peak current values (Ipa) and a second order interaction for potential difference (ΔE), between thefactors studied, which could not be observed when using an univariated study.
Resumo:
Analytical solutions of a cubic equation with real coefficients are established using the Cardano method. The method is first applied to simple third order equation. Calculation of volume in the van der Waals equation of state is afterwards established. These results are exemplified to calculate the volumes below and above critical temperatures. Analytical and numerical values for the compressibility factor are presented as a function of the pressure. As a final example, coexistence volumes in the liquid-vapor equilibrium are calculated. The Cardano approach is very simple to apply, requiring only elementary operations, indicating an attractive method to be used in teaching elementary thermodynamics.
Resumo:
The irrigation management based on the monitoring of the soil water content allows for the minimization of the amount of water applied, making its use more efficient. Taking into account these aspects, in this work, a sensor for measuring the soil water content was developed to allow real time automation of irrigation systems. This way, problems affecting crop yielding such as irregularities in the time to turn on or turn off the pump, and excess or deficit of water can be solved. To develop the sensors were used stainless steel rods, resin, and insulating varnish. The sensors measuring circuit was based on a microcontroller, which gives its output signal in the digital format. The sensors were calibrated using soil of the type Quartzarenic Neosoil. A third order polynomial model was fitted to the experimental data between the values of water content corresponding to the field capacity and the wilting point to correlate the soil water content obtained by the oven standard method with those measured by the electronic circuit, with a coefficient of determination of 93.17%, and an accuracy in the measures of ±0.010 kg kg-1. Based on the results, it was concluded that the sensor and its implemented measuring circuit can be used in the automation process of irrigation systems.
Resumo:
Rates and products of the oxidation of diphenyl sulfide, phenyl methyl sulfide, p-chlorophenyl methyl sulfide and diphenyl sulfoxide have been determined. Oxidants included t-Bu02H alone, t-Bu02H plus molybdenum or vanadium catalysts and the molybdenum peroxo complex Mo0(02)2*HMPT. Reactions were chiefly carried out in ethanol at temperatures ranging from 20° to 65°C. Oxidation of diphenyl sulfide by t-Bu02H in absolute ethanol at 65°C followed second-order kinetics with k2 = 5.61 x 10 G M~1s"1, and yielded only diphenyl sulfoxide. The Mo(C0)g-catalyzed reaction gave both the sulfoxide and the sulfone with consecutive third-order kinetics. Rate = k3[Mo][t-Bu02H][Ph2S] + k^[Mo][t-Bu02H][Ph2S0], where log k3 = 12.62 - 18500/RT, and log k^ = 10.73 - 17400/RT. In the absence of diphenyl sulfide, diphenyl sulfoxide did not react with t-Bu02H plus molybdenum catalysts, but was oxidized by t-Bu02H-V0(acac)2. The uncatalyzed oxidation of phenyl methyl sulfide by t-Bu02H in absolute ethanol at 65°C gave a second-order rate constant, k = 3.48 x 10~"5 M^s""1. With added Mo(C0)g, the product was mainly phenyl methyl sulfoxide; Rate = k3[Mo][t-Bu02H][PhSCH3] where log k3 = 22.0 - 44500/RT. Both diphenyl sulfide and diphenyl sulfoxide react readily with the molybdenum peroxy complex, Mo0(02)2'HMPT in absolute ethanol at 35°C, yielding diphenyl sulfone. The observed features are mainly in agreement with the literature on metal ion-catalyzed oxidations of organic compounds by hydroperoxides. These indicate the formation of an active catalyst and the complexation of t-Bu02H with the catalyst. However, the relatively large difference between the activation energies for diphenyl sulfide and phenyl methyl sulfide, and the non-reactivity of diphenyl sulfoxide suggest the involvement of sulfide in the production of an active species.
Resumo:
Nous présentons dans cette thèse des théorèmes d’existence pour des systèmes d’équations différentielles non-linéaires d’ordre trois, pour des systèmes d’équa- tions et d’inclusions aux échelles de temps non-linéaires d’ordre un et pour des systèmes d’équations aux échelles de temps non-linéaires d’ordre deux sous cer- taines conditions aux limites. Dans le chapitre trois, nous introduirons une notion de tube-solution pour obtenir des théorèmes d’existence pour des systèmes d’équations différentielles du troisième ordre. Cette nouvelle notion généralise aux systèmes les notions de sous- et sur-solutions pour le problème aux limites de l’équation différentielle du troisième ordre étudiée dans [34]. Dans la dernière section de ce chapitre, nous traitons les systèmes d’ordre trois lorsque f est soumise à une condition de crois- sance de type Wintner-Nagumo. Pour admettre l’existence de solutions d’un tel système, nous aurons recours à la théorie des inclusions différentielles. Ce résultat d’existence généralise de diverses façons un théorème de Grossinho et Minhós [34]. Le chapitre suivant porte sur l’existence de solutions pour deux types de sys- tèmes d’équations aux échelles de temps du premier ordre. Les résultats d’exis- tence pour ces deux problèmes ont été obtenus grâce à des notions de tube-solution adaptées à ces systèmes. Le premier théorème généralise entre autre aux systèmes et à une échelle de temps quelconque, un résultat obtenu pour des équations aux différences finies par Mawhin et Bereanu [9]. Ce résultat permet également d’obte- nir l’existence de solutions pour de nouveaux systèmes dont on ne pouvait obtenir l’existence en utilisant le résultat de Dai et Tisdell [17]. Le deuxième théorème de ce chapitre généralise quant à lui, sous certaines conditions, des résultats de [60]. Le chapitre cinq aborde un nouveau théorème d’existence pour un système d’in- clusions aux échelles de temps du premier ordre. Selon nos recherches, aucun résultat avant celui-ci ne traitait de l’existence de solutions pour des systèmes d’inclusions de ce type. Ainsi, ce chapitre ouvre de nouvelles possibilités dans le domaine des inclusions aux échelles de temps. Notre résultat a été obtenu encore une fois à l’aide d’une hypothèse de tube-solution adaptée au problème. Au chapitre six, nous traitons l’existence de solutions pour des systèmes d’équations aux échelles de temps d’ordre deux. Le premier théorème d’existence que nous obtenons généralise les résultats de [36] étant donné que l’hypothèse que ces auteurs utilisent pour faire la majoration a priori est un cas particulier de notre hypothèse de tube-solution pour ce type de systèmes. Notons également que notre définition de tube-solution généralise aux systèmes les notions de sous- et sur-solutions introduites pour les équations d’ordre deux par [4] et [55]. Ainsi, nous généralisons également des résultats obtenus pour des équations aux échelles de temps d’ordre deux. Finalement, nous proposons un nouveau résultat d’exis- tence pour un système dont le membre droit des équations dépend de la ∆-dérivée de la fonction.
Resumo:
Dans cette thèse, nous proposons de nouveaux résultats de systèmes superintégrables séparables en coordonnées polaires. Dans un premier temps, nous présentons une classification complète de tous les systèmes superintégrables séparables en coordonnées polaires qui admettent une intégrale du mouvement d'ordre trois. Des potentiels s'exprimant en terme de la sixième transcendante de Painlevé et de la fonction elliptique de Weierstrass sont présentés. Ensuite, nous introduisons une famille infinie de systèmes classiques et quantiques intégrables et exactement résolubles en coordonnées polaires. Cette famille s'exprime en terme d'un paramètre k. Le spectre d'énergie et les fonctions d'onde des systèmes quantiques sont présentés. Une conjecture postulant la superintégrabilité de ces systèmes est formulée et est vérifiée pour k=1,2,3,4. L'ordre des intégrales du mouvement proposées est 2k où k ∈ ℕ. La structure algébrique de la famille de systèmes quantiques est formulée en terme d'une algèbre cachée où le nombre de générateurs dépend du paramètre k. Une généralisation quasi-exactement résoluble et intégrable de la famille de potentiels est proposée. Finalement, les trajectoires classiques de la famille de systèmes sont calculées pour tous les cas rationnels k ∈ ℚ. Celles-ci s'expriment en terme des polynômes de Chebyshev. Les courbes associées aux trajectoires sont présentées pour les premiers cas k=1, 2, 3, 4, 1/2, 1/3 et 3/2 et les trajectoires bornées sont fermées et périodiques dans l'espace des phases. Ainsi, les résultats obtenus viennent renforcer la possible véracité de la conjecture.
Resumo:
Cette thèse porte sur l’introduction des politiques de transfert de revenu au Brésil. L’objectif central de la recherche est de comprendre comment ces politiques se sont imposées dans le cadre des réformes de la protection sociale brésilienne pendant les années 1990, notamment à partir de 1995 et comment elles ont engendré un changement paradigmatique de troisième ordre de la politique nationale d’assistance sociale. Nous posons deux hypothèses de recherche : la première est que l’introduction de telles politiques au Brésil fut le résultat du rôle historique des intellectuels engagés dans la défense du revenu minimum en tant qu’alternative au modèle de protection sociale brésilien. Cette défense du revenu minimum fut soutenue par des intellectuels, des communautés épistémiques et par des politiciens qui ont inscrit le débat sur le revenu minimum à l’agenda politique brésilien. La deuxième hypothèse suggère que la convergence d’idées, d’institutions et d’intérêts a favorisé l’adoption de ces politiques. Cette convergence d’idées, d’institutions et d’intérêts repose sur le rôle de plusieurs acteurs tels les intellectuels, le président Cardoso et d’autres politiciens qui se sont mis à la défense du social au Brésil depuis 1999, des institutions parlementaires brésiliennes et des organisations internationales, notamment le FMI, la Banque mondiale et la Banque interaméricaine de développement – BID. Nous proposons l’approche des trois i pour rendre compte de ce changement. L’apprentissage social, les processus de diffusion et de lesson-drawing sont les facteurs à l’origine de la formation de la convergence autour des programmes de transfert de revenu. Nous montrerons que l’expérience brésilienne de programmes de transfert de revenu a non seulement engendré un processus d’apprentissage social renversé auprès de la Banque Mondiale mais qu'elle a aussi eu un effet aussi sur les actions de la BID. Nous suggérons que le changement paradigmatique de la protection sociale brésilienne a été amorcé par le gouvernement Cardoso dans un processus d’essais et d’erreurs. Ce processus, qui est à l’origine des réaménagements du programme « Comunidade Solidária », a permis la création du « Projeto Alvorada » et du « Réseau de protection sociale » en 2001. Les programmes de transfert de revenu reliés à l’éducation et aux soins de santé ont été les plus influents dans la construction du consensus qui s’est établi autour des programmes de transfert de revenu comme alternative à l’ancien modèle de protection sociale puisqu’ils procurent le renforcement du capital social en même temps qu’ils fonctionnent comme facteur structurant de la protection sociale. Ce legs du gouvernement Cardoso a permis au gouvernement de Luis Inácio Lula da Silva de consolider le nouveau paradigme avec la création du programme national Bolsa-Família. Le gouvernement Lula a donc bénéficié de l’héritage historique des deux mandats de Cardoso et, ironiquement, a récolté les fruits de l’apprentissage social. Le phénomène du « lulismo » en est la preuve. Par ailleurs, cette thèse met en question la paternité du programme Bolsa-Família puisqu’elle montre la création de ce programme d'abord comme la consolidation du processus d’apprentissage et puis comme conséquence de la création d’un nouveau paradigme pour la politique d’assistance sociale au Brésil qui a eu lieu pendant les deux mandats de Cardoso.
Resumo:
Ce mémoire est une poursuite de l’étude de la superintégrabilité classique et quantique dans un espace euclidien de dimension deux avec une intégrale du mouvement d’ordre trois. Il est constitué d’un article. Puisque les classifications de tous les Hamiltoniens séparables en coordonnées cartésiennes et polaires sont déjà complétées, nous apportons à ce tableau l’étude de ces systèmes séparables en coordonnées paraboliques. Premièrement, nous dérivons les équations déterminantes d’un système en coordonnées paraboliques et ensuite nous résolvons les équations obtenues afin de trouver les intégrales d’ordre trois pour un potentiel qui permet la séparation en coordonnées paraboliques. Finalement, nous démontrons que toutes les intégrales d’ordre trois pour les potentiels séparables en coordonnées paraboliques dans l’espace euclidien de dimension deux sont réductibles. Dans la conclusion de l’article nous analysons les différences entre les potentiels séparables en coordonnées cartésiennes et polaires d’un côté et en coordonnées paraboliques d’une autre côté. Mots clés: intégrabilité, superintégrabilité, mécanique classique, mécanique quantique, Hamiltonien, séparation de variable, commutation.
Resumo:
Statistical evidence is reported that even outside disaster periods, agents face negative consumption skewness, as well as positive inflation skewness. Quantitative implications of skewness risk for nominal loan contracts in a pure exchange economy are derived. Key modeling assumptions are Epstein-Zin preferences for traders and asymmetric distributions for consumption and inflation innovations. The model is solved using a third-order perturbation and estimated by the simulated method of moments. Results show that skewness risk accounts for 6 to 7 percent of the risk premia depending on the bond maturity.
Resumo:
Nous développons dans cette thèse, des méthodes de bootstrap pour les données financières de hautes fréquences. Les deux premiers essais focalisent sur les méthodes de bootstrap appliquées à l’approche de "pré-moyennement" et robustes à la présence d’erreurs de microstructure. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. En se basant sur cette ap- proche d’estimation de la volatilité intégrée en présence d’erreurs de microstructure, nous développons plusieurs méthodes de bootstrap qui préservent la structure de dépendance et l’hétérogénéité dans la moyenne des données originelles. Le troisième essai développe une méthode de bootstrap sous l’hypothèse de Gaussianité locale des données financières de hautes fréquences. Le premier chapitre est intitulé: "Bootstrap inference for pre-averaged realized volatility based on non-overlapping returns". Nous proposons dans ce chapitre, des méthodes de bootstrap robustes à la présence d’erreurs de microstructure. Particulièrement nous nous sommes focalisés sur la volatilité réalisée utilisant des rendements "pré-moyennés" proposés par Podolskij et Vetter (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à hautes fréquences consécutifs qui ne se chevauchent pas. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. Le non-chevauchement des blocs fait que les rendements "pré-moyennés" sont asymptotiquement indépendants, mais possiblement hétéroscédastiques. Ce qui motive l’application du wild bootstrap dans ce contexte. Nous montrons la validité théorique du bootstrap pour construire des intervalles de type percentile et percentile-t. Les simulations Monte Carlo montrent que le bootstrap peut améliorer les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques, pourvu que le choix de la variable externe soit fait de façon appropriée. Nous illustrons ces méthodes en utilisant des données financières réelles. Le deuxième chapitre est intitulé : "Bootstrapping pre-averaged realized volatility under market microstructure noise". Nous développons dans ce chapitre une méthode de bootstrap par bloc basée sur l’approche "pré-moyennement" de Jacod et al. (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à haute fréquences consécutifs qui se chevauchent. Le chevauchement des blocs induit une forte dépendance dans la structure des rendements "pré-moyennés". En effet les rendements "pré-moyennés" sont m-dépendant avec m qui croît à une vitesse plus faible que la taille d’échantillon n. Ceci motive l’application d’un bootstrap par bloc spécifique. Nous montrons que le bloc bootstrap suggéré par Bühlmann et Künsch (1995) n’est valide que lorsque la volatilité est constante. Ceci est dû à l’hétérogénéité dans la moyenne des rendements "pré-moyennés" au carré lorsque la volatilité est stochastique. Nous proposons donc une nouvelle procédure de bootstrap qui combine le wild bootstrap et le bootstrap par bloc, de telle sorte que la dépendance sérielle des rendements "pré-moyennés" est préservée à l’intérieur des blocs et la condition d’homogénéité nécessaire pour la validité du bootstrap est respectée. Sous des conditions de taille de bloc, nous montrons que cette méthode est convergente. Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques. Nous illustrons cette méthode en utilisant des données financières réelles. Le troisième chapitre est intitulé: "Bootstrapping realized covolatility measures under local Gaussianity assumption". Dans ce chapitre nous montrons, comment et dans quelle mesure on peut approximer les distributions des estimateurs de mesures de co-volatilité sous l’hypothèse de Gaussianité locale des rendements. En particulier nous proposons une nouvelle méthode de bootstrap sous ces hypothèses. Nous nous sommes focalisés sur la volatilité réalisée et sur le beta réalisé. Nous montrons que la nouvelle méthode de bootstrap appliquée au beta réalisé était capable de répliquer les cummulants au deuxième ordre, tandis qu’il procurait une amélioration au troisième degré lorsqu’elle est appliquée à la volatilité réalisée. Ces résultats améliorent donc les résultats existants dans cette littérature, notamment ceux de Gonçalves et Meddahi (2009) et de Dovonon, Gonçalves et Meddahi (2013). Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques et les résultats de bootstrap existants. Nous illustrons cette méthode en utilisant des données financières réelles.
Resumo:
L’apprentissage supervisé de réseaux hiérarchiques à grande échelle connaît présentement un succès fulgurant. Malgré cette effervescence, l’apprentissage non-supervisé représente toujours, selon plusieurs chercheurs, un élément clé de l’Intelligence Artificielle, où les agents doivent apprendre à partir d’un nombre potentiellement limité de données. Cette thèse s’inscrit dans cette pensée et aborde divers sujets de recherche liés au problème d’estimation de densité par l’entremise des machines de Boltzmann (BM), modèles graphiques probabilistes au coeur de l’apprentissage profond. Nos contributions touchent les domaines de l’échantillonnage, l’estimation de fonctions de partition, l’optimisation ainsi que l’apprentissage de représentations invariantes. Cette thèse débute par l’exposition d’un nouvel algorithme d'échantillonnage adaptatif, qui ajuste (de fa ̧con automatique) la température des chaînes de Markov sous simulation, afin de maintenir une vitesse de convergence élevée tout au long de l’apprentissage. Lorsqu’utilisé dans le contexte de l’apprentissage par maximum de vraisemblance stochastique (SML), notre algorithme engendre une robustesse accrue face à la sélection du taux d’apprentissage, ainsi qu’une meilleure vitesse de convergence. Nos résultats sont présent ́es dans le domaine des BMs, mais la méthode est générale et applicable à l’apprentissage de tout modèle probabiliste exploitant l’échantillonnage par chaînes de Markov. Tandis que le gradient du maximum de vraisemblance peut-être approximé par échantillonnage, l’évaluation de la log-vraisemblance nécessite un estimé de la fonction de partition. Contrairement aux approches traditionnelles qui considèrent un modèle donné comme une boîte noire, nous proposons plutôt d’exploiter la dynamique de l’apprentissage en estimant les changements successifs de log-partition encourus à chaque mise à jour des paramètres. Le problème d’estimation est reformulé comme un problème d’inférence similaire au filtre de Kalman, mais sur un graphe bi-dimensionnel, où les dimensions correspondent aux axes du temps et au paramètre de température. Sur le thème de l’optimisation, nous présentons également un algorithme permettant d’appliquer, de manière efficace, le gradient naturel à des machines de Boltzmann comportant des milliers d’unités. Jusqu’à présent, son adoption était limitée par son haut coût computationel ainsi que sa demande en mémoire. Notre algorithme, Metric-Free Natural Gradient (MFNG), permet d’éviter le calcul explicite de la matrice d’information de Fisher (et son inverse) en exploitant un solveur linéaire combiné à un produit matrice-vecteur efficace. L’algorithme est prometteur: en terme du nombre d’évaluations de fonctions, MFNG converge plus rapidement que SML. Son implémentation demeure malheureusement inefficace en temps de calcul. Ces travaux explorent également les mécanismes sous-jacents à l’apprentissage de représentations invariantes. À cette fin, nous utilisons la famille de machines de Boltzmann restreintes “spike & slab” (ssRBM), que nous modifions afin de pouvoir modéliser des distributions binaires et parcimonieuses. Les variables latentes binaires de la ssRBM peuvent être rendues invariantes à un sous-espace vectoriel, en associant à chacune d’elles, un vecteur de variables latentes continues (dénommées “slabs”). Ceci se traduit par une invariance accrue au niveau de la représentation et un meilleur taux de classification lorsque peu de données étiquetées sont disponibles. Nous terminons cette thèse sur un sujet ambitieux: l’apprentissage de représentations pouvant séparer les facteurs de variations présents dans le signal d’entrée. Nous proposons une solution à base de ssRBM bilinéaire (avec deux groupes de facteurs latents) et formulons le problème comme l’un de “pooling” dans des sous-espaces vectoriels complémentaires.
Resumo:
Les questions abordées dans les deux premiers articles de ma thèse cherchent à comprendre les facteurs économiques qui affectent la structure à terme des taux d'intérêt et la prime de risque. Je construis des modèles non linéaires d'équilibre général en y intégrant des obligations de différentes échéances. Spécifiquement, le premier article a pour objectif de comprendre la relation entre les facteurs macroéconomiques et le niveau de prime de risque dans un cadre Néo-keynésien d'équilibre général avec incertitude. L'incertitude dans le modèle provient de trois sources : les chocs de productivité, les chocs monétaires et les chocs de préférences. Le modèle comporte deux types de rigidités réelles à savoir la formation des habitudes dans les préférences et les coûts d'ajustement du stock de capital. Le modèle est résolu par la méthode des perturbations à l'ordre deux et calibré à l'économie américaine. Puisque la prime de risque est par nature une compensation pour le risque, l'approximation d'ordre deux implique que la prime de risque est une combinaison linéaire des volatilités des trois chocs. Les résultats montrent qu'avec les paramètres calibrés, les chocs réels (productivité et préférences) jouent un rôle plus important dans la détermination du niveau de la prime de risque relativement aux chocs monétaires. Je montre que contrairement aux travaux précédents (dans lesquels le capital de production est fixe), l'effet du paramètre de la formation des habitudes sur la prime de risque dépend du degré des coûts d'ajustement du capital. Lorsque les coûts d'ajustement du capital sont élevés au point que le stock de capital est fixe à l'équilibre, une augmentation du paramètre de formation des habitudes entraine une augmentation de la prime de risque. Par contre, lorsque les agents peuvent librement ajuster le stock de capital sans coûts, l'effet du paramètre de la formation des habitudes sur la prime de risque est négligeable. Ce résultat s'explique par le fait que lorsque le stock de capital peut être ajusté sans coûts, cela ouvre un canal additionnel de lissage de consommation pour les agents. Par conséquent, l'effet de la formation des habitudes sur la prime de risque est amoindri. En outre, les résultats montrent que la façon dont la banque centrale conduit sa politique monétaire a un effet sur la prime de risque. Plus la banque centrale est agressive vis-à-vis de l'inflation, plus la prime de risque diminue et vice versa. Cela est due au fait que lorsque la banque centrale combat l'inflation cela entraine une baisse de la variance de l'inflation. Par suite, la prime de risque due au risque d'inflation diminue. Dans le deuxième article, je fais une extension du premier article en utilisant des préférences récursives de type Epstein -- Zin et en permettant aux volatilités conditionnelles des chocs de varier avec le temps. L'emploi de ce cadre est motivé par deux raisons. D'abord des études récentes (Doh, 2010, Rudebusch and Swanson, 2012) ont montré que ces préférences sont appropriées pour l'analyse du prix des actifs dans les modèles d'équilibre général. Ensuite, l'hétéroscedasticité est une caractéristique courante des données économiques et financières. Cela implique que contrairement au premier article, l'incertitude varie dans le temps. Le cadre dans cet article est donc plus général et plus réaliste que celui du premier article. L'objectif principal de cet article est d'examiner l'impact des chocs de volatilités conditionnelles sur le niveau et la dynamique des taux d'intérêt et de la prime de risque. Puisque la prime de risque est constante a l'approximation d'ordre deux, le modèle est résolu par la méthode des perturbations avec une approximation d'ordre trois. Ainsi on obtient une prime de risque qui varie dans le temps. L'avantage d'introduire des chocs de volatilités conditionnelles est que cela induit des variables d'état supplémentaires qui apportent une contribution additionnelle à la dynamique de la prime de risque. Je montre que l'approximation d'ordre trois implique que les primes de risque ont une représentation de type ARCH-M (Autoregressive Conditional Heteroscedasticty in Mean) comme celui introduit par Engle, Lilien et Robins (1987). La différence est que dans ce modèle les paramètres sont structurels et les volatilités sont des volatilités conditionnelles de chocs économiques et non celles des variables elles-mêmes. J'estime les paramètres du modèle par la méthode des moments simulés (SMM) en utilisant des données de l'économie américaine. Les résultats de l'estimation montrent qu'il y a une évidence de volatilité stochastique dans les trois chocs. De plus, la contribution des volatilités conditionnelles des chocs au niveau et à la dynamique de la prime de risque est significative. En particulier, les effets des volatilités conditionnelles des chocs de productivité et de préférences sont significatifs. La volatilité conditionnelle du choc de productivité contribue positivement aux moyennes et aux écart-types des primes de risque. Ces contributions varient avec la maturité des bonds. La volatilité conditionnelle du choc de préférences quant à elle contribue négativement aux moyennes et positivement aux variances des primes de risque. Quant au choc de volatilité de la politique monétaire, son impact sur les primes de risque est négligeable. Le troisième article (coécrit avec Eric Schaling, Alain Kabundi, révisé et resoumis au journal of Economic Modelling) traite de l'hétérogénéité dans la formation des attentes d'inflation de divers groupes économiques et de leur impact sur la politique monétaire en Afrique du sud. La question principale est d'examiner si différents groupes d'agents économiques forment leurs attentes d'inflation de la même façon et s'ils perçoivent de la même façon la politique monétaire de la banque centrale (South African Reserve Bank). Ainsi on spécifie un modèle de prédiction d'inflation qui nous permet de tester l'arrimage des attentes d'inflation à la bande d'inflation cible (3% - 6%) de la banque centrale. Les données utilisées sont des données d'enquête réalisée par la banque centrale auprès de trois groupes d'agents : les analystes financiers, les firmes et les syndicats. On exploite donc la structure de panel des données pour tester l'hétérogénéité dans les attentes d'inflation et déduire leur perception de la politique monétaire. Les résultats montrent qu'il y a évidence d'hétérogénéité dans la manière dont les différents groupes forment leurs attentes. Les attentes des analystes financiers sont arrimées à la bande d'inflation cible alors que celles des firmes et des syndicats ne sont pas arrimées. En effet, les firmes et les syndicats accordent un poids significatif à l'inflation retardée d'une période et leurs prédictions varient avec l'inflation réalisée (retardée). Ce qui dénote un manque de crédibilité parfaite de la banque centrale au vu de ces agents.