379 resultados para Menace réaliste
Resumo:
Les questions abordées dans les deux premiers articles de ma thèse cherchent à comprendre les facteurs économiques qui affectent la structure à terme des taux d'intérêt et la prime de risque. Je construis des modèles non linéaires d'équilibre général en y intégrant des obligations de différentes échéances. Spécifiquement, le premier article a pour objectif de comprendre la relation entre les facteurs macroéconomiques et le niveau de prime de risque dans un cadre Néo-keynésien d'équilibre général avec incertitude. L'incertitude dans le modèle provient de trois sources : les chocs de productivité, les chocs monétaires et les chocs de préférences. Le modèle comporte deux types de rigidités réelles à savoir la formation des habitudes dans les préférences et les coûts d'ajustement du stock de capital. Le modèle est résolu par la méthode des perturbations à l'ordre deux et calibré à l'économie américaine. Puisque la prime de risque est par nature une compensation pour le risque, l'approximation d'ordre deux implique que la prime de risque est une combinaison linéaire des volatilités des trois chocs. Les résultats montrent qu'avec les paramètres calibrés, les chocs réels (productivité et préférences) jouent un rôle plus important dans la détermination du niveau de la prime de risque relativement aux chocs monétaires. Je montre que contrairement aux travaux précédents (dans lesquels le capital de production est fixe), l'effet du paramètre de la formation des habitudes sur la prime de risque dépend du degré des coûts d'ajustement du capital. Lorsque les coûts d'ajustement du capital sont élevés au point que le stock de capital est fixe à l'équilibre, une augmentation du paramètre de formation des habitudes entraine une augmentation de la prime de risque. Par contre, lorsque les agents peuvent librement ajuster le stock de capital sans coûts, l'effet du paramètre de la formation des habitudes sur la prime de risque est négligeable. Ce résultat s'explique par le fait que lorsque le stock de capital peut être ajusté sans coûts, cela ouvre un canal additionnel de lissage de consommation pour les agents. Par conséquent, l'effet de la formation des habitudes sur la prime de risque est amoindri. En outre, les résultats montrent que la façon dont la banque centrale conduit sa politique monétaire a un effet sur la prime de risque. Plus la banque centrale est agressive vis-à-vis de l'inflation, plus la prime de risque diminue et vice versa. Cela est due au fait que lorsque la banque centrale combat l'inflation cela entraine une baisse de la variance de l'inflation. Par suite, la prime de risque due au risque d'inflation diminue. Dans le deuxième article, je fais une extension du premier article en utilisant des préférences récursives de type Epstein -- Zin et en permettant aux volatilités conditionnelles des chocs de varier avec le temps. L'emploi de ce cadre est motivé par deux raisons. D'abord des études récentes (Doh, 2010, Rudebusch and Swanson, 2012) ont montré que ces préférences sont appropriées pour l'analyse du prix des actifs dans les modèles d'équilibre général. Ensuite, l'hétéroscedasticité est une caractéristique courante des données économiques et financières. Cela implique que contrairement au premier article, l'incertitude varie dans le temps. Le cadre dans cet article est donc plus général et plus réaliste que celui du premier article. L'objectif principal de cet article est d'examiner l'impact des chocs de volatilités conditionnelles sur le niveau et la dynamique des taux d'intérêt et de la prime de risque. Puisque la prime de risque est constante a l'approximation d'ordre deux, le modèle est résolu par la méthode des perturbations avec une approximation d'ordre trois. Ainsi on obtient une prime de risque qui varie dans le temps. L'avantage d'introduire des chocs de volatilités conditionnelles est que cela induit des variables d'état supplémentaires qui apportent une contribution additionnelle à la dynamique de la prime de risque. Je montre que l'approximation d'ordre trois implique que les primes de risque ont une représentation de type ARCH-M (Autoregressive Conditional Heteroscedasticty in Mean) comme celui introduit par Engle, Lilien et Robins (1987). La différence est que dans ce modèle les paramètres sont structurels et les volatilités sont des volatilités conditionnelles de chocs économiques et non celles des variables elles-mêmes. J'estime les paramètres du modèle par la méthode des moments simulés (SMM) en utilisant des données de l'économie américaine. Les résultats de l'estimation montrent qu'il y a une évidence de volatilité stochastique dans les trois chocs. De plus, la contribution des volatilités conditionnelles des chocs au niveau et à la dynamique de la prime de risque est significative. En particulier, les effets des volatilités conditionnelles des chocs de productivité et de préférences sont significatifs. La volatilité conditionnelle du choc de productivité contribue positivement aux moyennes et aux écart-types des primes de risque. Ces contributions varient avec la maturité des bonds. La volatilité conditionnelle du choc de préférences quant à elle contribue négativement aux moyennes et positivement aux variances des primes de risque. Quant au choc de volatilité de la politique monétaire, son impact sur les primes de risque est négligeable. Le troisième article (coécrit avec Eric Schaling, Alain Kabundi, révisé et resoumis au journal of Economic Modelling) traite de l'hétérogénéité dans la formation des attentes d'inflation de divers groupes économiques et de leur impact sur la politique monétaire en Afrique du sud. La question principale est d'examiner si différents groupes d'agents économiques forment leurs attentes d'inflation de la même façon et s'ils perçoivent de la même façon la politique monétaire de la banque centrale (South African Reserve Bank). Ainsi on spécifie un modèle de prédiction d'inflation qui nous permet de tester l'arrimage des attentes d'inflation à la bande d'inflation cible (3% - 6%) de la banque centrale. Les données utilisées sont des données d'enquête réalisée par la banque centrale auprès de trois groupes d'agents : les analystes financiers, les firmes et les syndicats. On exploite donc la structure de panel des données pour tester l'hétérogénéité dans les attentes d'inflation et déduire leur perception de la politique monétaire. Les résultats montrent qu'il y a évidence d'hétérogénéité dans la manière dont les différents groupes forment leurs attentes. Les attentes des analystes financiers sont arrimées à la bande d'inflation cible alors que celles des firmes et des syndicats ne sont pas arrimées. En effet, les firmes et les syndicats accordent un poids significatif à l'inflation retardée d'une période et leurs prédictions varient avec l'inflation réalisée (retardée). Ce qui dénote un manque de crédibilité parfaite de la banque centrale au vu de ces agents.
Resumo:
Cette thèse présente des reconstructions de l'irradiance totale et spectrale durant les 400 dernières années à l'aide des modèles pour l'irradiance totale et l'irradiance spectrale dans l'ultraviolet développés à l'Université de Montréal. Tous deux sont basés sur la simulation de l'émergence, de la fragmentation et de l'érosion des taches solaires, qui permet d'obtenir une distribution de l'aire des taches sombres et des facules brillantes en fonction du temps. Ces deux composantes sont principalement responsables de la variation de l'irradiance sur l'échelle de temps de la décennie, qui peut être calculée en sommant leur émissivité à celle de la photosphère inactive. La version améliorée du modèle d'irradiance solaire spectrale MOCASSIM inclut une extension de son domaine spectral entre 150 et 400 nm ainsi que de son domaine temporel, débutant originalement en 1874 et couvrant maintenant la période débutant en 1610 jusqu'au présent. Cela permet de reconstruire le spectre ultraviolet durant le minimum de Maunder et de le comparer à celui du minimum de 2009. Les conclusions tirées de cette étude spécifient que l'émissivité dans l'ultraviolet était plus élevée en 2009 que durant le minimum de Maunder, que le niveau de base de la photosphère non magnétisée contribuait pour environ les deux tiers de cette différence et que les structures magnétiques restantes étaient responsables pour le tiers restant. Le modèle d'irradiance totale a vu son domaine temporel étendu sur la même période et une composante représentant le réseau magnétique de façon réaliste y a été ajoutée. Il a été démontré que les observations des 30 dernières années ne sont bien reproduites qu'en incluant la composante du Soleil non magnétisé variable à long terme. Le processus d'optimisation des paramètres libres du modèle a été effectué en minimisant le carré de la somme de l'écart journalier entre les résultats des calculs et les données observées. Les trois composites disponibles, soit celui du PMOD (Physikalisch Meteorologisches Observatorium Davos), d'ACRIM (ACtive Radiometer Irradiance Monitor) et du IRMB (Institut Royal Météorologique de Belgique), ne sont pas en accord entre eux, en particulier au niveau des minima du cycle d'activité, et le modèle permet seulement de reproduire celui du PMOD avec exactitude lorsque la composante variable à long terme est proportionnelle au flux radio à 10.7 cm. Toutefois, en utilisant des polynômes de Lagrange pour représenter la variation du Soleil inactif, l'accord est amélioré pour les trois composites durant les minima, bien que les relations entre le niveau minimal de l'irradiance et la longueur du cycle précédent varient d'un cas à l'autre. Les résultats obtenus avec le modèle d'irradiance spectrale ont été utilisés dans une étude d'intercomparaison de la réponse de la photochimie stratosphérique à différentes représentations du spectre solaire. Les simulations en mode transitoire d'une durée de 10 jours ont été effectuées avec un spectre solaire constant correspondant soit à une période d'activité minimale ou à une période d'activité maximale. Ceci a permis d'évaluer la réponse de la concentration d'ozone à la variabilité solaire au cours d'un cycle et la différence entre deux minima. En plus de ceux de MOCASSIM, les spectres produits par deux modèles ont été utilisés (NRLSSI et MGNM) ainsi que les données de SIM et SOLSTICE/SORCE. La variabilité spectrale de chacun a été extraite et multipliée à un spectre de base représentant le minimum d'activité afin de simuler le spectre au maximum d'activité. Cela a été effectué dans le but d'isoler l'effet de la variabilité seule et d'exclure celui de la valeur absolue du spectre. La variabilité spectrale d'amplitude relativement élevée des observations de SORCE n'a pas provoqué l'inversion de la réponse de l'ozone à hautes altitudes obtenues par d'autres études, ce qui peut être expliqué par la nature même du modèle utilisé ainsi que par sa limite supérieure en altitude. Finalement, la réponse de l'ozone semble être à peu près proportionnelle à la variabilité de l'intégrale du flux pour lambda<241 nm. La comparaison des concentrations d'ozone obtenues avec les spectres originaux au minimum d'activité démontre que leur différence est du même ordre de grandeur que la variabilité entre le minimum et le maximum d'un cycle typique. Le problème du choix de la reconstruction de l'irradiance à utiliser pour les simulations climatiques dans le passé demeure non résolu.
Resumo:
Full Text / Article complet
Resumo:
Full Text / Article complet
Resumo:
Cette thèse théorique porte sur la psychothérapie et en particulier sur deux formes - la psychanalyse et la thérapie brève de l'école de Palo Alto - qu'elle entend examiner dans le cadre de débats portant principalement sur les efforts métathéoriques pour penser la modernité, la postmodernité et les phénomènes qui les accompagnent: rationalisation, individualisation, scepticisme ou relativisme cognitif et moral. Il est proposé que la psychothérapie puisse être considérée, au-delà de ce qui a été dit sur le caractère essentiellement narcissique de cette pratique, comme une contribution à l’émancipation sociale en favorisant le développement moral des personnes. Il s’agit ici de montrer que l’on peut faire une autre lecture de cette réalité, et ce à l’aide de ressources fournies par la tradition sociologique. Ce développement moral des personnes serait favorisé par un fonctionnement autoréflexif et des compétences communicationnelles, ces dernières traduisant, dans la pensée d’Habermas, la conscience morale. Mais pour qu’il y ait fonctionnement autoréflexif, il faut pouvoir accepter une capacité à connaître, à se connaître, ce que n’admettent pas d’emblée les thérapies influencées par le postmodernisme. Or l’examen des discours tenus par les praticiens eux-mêmes sur leurs pratiques révèle une influence du postmodernisme, que ce soit sous la forme du constructivisme, du constructionnisme social ou plus généralement d’un certain scepticisme et d’un refus concomitant de l'expertise et de l'autorité, une situation paradoxale pour une pratique professionnelle. Les deux formes de thérapies retenues censées représenter les deux pôles de l'intervention thérapeutique - le pôle technique, stratégique et le pôle expressiviste, communicationnel – sont examinées à la lumière de propositions mises de l’avant par Habermas, notamment sur les rationalités stratégique et communicationnelle ainsi que la situation idéale de parole. La psychothérapie apparait ici comme une contribution inestimable à une rationalisation du monde vécu. Forte d’un approfondissement des notions de modernité et de postmodernisme, l’exploration se poursuit avec une critique détaillée d’ouvrages de Foucault portant sur les pratiques disciplinaires, la grande objection à concevoir les psychothérapies comme émancipatrices. La thèse tend à démontrer que ces analyses ne reflètent plus une situation contemporaine. Enfin, la thèse examine le débat entre Habermas et Foucault sous l'angle des rapports critique-pouvoir : si le savoir est toujours le produit de rapports de pouvoir et s’il a toujours des effets de pouvoir, comment peut-il prétendre être critique ? Il en ressort que l'œuvre d’Habermas, en plus de posséder beaucoup plus d'attributs susceptibles d'appuyer la problématique, offre une théorisation plus équilibrée, plus nuancée des gains liés à la modernité, tandis que Foucault, outre qu'il n'offre aucun espoir de progrès ou gains en rationalité, nous lègue une conception du pouvoir à la fois plus réaliste (il est imbriqué dans toute communication et toute interaction), mais plus fataliste, sans possibilité de rédemption par le savoir. La thèse se conclut par un retour sur la notion d’individualisme avec L. Dumont, Lipovetsky, Taylor, ainsi que Bellah et al. pour discuter des phénomènes sociaux liés, pour certains critiques, à l’existence des psychothérapies, notamment l’instrumentalité des relations.
Resumo:
Cette thèse a été réalisée, entre autres, grâce à une subvention reçue du Fonds de recherche du Québec – Société et culture et de son partenaire le ministère de l’Éducation, du Loisir et du Sport (MELS) Les analyses contenues dans cette thèse ont été réalisées au Centre interuniversitaire québécois de statistiques sociales (CIQSS), membre du Réseau canadien des centres de données de recherche (RCCDR). Les activités du CIQSS sont rendues possibles grâce à l’appui financier du CRSHC, des IRSC, de la FCI, de Statistique Canada, du FRQSC ainsi que de l’ensemble des universités québécoises qui participent à leur financement. Les idées exprimées dans ce texte sont celles des auteurs et non celles des partenaires financiers.
Resumo:
L’Empire ottoman, au XIXe siècle, s’affaiblit sans cesse et paraît destiné à s'effondrer. Il est l’objet de convoitises et de rivalités entre les puissances européennes. Sous sa suzeraineté, la Syrie et, avec elle, la région du Mont-Liban, est une zone clé sur le plan stratégique puisqu'elle domine l’accès aux voies menant à l’Inde et à l’Asie méridionale et orientale. La France et l'Angleterre tentent toutes deux de s'y imposer par communautés locales interposées : la première à travers les Maronites, la seconde à l'aide des Druzes. Au printemps 1860, des troubles éclatent entre les deux communautés, entraînant le massacre de milliers de chrétiens. Les puissances européennes, poussées par le gouvernement de Napoléon III, s'entendent pour intervenir au moyen d'une commission d'enquête et l'envoi de troupes. Cette expédition a pour mission officielle d’aider l’Empire ottoman à rétablir l’ordre et à protéger les chrétiens. Le présent mémoire démontre que la France impériale entretenait des visées politiques et économiques à l'égard de la Syrie et du Liban. L'historiographie n'avait jusqu'à présent pas analysé en profondeur les véritables mobiles français dans cette expédition. Les ambitions politiques et économiques ont été beaucoup plus déterminantes dans la décision française de mettre en branle l'expédition que le devoir « humanitaire » de protection des chrétiens ou la satisfaction de son opinion publique. Loin de se laisser abattre par la catastrophe que représentent les massacres qui menace la survie de sa clientèle et donc de son influence en Syrie, Paris, et particulièrement son ministre des Affaires étrangères E. Thouvenel, a réussi à tourner la situation à son avantage. Se servant habilement du désir d'ingérence des autres puissances et de son rôle de protectrice des chrétiens, la France est parvenue à acculer au pied du mur l'Angleterre, qui s'opposait à l'intervention, et à justifier celle-ci sur des principes éloignés de ses objectifs réels. Les troubles ont finalement constitué pour elle une occasion d'augmenter l'autonomie de la Montagne par rapport au pouvoir central et la puissance économique et politique de sa clientèle à travers la révision du statut administratif de la région. Ce faisant, elle a renforcé son influence dans l'Est méditerranéen et fait un pas de plus vers une domination française en Syrie.
Resumo:
En 1683, la monarchie française expédie en Nouvelle-France trois compagnies d’infanterie de la Marine afin de mettre un terme à la guerre contre les Iroquois qui menace la colonie sous juridiction de la Marine. Ce premier contingent se montrant incapable de mater l’ennemi, le roi envoie d’autres compagnies dirigées par des officiers qui détiennent soit une expérience dans le service de la Marine ou dans les régiments d’infanterie. La guerre dorénavant ouverte avec les colonies britanniques, force l’enracinement de ce corps d’armée au Canada. Les administrateurs vont l’appeler troupes de la Marine. Un autre facteur d’enracinement est la permission que les autorités royales accordent aux nobles de la colonie canadienne de s’engager dans le corps d’officiers. Les Canadiens y deviennent majoritaires quelques décennies plus tard. Plusieurs de ces officiers, notamment nés en colonie ont fait l’objet de biographies. Quelques études se sont penchées sur le corps d’officiers en tant qu’acteur social. Cependant, l’ensemble de la carrière militaire d’un officier des troupes de la Marine en Nouvelle-France n’a jamais été abordé. Les capitaines, étant parvenus au sommet de la hiérarchie des troupes de la Marine avant 1739, constituent le sujet de cette recherche. Ce sera donc les grandes étapes de leur expérience militaire coloniale que l’on tentera d’approfondir tout en prenant en considération le lieu de naissance de l’officier, ce qui nous permet dégager certaines tendances relatives à la carrière d’officiers militaires dans la société d’Ancien Régime.
Resumo:
En synthèse d’images, reproduire les effets complexes de la lumière sur des matériaux transluminescents, tels que la cire, le marbre ou la peau, contribue grandement au réalisme d’une image. Malheureusement, ce réalisme supplémentaire est couteux en temps de calcul. Les modèles basés sur la théorie de la diffusion visent à réduire ce coût en simulant le comportement physique du transport de la lumière sous surfacique tout en imposant des contraintes de variation sur la lumière incidente et sortante. Une composante importante de ces modèles est leur application à évaluer hiérarchiquement l’intégrale numérique de l’illumination sur la surface d’un objet. Cette thèse révise en premier lieu la littérature actuelle sur la simulation réaliste de la transluminescence, avant d’investiguer plus en profondeur leur application et les extensions des modèles de diffusion en synthèse d’images. Ainsi, nous proposons et évaluons une nouvelle technique d’intégration numérique hiérarchique utilisant une nouvelle analyse fréquentielle de la lumière sortante et incidente pour adapter efficacement le taux d’échantillonnage pendant l’intégration. Nous appliquons cette théorie à plusieurs modèles qui correspondent à l’état de l’art en diffusion, octroyant une amélioration possible à leur efficacité et précision.
Resumo:
L'urbanisation représente une menace majeure pour la biodiversité. Ce mémoire de maîtrise vise à comprendre ses effets sur la composition fonctionnelle et l'homogénéisation biotique dans les forêts riveraines. Des inventaires floristiques ont été réalisés dans 57 forêts riveraines de la région de Montréal. Afin d'étudier la variation de la composition fonctionnelle avec l'urbanisation, des moyennes pondérées de traits par communauté ont été calculées pour les arbres, arbustes et herbacées. Chaque forêt a été caractérisée par des variables relatives au paysage urbain environnant, aux conditions locales des forêts et aux processus spatiaux. Les conditions locales, notamment les inondations, exerçaient une pression de sélection dominante sur les traits. L'effet du paysage était indirect, agissant via l'altération des régimes hydrologiques. La dispersion le long des rivières était aussi un processus important dans la structuration des forêts riveraines. Les changements dans la diversité β taxonomique et fonctionnelle des herbacées ont été étudiés entre trois niveaux d'urbanisation et d'inondation. Alors que l'urbanisation a favorisé une différenciation taxonomique, les inondations ont favorisé une homogénéisation taxonomique, sans influencer la diversité β fonctionnelle. L'urbanisation était l'élément déclencheur des changements de la diversité β, directement, en causant un gain en espèces exotiques et une diminution de la richesse totale dans les forêts très urbanisées, et, indirectement, en entraînant un important turnover d'espèces par l'altération des régimes hydrologiques. Globalement, ces résultats suggèrent que la modification des processus naturels par les activités anthropiques est le principal moteur de changements dans les communautés riveraines urbaines.
Resumo:
Full Text / Article complet
Resumo:
Des débats et interventions diverses sur les rapports entre langue et théâtre au Québec, on ne retient souvent que les polémiques ayant entouré, entre 1968 et 1973, la création des premières pièces de Michel Tremblay ainsi que les innombrables prises de position publiques de leur auteur. Dans une perspective sociohistorique, cet article cherche à montrer que — à partir des années 1930, tout particulièrement — une réflexion originale sur la langue au théâtre prend naissance dans un contexte où la critique tente de penser l’autonomie d’un théâtre québécois en émergence. D’où une vive attention à la façon de porter la parole vivante au théâtre (élocution, débit, accent), qu’il s’agit de faire échapper à l’influence de l’art oratoire et de l’éloquence profane ou sacrée. L’importance de la notion centrale de l’époque, le naturel à la scène, se manifeste ensuite sous d’autres formes, notamment à travers la promotion d’un théâtre réaliste, puis social. La dramaturgie et les positions de Marcel Dubé sur la question linguistique, affirmées dès les années 1950, sont exemplaires de cette évolution générale, qui s’inscrit en faux contre une perspective textualiste évacuant de l’oeuvre de théâtre la parole quotidienne, dans toute son imperfection et sa fragilité.
Resumo:
L’objectif de la note de recherche est de relativiser les arguments maîtres utilisés par certains analystes qui confirmeraient que la Chine a entamé depuis quelques années un processus de modernisation navale avec des ambitions de dominer un large espace maritime.
Resumo:
Vuillemin a toujours lu Descartes comme un intuitionniste avant la lettre, si l’on entend par « intuitionniste » un mathématicien qui adopte la philosophie de Brouwer et la logique de Heyting. On se propose dans l’Introduction et la première section de cet article de montrer que cette lecture que Vuillemin fait de Descartes est parfaitement justifiée en expliquant pourquoi les Méditations peuvent être lues comme une application de la logique intuitionniste. La seconde et la troisième section sont respectivement consacrées à l’analyse logique de la preuve du Cogito (Méditation seconde) et de la première preuve de l’existence de Dieu (Méditation troisième). On montre que les deux preuves fondamentales des Méditations métaphysiques de Descartes sont toutes les deux valides en logique intuitionniste. Du point de vue logique, la première preuve de l’existence de Dieu que donne Descartes pourrait être considérée comme un progrès par rapport à la preuve d’Anselme qui est concluante en logique classique mais qui échoue en logique intuitionniste. Cependant on nuance ce jugement en conclusion en insistant sur le fait que le concept de Dieu sur lequel Descartes fonde sa preuve est indiscutablement un élément réaliste et non constructif.
Resumo:
Le paysage philosophique en théorie de l’action contemporaine est largement façonné par l’argument de l’exclusion causale de Kim. Cet argument menace apparemment le physicalisme non réductionniste, posture ontologique qui affirme l’irréductibilité des propriétés mentales aux propriétés physiques. C’est qu’il mène à la conclusion que les propriétés mentales sont soit des propriétés physiques, soit des épiphénomènes, au sens où elles semblent dépourvues de toute efficacité causale. Dans cet article, je vais examiner une tentative récente et prétendument non réductionniste d’éviter les conclusions de l’argument de l’exclusion causale, soit la théorie de la réalisation par sous-ensembles de Shoemaker. Je vais montrer que cette théorie échappe aux critiques de Kim seulement au prix de l’abandon du non-réductionnisme. Je tenterai aussi de prouver que même en s’inspirant des idées de Pereboom sur la réalisation, Shoemaker ne peut échapper au réductionnisme.