969 resultados para Implied inflation


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Affiliation: Département de Biochimie, Université de Montréal

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper studies a dynamic-optimizing model of a semi-small open economy with sticky nominal prices and wages. the model exhibits exchange rate overshooting in response to money supply shocks. the predicted variability of nominal and real exchange rates is roughly consistent with that of G7 effective exchange rates during the post-Bretton Woods era.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper prepared for the Handbook of Statistics (Vol.14: Statistical Methods in Finance), surveys the subject of stochastic volatility. the following subjects are covered: volatility in financial markets (instantaneous volatility of asset returns, implied volatilities in option prices and related stylized facts), statistical modelling in discrete and continuous time and, finally, statistical inference (methods of moments, quasi-maximum likelihood, likelihood-based and bayesian methods and indirect inference).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In This Article, It Is Argued That the Long International, Financial and Economic Cycle (50-60 Years) Is More Than a Statistical Aberration, and Is the Result of Institutional Political, Financial and Economic Conditions Which Are Recurrent. It Is Proposed As an Hypothesis That the Breakdown of International Monetary Systems Is At the Origin of Hte Financial and Economic Long Cycle. Such a Breakdown Starts a Process of Unexpected Inflation, of Balance of Payments Imbalances and of International Indebtedness in a Key-Currency. the Last Stage of This Process Is Characterized by Disinflation, a Speculative Stock Market Boom and a Period of Debt-Liquidation Which Negatively Affect the Real Side of the Economy. Without an International and Automatic Mechanism to Correct the Financial and Economic International Imbalances, the World Economy Runs the Risk of Getting More and More Unstable Until the Turning Point. International Monetary Cooperation Could Contribute in Alleviating the Negative Spillovers Accompanying Hte Adjustment of These Imbalances.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

"Mémoire présenté à la Faculté des études supérieures en vue de l'obtention du grade de Maîtrise en droit (LL.M.)". Ce mémoire a été accepté à l'unanimité et classé parmi les 15% des mémoires de la discipline.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'accès généralisé à Internet a remis en question le droit d'auteur. Au milieu des années 90, il s'en trouvait plusieurs pour annoncer la mort de cette institution vieille de quelques siècles. Force est aujourd'hui de constater que le droit d'auteur est toujours bien vivant bien qu'il ait changé. Les droits économiques, qui ont rapidement été appliqués dans l'environnement numérique, témoignent de ces changements. L'analyse de la transmission numérique des fichiers audio expose les mutations qui affectent deux droits économiques en particulier: le droit de reproduction et le droit de communication au public par télécommunication. Ces mutations résultent tantôt de l'intervention du législateur, tantôt de la façon dont on choisit d'appliquer ces droits dans ce nouvel environnement. Elles ont souvent pour effet d'étendre la portée traditionnelle de ces droits économiques. Cela se fait parfois au détriment des rationalités qui en justifient l'existence. De plus, la nouvelle interaction entre ces droits mutés entraîne des effets sur les différents acteurs du droit d'auteur qui sont parfois discutables. Le droit d'auteur a toujours sa raison d'être. Reste à savoir si la forme actuelle des droits économiques est toujours le meilleur véhicule pour atteindre les objectifs sous-jacents. À l'heure où le législateur envisage une simplification du droit d'auteur, une réflexion s'impose au sujet de la forme des droits économiques. Il est grand temps, du moins dans l'environnement numérique, d'adopter une approche qui se fonde plus sur les effets des actes posés que sur leur nature. L'examen des mutations qui affectent les droits économiques dans cet environnement fait d'ailleurs prendre conscience des limites de notre façon positiviste d'envisager ces droits.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis plusieurs années, on assiste à la création de programmes en prévention du suicide à l’adolescence. L’un de ces programmes repose sur le principe des pairs aidants. Il consiste à former des jeunes dont le rôle est d’apporter du soutien à des camarades qui vivent des difficultés. Or, à notre connaissance, aucune étude n’a comme préoccupation spécifique l’aide apportée par un pair aidant à un élève suicidaire. C’est pourquoi le but de notre étude est de comprendre et d’interpréter le processus suivi par les pairs aidants lors de leur expérience auprès d’un adolescent suicidaire. Nous avons effectué des entrevues auprès de cinq anciens pairs aidants qui avaient joué ce rôle entre une et trois années auparavant. À cause de sa pertinence pour ce type d’étude, l’approche méthodologique choisie a été la théorisation ancrée. La proposition qui a émergé de l’analyse des données est que l’expérience de pairs aidants auprès d’adolescents suicidaires est une mission héroïque à la fois stimulante, « confrontante » et enrichissante. Pour rendre compte de la globalité de cette expérience, vécue comme une mission invitant le pair aidant à prendre un rôle de « héros », trois étapes ont été distinguées. La première étape commence par l’accès au statut de pair aidant. Après être entré en contact avec un camarade suicidaire, le pair aidant s’engage dans la mission de le sauver. Le pair aidant est alors « tout feu tout flamme » dans son rôle de héros sauveur. Au cours de la seconde étape seront considérés les faits entourant la mission. L’aide s’engage comme un combat pour « sauver » l’élève suicidaire. L’enthousiasme « tout feu tout flamme » du début se tempère dans l’ambivalence du combat que représente l’aide concrète. C’est la période d’une certaine désillusion. La dernière étape s’amorce après que soit terminée l’aide qu’a fournie le pair aidant. Il fait le point sur les victoires et les défaites qu’a comportées cette mission. C’est alors le moment de la sagesse. Au cours de l’analyse, certaines données ont suscité la réflexion. Nous avons donc effectué une seconde recension des écrits reliés au processus de venir en aide à un adolescent suicidaire en tant que pair aidant. À la fin de cette étude, nous pensons que le programme de pairs aidants a des répercussions positives pour l’adolescent impliqué.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les systèmes de gestion intégrée en environnement et en santé et sécurité du travail (SGI) sont un nouveau paradigme de gestion dans les organisations modernes. Ces systèmes sont construits à partir des normes ISO 14001 et d’OHSAS 18001, basées sur la prévention des risques et le principe de précaution. La littérature sur les SGI témoigne d’un marasme conceptuel prédominant depuis plus de 10 ans; elle insiste sur l’urgence d’un consensus taxinomique et conceptuel afin de définir les systèmes de gestion intégrée et de différencier le mécanisme d’intégration de celui de l’implantation. Cette lacune conceptuelle enlise les connaissances dans un fossé épistémologique, retardant ainsi le débat dans ce nouveau champ d’études. Les rares connaissances dont nous disposons dans ce domaine proviennent de quelques études théoriques et de six études empiriques, toutes préoccupées par la compatibilité des multiples systèmes et des avantages économiques de leur intégration. Les évidences engendrées par ces études sont insuffisantes pour appréhender la dynamique du nouveau paradigme dont les effets demeurent peu connus. Cette situation révèle l’urgence d’agir dans un contexte où l’utilisation des SGI se multiplie, et où leur tendance à minimiser l’importance des risques devient de plus en plus préoccupante. Aucune étude ne s’est encore penchée sur l’implantation d’un SGI en environnement et en santé et sécurité du travail construit uniquement à partir des normes ISO 14001 et d’OHSAS 18001. Cette connaissance est importante pour expliquer les effets de tels systèmes. C’est dans cette perspective que nous avons réalisé cette première étude empirique d’un SGI selon les normes ISO 14001 et d’OHSAS 18001. Nos questions de recherche portent sur le mode, le degré d’implantation, les effets du SGI, ainsi que sur les facteurs contextuels qui interviennent pour expliquer les variations dans le degré d’implantation et les effets du SGI. Il s’agit d’une recherche à prélèvement qualitatif qui repose sur un devis d’étude de cas, avec des niveaux d’analyse imbriqués, et comportant une double visée descriptive et explicative. Notre échantillon, de type raisonné, regroupait trente-cinq intervenants provenant de différentes instances hiérarchiques ; il incluait également des représentants syndicaux. Notre échantillon était composé de 7 usines, accréditées aux normes ISO 14001, OHSAS 18001, et dispersées dans différentes villes du Québec. Ces usines différaient tant par leur technologie, leur âge, leur taille, et leurs types de production. Nos données ont été recueillies en 2004; elles sont basées sur des entrevues semi dirigées, sur des observations directes lors de la visite des lieux; elles s’appuient aussi sur des consultations de documents internes et sur des outils électroniques implantés. La transcription des entrevues effectuée, le contenu des discours a été catégorisé selon les cinq dimensions du SGI: engagement, planification, mise en opération, contrôle et revue de la direction. Une condensation horizontale avait précédé l’analyse de chaque cas et l’analyse transversale des cas selon une approche à la fois inductive et déductive. Les résultats de notre recherche ont révélé deux modes d’implantation : le mode d’enrichissement et le mode de fusion. Ces modes dépendaient de la nature des structures fonctionnelles en place. La visée d’amélioration continue à la base du SGI n’avait pas réussi à concilier les approches traditionnelles bottom up et top down qui ont dominé cette implantation; son mécanisme était guidé par 4 types de stratégies : l’économie des ressources, le contrôle des forces d’influences, la stratégie des fruits faciles à cueillir et la stratégie à petits pas. Pour analyser le degré d’implantation, nous avons tenu compte de l’effort de structuration du SGI et de la force d’utilisation des processus implantés à chacune des cinq dimensions du SGI. Les résultats de notre recherche révèlent une variabilité certaine du degré d’implantation entre les usines d’une part, et entre les processus associés aux cinq dimensions du SGI d’autre part. L’analyse des discours a permis de produire cinq hypothèses qui soutiennent l’effort de structuration et la force d’utilisation du SGI: (i) l’hypothèse de la force de cohésion, (ii) l’hypothèse de la spécificité du processus, (iii) l’hypothèse de la portée du processus, (iv) l’hypothèse de la capacité organisationnelle, (v) l’hypothèse de l’acceptation du changement. L’implantation du SGI était soumise à l’influence de multiples facteurs; ils étaient de nature politique, structurelle et organisationnelle. Ces facteurs avaient agi sur le processus d’implantation en amorçant une cascade d’interactions au cours desquelles leurs forces d’influences se renforçaient, se neutralisaient ou s’additionnaient pour affecter le degré d’implantation. Les facteurs facilitant touchaient surtout l’effort de structuration ; ils incluaient : l’expérience des systèmes de gestion, l’implication de la direction, celle du syndicat ou du CSS, la structure organisationnelle, le niveau d’éducation, l’âge et la taille de l’usine. Quant aux facteurs contraignants, ils agissaient sur la force d’utilisation ; ils incluaient : la lourdeur procédurale, le manque de temps, le manque de formation, le manque de ressources, la culture organisationnelle, la structure organisationnelle, le fossé intergénérationnel, l’absence du syndicat et l’âge de l’usine. Trois effets proximaux escomptés par l’entreprise ont été observés. (i) La rigueur de la gestion était associée à l’application des exigences du SGI; elle touchait la gouvernance en environnement et en santé et sécurité du travail, les mécanismes de gestion et les procédés de production. (ii) La standardisation était reliée au mode d’implantation du SGI; elle concernait les pratiques, les outils, les méthodes de travail et l’organisation des ressources. (iii) La rupture des silos est un effet relié au mode d’implantation du SGI; elle touchait les structures départementales, les frontières professionnelles, les relations et climat de travail. Ces effets proximaux avaient provoqué plusieurs effets émergents, plus distaux: une augmentation du pouvoir de contrôle syndical, un renforcement de la légitimité des recommandations soumises par les spécialistes professionnels, la création de réseaux inter organisationnels et le transfert du savoir. L’implantation du SGI avait transformé la gouvernance et les pratiques en environnement et en santé et sécurité du travail dans les sept usines. Toutefois, elle ne semblait pas garantir l’immunité du processus de gestion des risques à l’environnement ni à la santé et sécurité du travail. Sa capacité à diluer les risques devait retenir l’attention des politiques de santé publiques et des programmes de prévention des risques à l’environnement et à la santé et sécurité du travail. L’amélioration de la gestion des risques demeurait un effet attendu non observé et soumis à des facteurs contextuels qui pourraient l’empêcher de se concrétiser. À cet égard, le transfert du savoir, renforcé par l’émergence des réseaux inter organisationnels, semblait offrir une avenue beaucoup plus prometteuse et accessible. C’est l’une des contributions de cette recherche. Elle a aussi (i) proposé une typologie des modes d’implantation et des effets du SGI (ii) préconisé une méthode détaillée d’une meilleure appréciation du degré d’implantation (iii) précisé le rôle des facteurs contextuels dans l’explication des variations du degré d’implantation et dans la production des effets, (iv) proposé des hypothèses sur la structuration et l’utilisation du SGI (v) offert une perspective plurielle et approfondie de la dynamique de l’implantation du SGI grâce à la variété de l’échantillon des répondants et des usines. Il s’agit de la première étude de terrain dans le domaine. À notre connaissance, aucune autre étude n’a eu de tels résultats. Mots Clés : ISO 14001, OHSAS 18001, gestion intégrée, environnement, santé et sécurité du travail, risques environnementaux, risques en santé et sécurité du travail, analyse d’implantation, degré d’implantation, SGI, transfert du savoir.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le programme -Une école adaptée à tous ses élèves-, qui s'inscrit dans la réforme actuelle de l'éducation au Québec, nous a amenée à nous intéresser aux représentations dans les grandeurs en mesure en mathématiques des élèves en difficulté d'apprentissage. Nous nous sommes proposés de reconduire plusieurs paramètres de la recherche de Brousseau (1987, 1992) auprès de cette clientèle. La théorie des champs conceptuels (TCC) de Vergnaud (1991), appliquée aux structures additives, a été particulièrement utile pour l'analyse et l'interprétation de leurs représentations. Comme méthode de recherche, nous avons utilisé la théorie des situations didactiques en mathématiques (TSDM), réseau de concepts et de méthode de recherche appuyé sur l'ingénierie didactique qui permet une meilleure compréhension de l'articulation des contenus à enseigner. Grâce à la TSDM, nous avons observé les approches didactiques des enseignants avec leurs élèves. Notre recherche est de type exploratoire et qualitatif et les données recueillies auprès de 26 élèves de deux classes spéciales du deuxième cycle du primaire ont été traitées selon une méthode d'analyse de contenu. Deux conduites ont été adoptées par les élèves. La première, de type procédural a été utilisée par presque tous les élèves. Elle consiste à utiliser des systèmes de comptage plus ou moins sophistiqués, de la planification aux suites d'actions. La deuxième consiste à récupérer directement en mémoire à long terme le résultat associé à un couple donné et au contrôle de son exécution. L'observation des conduites révèle que les erreurs sont dues à une rupture du sens. Ainsi, les difficultés d'ordre conceptuel et de symbolisation nous sont apparues plus importantes lorsque l'activité d'échange demandait la compétence "utilisation" et renvoyait à la compréhension de la tâche, soit les tâches dans lesquelles ils doivent eux-mêmes découvrir les rapports entre les variables à travailler et à simuler les actions décrites dans les énoncés. En conséquence, les problèmes d'échanges se sont révélés difficiles à modéliser en actes et significativement plus ardus que les autres. L'étude des interactions enseignants et élèves a démontré que la parole a été presque uniquement le fait des enseignants qui ont utilisé l'approche du contrôle des actes ou du sens ou les deux stratégies pour aider des élèves en difficulté. Selon le type de situation à résoudre dans ces activités de mesurage de longueur et de masse, des mobilisations plurielles ont été mises en oeuvre par les élèves, telles que la manipulation d'un ou des étalon(s) par superposition, par reports successifs, par pliage ou par coupure lorsque l'étalon dépassait; par retrait ou ajout d'un peu de sable afin de stabiliser les plateaux. Nous avons également observé que bien que certains élèves aient utilisé leurs doigts pour se donner une perception globale extériorisée des quantités, plusieurs ont employé des procédures très diverses au cours de ces mêmes séances. Les résultats présentés étayent l'hypothèse selon laquelle les concepts de grandeur et de mesure prennent du sens à travers des situations problèmes liées à des situations vécues par les élèves, comme les comparaisons directes. Eles renforcent et relient les grandeurs, leurs propriétés et les connaissances numériques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper proposes a theory of the good life for use in answering the question how much money the rich should spend on fighting poverty. The paper moves from the abstract to the concrete. To begin with, it investigates various ways to get an answer to the question what is good, and finds itself drawn to objective theories of the good. It then develops, taking Bernard Williams and Martha Nussbaum as its guides, a broad outline of a theory of the good. It holds that something evil happens to people if they do not have a real choice from a reasonable number of projects that realize most of their key capacities to a certain degree, and in connection to this it points to the great importance of money. The paper goes on specifically to consider what criticisms of Nussbaum's version of the capability approach are implied in this outline of a theory of the good. Next, it gets more specific and asks how much money the rich can give -and how they can be restricted in spending their money- without suffering any evil. It does three suggestions: the tithe suggestion, the ecological (or footprint) suggestion, and the fair trade suggestion. To conclude, the paper returns to the question how much money the rich should spend on fighting poverty.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire explore la formation des artistes comme entrepreneurs d’eux-mêmes à travers les pratiques de leurs associations professionnelles. Le premier chapitre brosse un portrait du champ culturel québécois et y situe plus spécifiquement les associations qui font l’objet de ce mémoire. L’approche adoptée en est une de gouvernementalité et ce chapitre s’attarde aussi aux sujets constitués dans le dispositif du champ culturel. Le deuxième chapitre aborde les questions méthodologiques soulevées par l’étude : la construction d’une archive et les détails des entretiens conduits. L’archive foucaldienne a été adaptée afin d’y inclure des entretiens. L’objectif était de pouvoir analyser à la fois la subjectivation impliquée par les pratiques des associations et l’exercice du pouvoir sur soi par les artistes. Les troisième, quatrième et cinquième chapitres rendent compte des analyses effectuées. Le troisième chapitre vise à définir l’inclusion dans les associations, c’est-à-dire quels artistes ont accès à leurs services. Avant même que les artistes puissent investir sur eux-mêmes à travers les services des associations, le processus d’adhésion implique déjà une certaine entreprise de soi. Ce chapitre jette les bases du suivant en introduisant la notion de sécurité sur le marché du travail. Le quatrième chapitre aborde plus précisément le sujet entrepreneur de soi qui investit dans sa sécurité à travers des services offerts par les associations : la formation et les caisses de sécurité. Il présente aussi le membership comme investissement en soi, qui donne accès à d’autres investissements, et explore l’inflexibilité des associations comme frein à l’entreprise de soi à travers l’idée d’expérience. Le cinquième chapitre, prenant en compte que les parcours des artistes ne sont isolés, les situe dans un contexte plus large que celui des associations. Il aborde ainsi les notions de marché, de passion et de responsabilisation. La conclusion de ce mémoire en résume le propos général et offre une réflexion épistémologique ainsi qu’une réflexion sur la position schizophrénique du sujet dans le contexte néolibéral.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis qu’en 1977, en quatrième de couverture de Fils, Serge Doubrovsky employa le mot « autofiction » pour décrire son roman, les études doubrovskiennes ont eu tendance à se focaliser sur les questions génériques que sous-tendait ce néologisme. Ainsi on a écarté un autre aspect, tout aussi important, de l’œuvre de l’auteur : celui du lien avec le lecteur qui, en plus d’être mis en scène dans chacune des autofictions doubrovskiennes, est associé dès Fils au rapport complexe, inextricable et conflictuel entre les sexes. « J’écris mâle, me lis femelle », dit le narrateur-écrivain ‘Serge Doubrovsky’ – lui qui vivra sous nos yeux une série d’histoires passionnelles avec des compagnes qui sont également ses lectrices. Repris d’épisode en épisode, le rapport entre le héros doubrovskien et sa compagne du moment rappelle les hypothèses de Doubrovsky dans Corneille ou la dialectique du héros (1963), inspirées de la dialectique hégélienne du Maître et de l’Esclave. Cette thèse s’attache donc à analyser la relation dialectique auteur-lectrice telle que mise en scène et approfondie dans l’ensemble de l’édifice autofictionnel. Après présentation et étude des mécanismes dont se sert l’auteur pour construire son Lecteur Modèle (Première partie), les trois autres sections principales de la thèse sont consacrées à l’analyse de Fils et Un amour de soi (1977 et 1982 ; Deuxième partie) ; du Livre brisé et de l’Après-vivre (1989 et 1994 ; Troisième partie) ; et enfin de Laissé pour conte (1999 ; Quatrième partie). Il s’agira enfin de montrer la portée non seulement littéraire, mais également sociale (la réflexion s’élargit à chaque épisode pour aborder les questions de la réception contemporaine de l’œuvre littéraire) et historique (le motif Maître-Esclave s’inscrit dans l’Histoire de l’Europe du XXe siècle, plus précisément la Seconde Guerre mondiale et la Shoah) du thème dialectique doubrovskien.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’augmentation observée de la prévalence du surpoids et de l’obésité au Québec comme ailleurs en Occident inquiète tant les gouvernements que les autorités médicales. Afin de contenir ce phénomène qui est désormais décrit comme une pandémie d’obésité, ces organisations y sont allées de différentes initiatives et recommandations, dans un contexte d’inefficacité avérée des interventions de gestion de poids à caractère clinique et d’émergence de stratégies de prévention dont l’efficacité et la sécurité à long terme restent encore à démontrer. Méthode : L’objet de cette recherche a été de décrire l’évolution du discours des organismes officiels de santé au Québec en matière de gestion du poids par l’analyse de contenu. Cette analyse a eu recours à une grille de plus de 160 documents produits au cours des 60 dernières années par les gouvernements, les autorités professionnelles et les médias québécois. Résultats et discussion : L’analyse révèle que l’évolution du discours de ces organisations s’inscrit dans trois continuums : le pathologique (une évolution, une gradation, une inflation étymologique du sens qui est donné au poids problématique); la surveillance (avec l’établissement de critères rationnels, la surveillance d’abord individuelle est devenue collective et s’est institutionnalisée); la responsabilisation (la responsabilité du poids s’est déplacée de l’individu vers le collectif puis vers le social). Ces continuums illustrent un déplacement de la manière de conceptualiser le poids de la sphère privée vers la sphère publique. Cette analyse révèle aussi qu’il y a à l’œuvre un exercice disciplinaire propre à une moralisation qui s’appuie sur la prémisse que l’augmentation de la prévalence touche toute la population de manière égale. Or, il n’en est rien.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this paper we provide a thorough characterization of the asset returns implied by a simple general equilibrium production economy with Chew–Dekel risk preferences and convex capital adjustment costs. When households display levels of disappointment aversion consistent with the experimental evidence, a version of the model parameterized to match the volatility of output and consumption growth generates unconditional expected asset returns and price of risk in line with the historical data. For the model with Epstein–Zin preferences to generate similar statistics, the relative risk aversion coefficient needs to be about 55, two orders of magnitude higher than the available estimates. We argue that this is not surprising, given the limited risk imposed on agents by a reasonably calibrated stochastic growth model.