418 resultados para Taux de récupération
Resumo:
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
L’objectif principal de cette thèse était d’obtenir, via l’électrophysiologie cognitive, des indices de fonctionnement post-traumatisme craniocérébral léger (TCCL) pour différents niveaux de traitement de l’information, soit l’attention sélective, les processus décisionnels visuoattentionnels et les processus associés à l’exécution d’une réponse volontaire. L’hypothèse centrale était que les mécanismes de production des lésions de même que la pathophysiologie caractérisant le TCCL engendrent des dysfonctions visuoattentionnelles, du moins pendant la période aiguë suivant le TCCL (i.e. entre 1 et 3 mois post-accident), telles que mesurées à l’aide d’un nouveau paradigme électrophysiologique conçu à cet effet. Cette thèse présente deux articles qui décrivent le travail effectué afin de rencontrer ces objectifs et ainsi vérifier les hypothèses émises. Le premier article présente la démarche réalisée afin de créer une nouvelle tâche d’attention visuospatiale permettant d’obtenir les indices électrophysiologiques (amplitude, latence) et comportementaux (temps de réaction) liés aux processus de traitement visuel et attentionnel précoce (P1, N1, N2-nogo, P2, Ptc) à l’attention visuelle sélective (N2pc, SPCN) et aux processus décisionnels (P3b, P3a) chez un groupe de participants sains (i.e. sans atteinte neurologique). Le deuxième article présente l’étude des effets persistants d’un TCCL sur les fonctions visuoattentionelles via l’obtention des indices électrophysiologiques ciblés (amplitude, latence) et de données comportementales (temps de réaction à la tâche et résultats aux tests neuropsychologiques) chez deux cohortes d’individus TCCL symptomatiques, l’une en phase subaigüe (3 premiers mois post-accident), l’autre en phase chronique (6 mois à 1 an post-accident), en comparaison à un groupe de participants témoins sains. Les résultats des articles présentés dans cette thèse montrent qu’il a été possible de créer une tâche simple qui permet d’étudier de façon rapide et peu coûteuse les différents niveaux de traitement de l’information impliqués dans le déploiement de l’attention visuospatiale. Par la suite, l’utilisation de cette tâche auprès d’individus atteints d’un TCCL testés en phase sub-aiguë ou en phase chronique a permis d’objectiver des profils d’atteintes et de récupération différentiels pour chacune des composantes étudiées. En effet, alors que les composantes associées au traitement précoce de l’information visuelle (P1, N1, N2) étaient intactes, certaines composantes attentionnelles (P2) et cognitivo-attentionnelles (P3a, P3b) étaient altérées, suggérant une dysfonction au niveau des dynamiques spatio-temporelles de l’attention, de l’orientation de l’attention et de la mémoire de travail, à court et/ou à long terme après le TCCL, ceci en présence de déficits neuropsychologiques en phase subaiguë surtout et d’une symptomatologie post-TCCL persistante. Cette thèse souligne l’importance de développer des outils diagnostics sensibles et exhaustifs permettant d’objectiver les divers processus et sous-processus cognitifs susceptible d’être atteints après un TCCL.
Resumo:
Les nombreux scrutins qui ont eu lieu dernièrement ont suscité plusieurs réflexions tant en ce qui concerne les taux de participation que l’impact réel du vote individuel sur la sphère politique. Récemment, une commission spéciale de l’Assemblée nationale du Québec a parcouru seize villes pour consulter la population sur le mode de scrutin et la loi électorale. De fait, cette dernière a changé radicalement depuis 1792, année où a eu lieu la première élection parlementaire. À ce sujet, la collection Baby de l’Université de Montréal est une source d’information inestimable sur les mœurs électorales du 19e siècle québécois. Les pressions et les sollicitations dont les électeurs font l’objet, les stratégies adoptées par les candidats et leurs partisans, l’ambiance enfiévrée autour des bureaux de scrutin, tous ces éléments trouvent des exemples dans les documents disponibles. En plus de témoigner des vicissitudes du scrutin ouvert et public, ces derniers révèlent des aspects insoupçonnés de la culture politique de l’époque. Cette présentation se veut donc une exploration de la sphère politique de notre passé à partir des traces multiples offertes par la collection Baby.
Resumo:
Latent variable models in finance originate both from asset pricing theory and time series analysis. These two strands of literature appeal to two different concepts of latent structures, which are both useful to reduce the dimension of a statistical model specified for a multivariate time series of asset prices. In the CAPM or APT beta pricing models, the dimension reduction is cross-sectional in nature, while in time-series state-space models, dimension is reduced longitudinally by assuming conditional independence between consecutive returns, given a small number of state variables. In this paper, we use the concept of Stochastic Discount Factor (SDF) or pricing kernel as a unifying principle to integrate these two concepts of latent variables. Beta pricing relations amount to characterize the factors as a basis of a vectorial space for the SDF. The coefficients of the SDF with respect to the factors are specified as deterministic functions of some state variables which summarize their dynamics. In beta pricing models, it is often said that only the factorial risk is compensated since the remaining idiosyncratic risk is diversifiable. Implicitly, this argument can be interpreted as a conditional cross-sectional factor structure, that is, a conditional independence between contemporaneous returns of a large number of assets, given a small number of factors, like in standard Factor Analysis. We provide this unifying analysis in the context of conditional equilibrium beta pricing as well as asset pricing with stochastic volatility, stochastic interest rates and other state variables. We address the general issue of econometric specifications of dynamic asset pricing models, which cover the modern literature on conditionally heteroskedastic factor models as well as equilibrium-based asset pricing models with an intertemporal specification of preferences and market fundamentals. We interpret various instantaneous causality relationships between state variables and market fundamentals as leverage effects and discuss their central role relative to the validity of standard CAPM-like stock pricing and preference-free option pricing.
Resumo:
This paper develops and estimates a game-theoretical model of inflation targeting where the central banker's preferences are asymmetric around the targeted rate. In particular, positive deviations from the target can be weighted more, or less, severely than negative ones in the central banker's loss function. It is shown that some of the previous results derived under the assumption of symmetry are not robust to the generalization of preferences. Estimates of the central banker's preference parameters for Canada, Sweden, and the United Kingdom are statistically different from the ones implied by the commonly used quadratic loss function. Econometric results are robust to different forecasting models for the rate of unemployment but not to the use of measures of inflation broader than the one targeted.
Resumo:
In this paper, we characterize the asymmetries of the smile through multiple leverage effects in a stochastic dynamic asset pricing framework. The dependence between price movements and future volatility is introduced through a set of latent state variables. These latent variables can capture not only the volatility risk and the interest rate risk which potentially affect option prices, but also any kind of correlation risk and jump risk. The standard financial leverage effect is produced by a cross-correlation effect between the state variables which enter into the stochastic volatility process of the stock price and the stock price process itself. However, we provide a more general framework where asymmetric implied volatility curves result from any source of instantaneous correlation between the state variables and either the return on the stock or the stochastic discount factor. In order to draw the shapes of the implied volatility curves generated by a model with latent variables, we specify an equilibrium-based stochastic discount factor with time non-separable preferences. When we calibrate this model to empirically reasonable values of the parameters, we are able to reproduce the various types of implied volatility curves inferred from option market data.
Resumo:
In an economy where cash can be stored costlessly (in nominal terms), the nominal interest rate is bounded below by zero. This paper derives the implications of this nonnegativity constraint for the term structure and shows that it induces a nonlinear and convex relation between short- and long-term interest rates. As a result, the long-term rate responds asymmetrically to changes in the short-term rate, and by less than predicted by a benchmark linear model. In particular, a decrease in the short-term rate leads to a decrease in the long-term rate that is smaller in magnitude than the increase in the long-term rate associated with an increase in the short-term rate of the same size. Up to the extent that monetary policy acts by affecting long-term rates through the term structure, its power is considerably reduced at low interest rates. The empirical predictions of the model are examined using data from Japan.
Resumo:
This paper tests the predictions of the Barro-Gordon model using US data on inflation and unemployment. To that end, it constructs a general game-theoretical model with asymmetric preferences that nests the Barro-Gordon model and a version of Cukierman’s model as special cases. Likelihood Ratio tests indicate that the restriction imposed by the Barro-Gordon model is rejected by the data but the one imposed by the version of Cukierman’s model is not. Reduced-form estimates are consistent with the view that the Federal Reserve weights more heavily positive than negative unemployment deviations from the expected natural rate.
Resumo:
This paper studies the persistent effects of monetary shocks on output. Previous empirical literature documents this persistence, but standard general equilibrium models with sticky prices fail to generate output responses beyond the duration of nominal contracts. This paper constructs and estimates a general equilibrium model with price rigidities, habit formation, and costly capital adjustment. The model is estimated via Maximum Likelihood using US data on output, the real money stock, and the nominal interest rate. Econometric results suggest that habit formation and adjustment costs to capital play an important role in explaining the output effects of monetary policy. In particular, impulse response analysis indicates that the model generates persistent, hump-shaped output responses to monetary shocks.
Resumo:
Ce Texte Constitue un Survol des Differentes Approches Destines a Mesurer le Progres Technique. Nous Utilisons une Notation Uniforme Tout au Long des Demonstrations Mathematiques et Nous Faisons Ressortir les Hypotheses Qui Rendent L'application des Methodes Proposees Envisageable et Qui En Limitent la Portee. les Diverses Approches Sont Regroupees D'apres une Classification Suggeree Par Diewert (1981) Selon Laquelle Deux Groupes Sont a Distinguer. le Premier Groupe Contient Toutes les Methodes Definissant le Progres Technique Comme le Taux de Croissance D'un Indice des Outputs Divise Par un Indice des Inputs (Approche de Divisia). L'autre Groupe Inclut Toutes les Methodes Definissant le Progres Technique Comme Etant le Deplacement D'une Fonction Representant la Technologie (Production, Cout, Distance). Ce Second Groupe Est Subdivise Entre L'approche Econometrique,La Theorie des Nombres Indices et L 'Approche Non Parametrique. une Liste des Pricipaux Economistes a Qui L'on Doit les Diverses Approches Est Fournie. Cependant Ce Survol Est Suffisamment Detaille Pour Etre Lu Sans Se Referer aux Articles Originaux.
Resumo:
Dans Cet Article, Nous Etudions les Distorsions Que Cause L'impot Sur le Revenu des Societes Dans le Profil de Production des Firmes Extractives et Dans L'allocation des Ressources Entre les Secteurs D'extraction et les Autres Secteurs Soumis a L'impot Sur les Societes. Nous Etudions En Particulier L'allocation D'epuisement, Dont Nous Montrons Qu'elle Peut Trouver Sa Justification, Non Pas a Assurer la Neutralite de L'impot, Mais En Permettant L'etablissement de Taux Effectifs D'imposition Identiques Dans les Secteurs D'extraction et Dans les Autres Secteurs.