21 resultados para accounting-based valuation models

em Université de Montréal, Canada


Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’effort physique a été reconnu comme l’un des déterminants majeurs qui affecte l’absorption pulmonaire et la cinétique des solvants industriels, composés volatils très répandus dans le milieu de travail. L’objectif global de ce projet était de caractériser la relation entre divers niveaux de charge de travail et les concentrations biologiques de l’acétone et du styrène ou de ses métabolites utilisés comme des indicateurs biologiques de l’exposition (IBEs) à ces solvants. Des modèles pharmacocinétiques à base physiologique ont été développés et validés afin de reproduire une exposition professionnelle à l’acétone et au styrène, individuellement et en combinaison, durant une semaine complète de travail (8h/jour, 5 jours). Les simulations ont été effectuées suivant une exposition aux valeurs limite d’exposition (500 ppm et 20 ppm, respectivement) et à des charges de travail de 12,5 W (repos), 25 W et 50 W. Les valeurs prédites par les modèles ont été comparées aux valeurs de référence des IBEs actuels. Le niveau d’acétone dans l’urine obtenu à la fin du dernier quart de travail était 3,5 fois supérieur à la valeur au repos (28 mg/L) pour un effort de 50 W, tandis que les niveaux de styrène dans le sang veineux et de ses métabolites dans l’urine ont augmenté d’un facteur d’environ 3,0 en comparaison avec les valeurs au repos, respectivement de 0,17 mg/L et 144 mg/g créatinine. Pour une co-exposition à des concentrations de 20 ppm de styrène et 200 ppm d’acétone et à une activité physique de 50 W, les simulations ont montré une augmentation de 10% du styrène sanguin et une faible diminution de ses métabolites dans l’urine. Les valeurs simulées par les modèles pour l’acétone ou le styrène montrent que des travailleurs dont la charge de travail équivaut à plus de 25 W sont susceptibles d’avoir des concentrations internes pouvant dépasser les valeurs de référence des IBEs respectifs de ces solvants et peuvent être à risque. Les résultats soulignent ainsi l’importance de tenir compte de la charge de travail dans la détermination d’une valeur de référence pour la surveillance biologique de l’acétone et du styrène.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Article publié dans le journal « Journal of Information Security Research ». March 2012.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'exposition aux mélanges de contaminants (environnementaux, alimentaires ou thérapeutiques) soulève de nombreuses interrogations et inquiétudes vis-à-vis des probabilités d'interactions toxicocinétiques et toxicodynamiques. Une telle coexposition peut influencer le mode d’action des composants du cocktail et donc de leur toxicité, suite à un accroissement de leurs concentrations internes. Le bisphénol A (4 dihydroxy-2,2-diphenylpropane) est un contaminant chimique répandu de manière ubiquitaire dans notre environnement, largement utilisé dans la fabrication des plastiques avec l’un des plus grands volumes de production à l’échelle mondiale. Il est un perturbateur endocrinien par excellence de type œstrogèno-mimétique. Cette molécule est biotransformée en métabolites non toxiques par un processus de glucuronidation. L'exposition concomitante à plusieurs xénobiotiques peut induire à la baisse le taux de glucuronidation du polluant chimique d'intérêt, entre autres la co-exposition avec des médicaments. Puisque la consommation de produits thérapeutiques est un phénomène grandissant dans la population, la possibilité d’une exposition simultanée est d’autant plus grande et forte. Sachant que l'inhibition métabolique est le mécanisme d'interaction le plus plausible pouvant aboutir à une hausse des niveaux internes ainsi qu’à une modulation de la toxicité prévue, la présente étude visait d'abord à confirmer et caractériser ce type d'interactions métaboliques entre le bisphénol A et le naproxène, qui est un anti-inflammatoire non stéroïdiennes (AINS), sur l'ensemble d'un organe intact en utilisant le système de foie de rat isolé et perfusé (IPRL). Elle visait ensuite à déterminer la cinétique enzymatique de chacune de ces deux substances, seule puis en mélange binaire. Dans un second temps, nous avons évalué aussi l’influence de la présence d'albumine sur la cinétique métabolique et le comportement de ces deux substances étudiées en suivant le même modèle de perfusion in vivo au niveau du foie de rat. Les constantes métaboliques ont été déterminées par régression non linéaire. Les métabolismes du BPA et du NAP seuls ont montré une cinétique saturable avec une vélocité maximale (Vmax) de 8.9 nmol/min/ mg prot de foie et une constante d'affinité de l'enzyme pour le substrat (Km) de 51.6 μM pour le BPA et de 3 nmol/min/mg prot de foie et 149.2 μM pour le NAP. L'analyse des expositions combinées suggère une inhibition compétitive partielle du métabolisme du BPA par le NAP avec une valeur de Ki estimée à 0.3542 μM. Les résultats obtenus montrent que l’analyse de risque pour les polluants environnementaux doit donc prendre en considération la consommation des produits pharmaceutiques comme facteur pouvant accroitre le niveau interne lors d’une exposition donnée. Ces données in vivo sur les interactions métaboliques pourraient être intégrées dans un modèle pharmacocinétique à base physiologique (PBPK) pour prédire les conséquences toxicococinétique (TK) de l'exposition d'un individu à ces mélanges chimiques.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Latent variable models in finance originate both from asset pricing theory and time series analysis. These two strands of literature appeal to two different concepts of latent structures, which are both useful to reduce the dimension of a statistical model specified for a multivariate time series of asset prices. In the CAPM or APT beta pricing models, the dimension reduction is cross-sectional in nature, while in time-series state-space models, dimension is reduced longitudinally by assuming conditional independence between consecutive returns, given a small number of state variables. In this paper, we use the concept of Stochastic Discount Factor (SDF) or pricing kernel as a unifying principle to integrate these two concepts of latent variables. Beta pricing relations amount to characterize the factors as a basis of a vectorial space for the SDF. The coefficients of the SDF with respect to the factors are specified as deterministic functions of some state variables which summarize their dynamics. In beta pricing models, it is often said that only the factorial risk is compensated since the remaining idiosyncratic risk is diversifiable. Implicitly, this argument can be interpreted as a conditional cross-sectional factor structure, that is, a conditional independence between contemporaneous returns of a large number of assets, given a small number of factors, like in standard Factor Analysis. We provide this unifying analysis in the context of conditional equilibrium beta pricing as well as asset pricing with stochastic volatility, stochastic interest rates and other state variables. We address the general issue of econometric specifications of dynamic asset pricing models, which cover the modern literature on conditionally heteroskedastic factor models as well as equilibrium-based asset pricing models with an intertemporal specification of preferences and market fundamentals. We interpret various instantaneous causality relationships between state variables and market fundamentals as leverage effects and discuss their central role relative to the validity of standard CAPM-like stock pricing and preference-free option pricing.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

In the literature on tests of normality, much concern has been expressed over the problems associated with residual-based procedures. Indeed, the specialized tables of critical points which are needed to perform the tests have been derived for the location-scale model; hence reliance on available significance points in the context of regression models may cause size distortions. We propose a general solution to the problem of controlling the size normality tests for the disturbances of standard linear regression, which is based on using the technique of Monte Carlo tests.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

It is well known that standard asymptotic theory is not valid or is extremely unreliable in models with identification problems or weak instruments [Dufour (1997, Econometrica), Staiger and Stock (1997, Econometrica), Wang and Zivot (1998, Econometrica), Stock and Wright (2000, Econometrica), Dufour and Jasiak (2001, International Economic Review)]. One possible way out consists here in using a variant of the Anderson-Rubin (1949, Ann. Math. Stat.) procedure. The latter, however, allows one to build exact tests and confidence sets only for the full vector of the coefficients of the endogenous explanatory variables in a structural equation, which in general does not allow for individual coefficients. This problem may in principle be overcome by using projection techniques [Dufour (1997, Econometrica), Dufour and Jasiak (2001, International Economic Review)]. AR-types are emphasized because they are robust to both weak instruments and instrument exclusion. However, these techniques can be implemented only by using costly numerical techniques. In this paper, we provide a complete analytic solution to the problem of building projection-based confidence sets from Anderson-Rubin-type confidence sets. The latter involves the geometric properties of “quadrics” and can be viewed as an extension of usual confidence intervals and ellipsoids. Only least squares techniques are required for building the confidence intervals. We also study by simulation how “conservative” projection-based confidence sets are. Finally, we illustrate the methods proposed by applying them to three different examples: the relationship between trade and growth in a cross-section of countries, returns to education, and a study of production functions in the U.S. economy.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Statistical tests in vector autoregressive (VAR) models are typically based on large-sample approximations, involving the use of asymptotic distributions or bootstrap techniques. After documenting that such methods can be very misleading even with fairly large samples, especially when the number of lags or the number of equations is not small, we propose a general simulation-based technique that allows one to control completely the level of tests in parametric VAR models. In particular, we show that maximized Monte Carlo tests [Dufour (2002)] can provide provably exact tests for such models, whether they are stationary or integrated. Applications to order selection and causality testing are considered as special cases. The technique developed is applied to quarterly and monthly VAR models of the U.S. economy, comprising income, money, interest rates and prices, over the period 1965-1996.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

The attached file is created with Scientific Workplace Latex

Relevância:

40.00% 40.00%

Publicador:

Resumo:

L'hétérogénéité de réponses dans un groupe de patients soumis à un même régime thérapeutique doit être réduite au cours d'un traitement ou d'un essai clinique. Deux approches sont habituellement utilisées pour atteindre cet objectif. L'une vise essentiellement à construire une observance active. Cette approche se veut interactive et fondée sur l'échange ``médecin-patient '', ``pharmacien-patient'' ou ``vétérinaire-éleveurs''. L'autre plutôt passive et basée sur les caractéristiques du médicament, vise à contrôler en amont cette irrégularité. L'objectif principal de cette thèse était de développer de nouvelles stratégies d'évaluation et de contrôle de l'impact de l'irrégularité de la prise du médicament sur l'issue thérapeutique. Plus spécifiquement, le premier volet de cette recherche consistait à proposer des algorithmes mathématiques permettant d'estimer efficacement l'effet des médicaments dans un contexte de variabilité interindividuelle de profils pharmacocinétiques (PK). Cette nouvelle méthode est fondée sur l'utilisation concommitante de données \textit{in vitro} et \textit{in vivo}. Il s'agit de quantifier l'efficience ( c-à-dire efficacité plus fluctuation de concentrations \textit{in vivo}) de chaque profil PK en incorporant dans les modèles actuels d'estimation de l'efficacité \textit{in vivo}, la fonction qui relie la concentration du médicament de façon \textit{in vitro} à l'effet pharmacodynamique. Comparativement aux approches traditionnelles, cette combinaison de fonction capte de manière explicite la fluctuation des concentrations plasmatiques \textit{in vivo} due à la fonction dynamique de prise médicamenteuse. De plus, elle soulève, à travers quelques exemples, des questions sur la pertinence de l'utilisation des indices statiques traditionnels ($C_{max}$, $AUC$, etc.) d'efficacité comme outil de contrôle de l'antibiorésistance. Le deuxième volet de ce travail de doctorat était d'estimer les meilleurs temps d'échantillonnage sanguin dans une thérapie collective initiée chez les porcs. Pour ce faire, nous avons développé un modèle du comportement alimentaire collectif qui a été par la suite couplé à un modèle classique PK. À l'aide de ce modèle combiné, il a été possible de générer un profil PK typique à chaque stratégie alimentaire particulière. Les données ainsi générées, ont été utilisées pour estimer les temps d'échantillonnage appropriés afin de réduire les incertitudes dues à l'irrégularité de la prise médicamenteuse dans l'estimation des paramètres PK et PD . Parmi les algorithmes proposés à cet effet, la méthode des médianes semble donner des temps d'échantillonnage convenables à la fois pour l'employé et pour les animaux. Enfin, le dernier volet du projet de recherche a consisté à proposer une approche rationnelle de caractérisation et de classification des médicaments selon leur capacité à tolérer des oublis sporadiques. Méthodologiquement, nous avons, à travers une analyse globale de sensibilité, quantifié la corrélation entre les paramètres PK/PD d'un médicament et l'effet d'irrégularité de la prise médicamenteuse. Cette approche a consisté à évaluer de façon concomitante l'influence de tous les paramètres PK/PD et à prendre en compte, par la même occasion, les relations complexes pouvant exister entre ces différents paramètres. Cette étude a été réalisée pour les inhibiteurs calciques qui sont des antihypertenseurs agissant selon un modèle indirect d'effet. En prenant en compte les valeurs des corrélations ainsi calculées, nous avons estimé et proposé un indice comparatif propre à chaque médicament. Cet indice est apte à caractériser et à classer les médicaments agissant par un même mécanisme pharmacodynamique en terme d'indulgence à des oublis de prises médicamenteuses. Il a été appliqué à quatre inhibiteurs calciques. Les résultats obtenus étaient en accord avec les données expérimentales, traduisant ainsi la pertinence et la robustesse de cette nouvelle approche. Les stratégies développées dans ce projet de doctorat sont essentiellement fondées sur l'analyse des relations complexes entre l'histoire de la prise médicamenteuse, la pharmacocinétique et la pharmacodynamique. De cette analyse, elles sont capables d'évaluer et de contrôler l'impact de l'irrégularité de la prise médicamenteuse avec une précision acceptable. De façon générale, les algorithmes qui sous-tendent ces démarches constitueront sans aucun doute, des outils efficients dans le suivi et le traitement des patients. En outre, ils contribueront à contrôler les effets néfastes de la non-observance au traitement par la mise au point de médicaments indulgents aux oublis

Relevância:

40.00% 40.00%

Publicador:

Resumo:

L'analyse quantitative a été réalisée en cotutelle avec Rémi Boivin et Pierre Tremblay et publiée dans la Revue de Criminologie: Boivin, R., Lamige, C,. Tremblay, P. (2009) La police devrait-elle cibler les taudis malfamés? Criminologie, (42)1, 225-266.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

La substitution est une méthode de prévention primaire qui permet l’élimination à la source des dangers pour les travailleurs. Une des étapes de la démarche est la comparaison des options afin de procéder au choix final. Divers indices de comparaison, basés sur des paramètres physicochimiques, sanitaires et environnementaux des substances, permettent de guider ce choix. Toutefois, aucune évaluation de ces indices n’a été effectuée dans le cas de la substitution des solvants. Une recherche de développement a été entreprise afin de proposer une méthodologie améliorée de comparaison des solvants. La démarche d’analyse de substitution et la comparaison des options de remplacement à l’aide du rapport de danger de vapeur (« Vapour Hazard Ratio », VHR) ont été appliquées à un cas réel de substitution de solvants en entreprise. Trois indices de potentiel de surexposition (IPS) (VHR, « Måleteknisk Arbejdshygiejnisk Luftbehov » (MAL) et « SUBstitution FACtor » (SUBFAC)) et trois indices globaux de hiérarchisation des dangers (indice air (ψiair), « Indiana Relative Chemical Hazard Score » (IRCHS) et « Final Hazard Score » (FHS)) ont été évalués et comparés à partir de listes de 56 et 67 solvants respectivement. La problématique de la non-idéalité des mélanges a aussi été considérée par rapport aux IPS par l’évaluation et la comparaison de 50 mélanges de solvant. Une méthodologie d’établissement d’une valeur limite d’exposition (VLE), pour les solvants n’en possédant pas, a été développée par modélisation de type relations quantitatives propriété-propriété (QPPR). La modélisation QPPR des VLE, effectuée sur une liste de 88 solvants possédant une VLE, a été effectuée à partir des coefficients de partage octanol:air, octanol:eau, sang:air et des constantes métaboliques. L’étude de cas a montré que l’utilisation du VHR facilitait la comparaison des options, bien qu’elle puisse se heurter à l’absence de VLE. Les indices VHR et SUBFAC ont été identifiés comme des méthodes très proches, caractérisées par une forte corrélation (R=0,99) alors que l’indice MAL se distingue des deux autres IPS par une perte d’information sur la volatilité résultant en une corrélation plus faible avec le VHR (R=0,75). L’impact de la non idealité, évalué par le calcul de coefficients d’activité sur une série de 50 mélanges, a permis d’établir que les ratios entre les indices VHR corrigés et non corrigés variaient entre 0,57 et 2,7, suggérant un facteur de sécurité de cinq lors de la comparaison de mélanges. Les analyses de corrélation et de sensibilité ont montré que les indices de hiérarchisation des dangers différaient de façon importante sur leur prise en compte de paramètres comme la volatilité, les VLE, l’exposition cutanée, l’inflammabilité, la cancérogénicité et les divers paramètres environnementaux. Aucun de ces indices ne peut être recommandé pour la substitution des solvants. Deux modèles QPPR ont été développés afin de prédire des VLE et des VHR, et 61 % et 87 % des VHR prédits variaient respectivement d’un facteur maximal de deux et de cinq par rapport aux VHR calculés. Nos résultats mènent à proposer une démarche améliorée de comparaison en deux étapes. Après un tri selon des critères prioritaires de santé, de sécurité et d’environnement, la comparaison devrait se baser sur le calcul du VHR tout en considérant d’autres paramètres selon la situation concrète de l’entreprise ou du procédé. La comparaison devra tenir compte de la non-idéalité pour les mélanges, et de VLE estimées pour les solvants n’en possédant pas.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

L'anémie de l'enfant reste un problème d'importance pour la santé mondiale, malgré les décennies de recherche visant à comprendre son étiologie et à développer des interventions efficaces pour réduire sa prévalence et ses conséquences. Bien que les facteurs de risque individuels de l'anémie soient connus, y compris les facteurs liés à la malnutrition et à la morbidité, l'interaction entre lesdits facteurs est moins documentée dans des contextes où les enfants sont fréquemment exposés à plusieurs facteurs en même temps. Cette étude vise à documenter les efforts de lutte contre l'anémie du programme MICAH qui a été mis en oeuvre au Ghana, au Malawi et en Tanzanie. Ensuite, en utilisant les données relatives à la fois au processus et à l'évaluation colligées au cours du programme, elle vise à mieux comprendre les facteurs de risque d'anémie chez les jeunes enfants dans ces contextes et à comprendre comment les relations entre ces facteurs peuvent avoir changé au fil du temps lors de l'intervention. Spécifiquement, cette étude vérifie s‘il y a des preuves d'une réduction de la vulnérabilité des enfants aux facteurs de risque associés à l'anémie dans chaque contexte. Un examen de la documentation a été réalisé afin de caractériser le contexte du programme et des interventions, leur l'intensité et étendue. Les données transversales sur la nutrition et l'état de santé des enfants âgés de 24 à 59 mois (N = 2405) obtenues en 2000 et 2004 à partir des enquêtes d'évaluation du programme MICAH au Ghana, au Malawi et en Tanzanie, ont été utilisées pour décrire la prévalence de l'anémie. Les modèles polynomiaux de régression logistique et linéaire ont été utilisés pour estimer les risques d'anémie légère et d'anémie modérée / sévère et les niveaux d‘hémoglobine associés à des groupes de variables. Les estimations du risque attribuable à une population (RAP) ont aussi été calculées. Une anémie (Hb <110 g/L) a touché au moins 60% des enfants dans les trois pays; l'anémie modérée / sévère (<100 g/L) constituait la majorité des cas. Une forte diminution de l'anémie a été observée entre 2000 et 2004 au Ghana, mais seulement une légère baisse au Malawi et en Tanzanie. Le risque d'anémie modérée / sévère était associé au retard de croissance chez les enfants du Ghana (OR 2,68, IC 95% 1,70-4,23) et du Malawi (OR 1,71; 1,29-2,27) mais pas de la Tanzanie (OR 1,29; 0,87- 1,92). Le paludisme et les maladies récentes étaient associées à une hémoglobine plus basse. Une atténuation de cette association en 2004 a été observée seulement au Malawi pour le paludisme et au Ghana pour les maladies récentes. Le risque d'anémie modérée / sévère était 44% moindre chez les enfants âgés de 48 à 59 mois comparativement aux enfants de 24 à 35 mois dans les trois pays et cela n'a pas changé entre 2000 et 2004. Les RAP estimés ont montré qu‘environ un cinquième des cas d‘anémie modérée à sévère était attribuable au retard de croissance au Ghana et Malawi, mais pas en Tanzanie. Des RAP moindres et dépendants des contextes ont été trouvés pour le paludisme et les maladies récentes. Dans ces zones d‘intervention intégrées de santé et de nutrition la relation de certains facteurs de risque à l'anémie se modifia avec le temps. Le retard de croissance est resté toutefois un facteur de risque indépendant et non mitigé de l'anémie. Une réduction efficace des causes de la malnutrition chronique est nécessaire afin de réduire la vulnérabilité des enfants et de garantir un impact maximum des programmes de lutte contre l'anémie. Une mitigation de l'impact du paludisme peut par contre être visée dans les régions endémiques.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Ma thèse est composée de trois chapitres reliés à l'estimation des modèles espace-état et volatilité stochastique. Dans le première article, nous développons une procédure de lissage de l'état, avec efficacité computationnelle, dans un modèle espace-état linéaire et gaussien. Nous montrons comment exploiter la structure particulière des modèles espace-état pour tirer les états latents efficacement. Nous analysons l'efficacité computationnelle des méthodes basées sur le filtre de Kalman, l'algorithme facteur de Cholesky et notre nouvelle méthode utilisant le compte d'opérations et d'expériences de calcul. Nous montrons que pour de nombreux cas importants, notre méthode est plus efficace. Les gains sont particulièrement grands pour les cas où la dimension des variables observées est grande ou dans les cas où il faut faire des tirages répétés des états pour les mêmes valeurs de paramètres. Comme application, on considère un modèle multivarié de Poisson avec le temps des intensités variables, lequel est utilisé pour analyser le compte de données des transactions sur les marchés financières. Dans le deuxième chapitre, nous proposons une nouvelle technique pour analyser des modèles multivariés à volatilité stochastique. La méthode proposée est basée sur le tirage efficace de la volatilité de son densité conditionnelle sachant les paramètres et les données. Notre méthodologie s'applique aux modèles avec plusieurs types de dépendance dans la coupe transversale. Nous pouvons modeler des matrices de corrélation conditionnelles variant dans le temps en incorporant des facteurs dans l'équation de rendements, où les facteurs sont des processus de volatilité stochastique indépendants. Nous pouvons incorporer des copules pour permettre la dépendance conditionnelle des rendements sachant la volatilité, permettant avoir différent lois marginaux de Student avec des degrés de liberté spécifiques pour capturer l'hétérogénéité des rendements. On tire la volatilité comme un bloc dans la dimension du temps et un à la fois dans la dimension de la coupe transversale. Nous appliquons la méthode introduite par McCausland (2012) pour obtenir une bonne approximation de la distribution conditionnelle à posteriori de la volatilité d'un rendement sachant les volatilités d'autres rendements, les paramètres et les corrélations dynamiques. Le modèle est évalué en utilisant des données réelles pour dix taux de change. Nous rapportons des résultats pour des modèles univariés de volatilité stochastique et deux modèles multivariés. Dans le troisième chapitre, nous évaluons l'information contribuée par des variations de volatilite réalisée à l'évaluation et prévision de la volatilité quand des prix sont mesurés avec et sans erreur. Nous utilisons de modèles de volatilité stochastique. Nous considérons le point de vue d'un investisseur pour qui la volatilité est une variable latent inconnu et la volatilité réalisée est une quantité d'échantillon qui contient des informations sur lui. Nous employons des méthodes bayésiennes de Monte Carlo par chaîne de Markov pour estimer les modèles, qui permettent la formulation, non seulement des densités a posteriori de la volatilité, mais aussi les densités prédictives de la volatilité future. Nous comparons les prévisions de volatilité et les taux de succès des prévisions qui emploient et n'emploient pas l'information contenue dans la volatilité réalisée. Cette approche se distingue de celles existantes dans la littérature empirique en ce sens que ces dernières se limitent le plus souvent à documenter la capacité de la volatilité réalisée à se prévoir à elle-même. Nous présentons des applications empiriques en utilisant les rendements journaliers des indices et de taux de change. Les différents modèles concurrents sont appliqués à la seconde moitié de 2008, une période marquante dans la récente crise financière.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

L’appropriation du feed-back a fait l’objet de plusieurs modèles théoriques en contexte d’évaluation de la performance, notamment par Ilgen, Fisher et Taylor (1979) qui suggèrent un modèle explicitant comment un feed-back en vient à susciter des changements comportementaux. Ce modèle a été repris dans divers domaines de recherche, sans pour autant être adapté en fonction du contexte spécifique dans lequel le feed-back était transmis. Cette thèse propose un modèle d’appropriation du feed-back inspiré des travaux d’Ilgen et al. (1979), mais reflétant les spécificités de l’évaluation du potentiel. Le modèle comporte trois étapes qui sont l’appropriation cognitive (composée de l’acceptation et de la conscientisation), l’intention d’agir dans le sens du feed-back et l’appropriation comportementale. La présente thèse se décompose en trois articles poursuivant les objectifs suivants : (1) Proposer un modèle théorique de l’appropriation du feed-back adapté au contexte de l’évaluation du potentiel. (2) Valider une mesure de l’appropriation cognitive combinant l’acceptation et la conscientisation. (3) Tester empiriquement le modèle d’appropriation du feed-back en contexte d’évaluation du potentiel. Le premier article vise d’abord à circonscrire les fondements de l’évaluation du potentiel et à définir l’appropriation du feed-back. Sur la base de ces informations, le modèle d’Ilgen et al. (1979) est ensuite revu et modifié. Les liens entre les différentes étapes du modèle sont subséquemment étayés par des théories et des études empiriques. L’article se conclue par une réflexion sur les retombées théoriques et pratiques du modèle revisité. L’objectif du second article consiste à développer et valider une mesure de l’appropriation cognitive incluant deux dimensions, à savoir l’acceptation et la conscientisation. Pour ce faire, deux études ont été menées auprès de candidats ayant reçu un feed-back suite à une évaluation du potentiel. Des analyses factorielles exploratoires (N = 111), puis des analyses factorielles confirmatoires (N = 178) ont été réalisées en ce sens. Chaque dimension de l’appropriation cognitive a également été mise en relation avec des variables critères afin de recueillir des éléments de preuve appuyant la validité de l’instrument. La majorité des indices obtenus confirment la présence des deux dimensions pressenties et des constats sont tirés sur la base de ces résultats. Le troisième article vise à vérifier empiriquement les liens anticipés entre les composantes du modèle d’appropriation du feed-back détaillé dans le premier article. Les deux premières étapes du modèle, soit l’appropriation cognitive et l’intention d’agir, ont été mesurées via un questionnaire complété immédiatement après le feed-back par 178 candidats. Ces derniers ont été sollicités trois mois plus tard afin de compléter un second questionnaire portant sur la dernière étape, l’appropriation comportementale, et 97 d’entre eux y ont répondu. Les résultats d’analyses par équations structurelles supportent le modèle et une discussion sur la portée de tels résultats s’en suit.