14 resultados para nonlinear mixed effects models
em Université de Montréal, Canada
Approximation de la distribution a posteriori d'un modèle Gamma-Poisson hiérarchique à effets mixtes
Resumo:
La méthode que nous présentons pour modéliser des données dites de "comptage" ou données de Poisson est basée sur la procédure nommée Modélisation multi-niveau et interactive de la régression de Poisson (PRIMM) développée par Christiansen et Morris (1997). Dans la méthode PRIMM, la régression de Poisson ne comprend que des effets fixes tandis que notre modèle intègre en plus des effets aléatoires. De même que Christiansen et Morris (1997), le modèle étudié consiste à faire de l'inférence basée sur des approximations analytiques des distributions a posteriori des paramètres, évitant ainsi d'utiliser des méthodes computationnelles comme les méthodes de Monte Carlo par chaînes de Markov (MCMC). Les approximations sont basées sur la méthode de Laplace et la théorie asymptotique liée à l'approximation normale pour les lois a posteriori. L'estimation des paramètres de la régression de Poisson est faite par la maximisation de leur densité a posteriori via l'algorithme de Newton-Raphson. Cette étude détermine également les deux premiers moments a posteriori des paramètres de la loi de Poisson dont la distribution a posteriori de chacun d'eux est approximativement une loi gamma. Des applications sur deux exemples de données ont permis de vérifier que ce modèle peut être considéré dans une certaine mesure comme une généralisation de la méthode PRIMM. En effet, le modèle s'applique aussi bien aux données de Poisson non stratifiées qu'aux données stratifiées; et dans ce dernier cas, il comporte non seulement des effets fixes mais aussi des effets aléatoires liés aux strates. Enfin, le modèle est appliqué aux données relatives à plusieurs types d'effets indésirables observés chez les participants d'un essai clinique impliquant un vaccin quadrivalent contre la rougeole, les oreillons, la rub\'eole et la varicelle. La régression de Poisson comprend l'effet fixe correspondant à la variable traitement/contrôle, ainsi que des effets aléatoires liés aux systèmes biologiques du corps humain auxquels sont attribués les effets indésirables considérés.
Resumo:
Ce travail de thèse porte sur l’application de la pharmacocinétique de population dans le but d’optimiser l’utilisation de certains médicaments chez les enfants immunosupprimés et subissant une greffe. Parmi les différents médicaments utilisés chez les enfants immunosupprimés, l’utilisation du busulfan, du tacrolimus et du voriconazole reste problématique, notamment à cause d’une très grande variabilité interindividuelle de leur pharmacocinétique rendant nécessaire l’individualisation des doses par le suivi thérapeutique pharmacologique. De plus, ces médicaments n’ont pas fait l’objet d’études chez les enfants et les doses sont adaptées à partir des adultes. Cette dernière pratique ne prend pas en compte les particularités pharmacologiques qui caractérisent l’enfant tout au long de son développement et rend illusoire l’extrapolation aux enfants des données acquises chez les adultes. Les travaux effectués dans le cadre de cette thèse ont étudié successivement la pharmacocinétique du busulfan, du voriconazole et du tacrolimus par une approche de population en une étape (modèles non-linéaires à effets mixtes). Ces modèles ont permis d’identifier les principales sources de variabilités interindividuelles sur les paramètres pharmacocinétiques. Les covariables identifiées sont la surface corporelle et le poids. Ces résultats confirment l’importance de tenir en compte l’effet de la croissance en pédiatrie. Ces paramètres ont été inclus de façon allométrique dans les modèles. Cette approche permet de séparer l’effet de la mesure anthropométrique d’autres covariables et permet la comparaison des paramètres pharmacocinétiques en pédiatrie avec ceux des adultes. La prise en compte de ces covariables explicatives devrait permettre d’améliorer la prise en charge a priori des patients. Ces modèles développés ont été évalués pour confirmer leur stabilité, leur performance de simulation et leur capacité à répondre aux objectifs initiaux de la modélisation. Dans le cas du busulfan, le modèle validé a été utilisé pour proposer par simulation une posologie qui améliorerait l’atteinte de l’exposition cible, diminuerait l’échec thérapeutique et les risques de toxicité. Le modèle développé pour le voriconazole, a permis de confirmer la grande variabilité interindividuelle dans sa pharmacocinétique chez les enfants immunosupprimés. Le nombre limité de patients n’a pas permis d’identifier des covariables expliquant cette variabilité. Sur la base du modèle de pharmacocinétique de population du tacrolimus, un estimateur Bayesien a été mis au point, qui est le premier dans cette population de transplantés hépatiques pédiatriques. Cet estimateur permet de prédire les paramètres pharmacocinétiques et l’exposition individuelle au tacrolimus sur la base d’un nombre limité de prélèvements. En conclusion, les travaux de cette thèse ont permis d’appliquer la pharmacocinétique de population en pédiatrie pour explorer les caractéristiques propres à cette population, de décrire la variabilité pharmacocinétique des médicaments utilisés chez les enfants immunosupprimés, en vue de l’individualisation du traitement. Les outils pharmacocinétiques développés s’inscrivent dans une démarche visant à diminuer le taux d'échec thérapeutique et l’incidence des effets indésirables ou toxiques chez les enfants immunosupprimés suite à une transplantation.
Resumo:
People go through their life making all kinds of decisions, and some of these decisions affect their demand for transportation, for example, their choices of where to live and where to work, how and when to travel and which route to take. Transport related choices are typically time dependent and characterized by large number of alternatives that can be spatially correlated. This thesis deals with models that can be used to analyze and predict discrete choices in large-scale networks. The proposed models and methods are highly relevant for, but not limited to, transport applications. We model decisions as sequences of choices within the dynamic discrete choice framework, also known as parametric Markov decision processes. Such models are known to be difficult to estimate and to apply to make predictions because dynamic programming problems need to be solved in order to compute choice probabilities. In this thesis we show that it is possible to explore the network structure and the flexibility of dynamic programming so that the dynamic discrete choice modeling approach is not only useful to model time dependent choices, but also makes it easier to model large-scale static choices. The thesis consists of seven articles containing a number of models and methods for estimating, applying and testing large-scale discrete choice models. In the following we group the contributions under three themes: route choice modeling, large-scale multivariate extreme value (MEV) model estimation and nonlinear optimization algorithms. Five articles are related to route choice modeling. We propose different dynamic discrete choice models that allow paths to be correlated based on the MEV and mixed logit models. The resulting route choice models become expensive to estimate and we deal with this challenge by proposing innovative methods that allow to reduce the estimation cost. For example, we propose a decomposition method that not only opens up for possibility of mixing, but also speeds up the estimation for simple logit models, which has implications also for traffic simulation. Moreover, we compare the utility maximization and regret minimization decision rules, and we propose a misspecification test for logit-based route choice models. The second theme is related to the estimation of static discrete choice models with large choice sets. We establish that a class of MEV models can be reformulated as dynamic discrete choice models on the networks of correlation structures. These dynamic models can then be estimated quickly using dynamic programming techniques and an efficient nonlinear optimization algorithm. Finally, the third theme focuses on structured quasi-Newton techniques for estimating discrete choice models by maximum likelihood. We examine and adapt switching methods that can be easily integrated into usual optimization algorithms (line search and trust region) to accelerate the estimation process. The proposed dynamic discrete choice models and estimation methods can be used in various discrete choice applications. In the area of big data analytics, models that can deal with large choice sets and sequential choices are important. Our research can therefore be of interest in various demand analysis applications (predictive analytics) or can be integrated with optimization models (prescriptive analytics). Furthermore, our studies indicate the potential of dynamic programming techniques in this context, even for static models, which opens up a variety of future research directions.
Resumo:
Les logiciels utilisés sont Splus et R.
Resumo:
Ma thèse est composée de trois essais sur l'inférence par le bootstrap à la fois dans les modèles de données de panel et les modèles à grands nombres de variables instrumentales #VI# dont un grand nombre peut être faible. La théorie asymptotique n'étant pas toujours une bonne approximation de la distribution d'échantillonnage des estimateurs et statistiques de tests, je considère le bootstrap comme une alternative. Ces essais tentent d'étudier la validité asymptotique des procédures bootstrap existantes et quand invalides, proposent de nouvelles méthodes bootstrap valides. Le premier chapitre #co-écrit avec Sílvia Gonçalves# étudie la validité du bootstrap pour l'inférence dans un modèle de panel de données linéaire, dynamique et stationnaire à effets fixes. Nous considérons trois méthodes bootstrap: le recursive-design bootstrap, le fixed-design bootstrap et le pairs bootstrap. Ces méthodes sont des généralisations naturelles au contexte des panels des méthodes bootstrap considérées par Gonçalves et Kilian #2004# dans les modèles autorégressifs en séries temporelles. Nous montrons que l'estimateur MCO obtenu par le recursive-design bootstrap contient un terme intégré qui imite le biais de l'estimateur original. Ceci est en contraste avec le fixed-design bootstrap et le pairs bootstrap dont les distributions sont incorrectement centrées à zéro. Cependant, le recursive-design bootstrap et le pairs bootstrap sont asymptotiquement valides quand ils sont appliqués à l'estimateur corrigé du biais, contrairement au fixed-design bootstrap. Dans les simulations, le recursive-design bootstrap est la méthode qui produit les meilleurs résultats. Le deuxième chapitre étend les résultats du pairs bootstrap aux modèles de panel non linéaires dynamiques avec des effets fixes. Ces modèles sont souvent estimés par l'estimateur du maximum de vraisemblance #EMV# qui souffre également d'un biais. Récemment, Dhaene et Johmans #2014# ont proposé la méthode d'estimation split-jackknife. Bien que ces estimateurs ont des approximations asymptotiques normales centrées sur le vrai paramètre, de sérieuses distorsions demeurent à échantillons finis. Dhaene et Johmans #2014# ont proposé le pairs bootstrap comme alternative dans ce contexte sans aucune justification théorique. Pour combler cette lacune, je montre que cette méthode est asymptotiquement valide lorsqu'elle est utilisée pour estimer la distribution de l'estimateur split-jackknife bien qu'incapable d'estimer la distribution de l'EMV. Des simulations Monte Carlo montrent que les intervalles de confiance bootstrap basés sur l'estimateur split-jackknife aident grandement à réduire les distorsions liées à l'approximation normale en échantillons finis. En outre, j'applique cette méthode bootstrap à un modèle de participation des femmes au marché du travail pour construire des intervalles de confiance valides. Dans le dernier chapitre #co-écrit avec Wenjie Wang#, nous étudions la validité asymptotique des procédures bootstrap pour les modèles à grands nombres de variables instrumentales #VI# dont un grand nombre peu être faible. Nous montrons analytiquement qu'un bootstrap standard basé sur les résidus et le bootstrap restreint et efficace #RE# de Davidson et MacKinnon #2008, 2010, 2014# ne peuvent pas estimer la distribution limite de l'estimateur du maximum de vraisemblance à information limitée #EMVIL#. La raison principale est qu'ils ne parviennent pas à bien imiter le paramètre qui caractérise l'intensité de l'identification dans l'échantillon. Par conséquent, nous proposons une méthode bootstrap modifiée qui estime de facon convergente cette distribution limite. Nos simulations montrent que la méthode bootstrap modifiée réduit considérablement les distorsions des tests asymptotiques de type Wald #$t$# dans les échantillons finis, en particulier lorsque le degré d'endogénéité est élevé.
Resumo:
This paper exploits the term structure of interest rates to develop testable economic restrictions on the joint process of long-term interest rates and inflation when the latter is subject to a targeting policy by the Central Bank. Two competing models that econometrically describe agents’ inferences about inflation targets are developed and shown to generate distinct predictions on the behavior of interest rates. In an empirical application to the Canadian inflation target zone, results indicate that agents perceive the band to be substantially narrower than officially announced and asymmetric around the stated mid-point. The latter result (i) suggests that the monetary authority attaches different weights to positive and negative deviations from the central target, and (ii) challenges on empirical grounds the assumption, frequently made in the literature, that the policy maker’s loss function is symmetric (usually a quadratic function) around a desired inflation value.
Resumo:
Objectifs : Définir les paramètres pharmacocinétiques du pantoprazole intraveineux en soins intensifs pédiatriques et déterminer l’influence qu’exercent sur ceux-ci les facteurs démographiques, le syndrome de réponse inflammatoire systémique (SRIS), la dysfonction hépatique et l’administration d’un inhibiteur du cytochrome (CYP) 2C19. Méthode : Cent cinquante-six concentrations plasmatiques de pantoprazole provenant d’une population de 20 patients (âgés de 10 jours à 16.4 ans) à risque ou atteints d’une hémorragie gastroduodénale de stress, ayant reçu des doses quotidiennes de pantoprazole de 19.9 à 140.6 mg/1.73m2, ont été analysées selon les méthodes non compartimentale et de modélisation non linéaire à effets mixtes. Résultats : Une clairance médiane (CL) de 0.14 L/h/kg, un volume apparent de distribution de 0.20 L/kg et une demi-vie d’élimination de 1.7 h ont été déterminés via l’approche non compartimentale. Le modèle populationnel à deux compartiments avec une infusion d’ordre zéro et une élimination d’ordre un représentait fidèlement la cinétique du pantoprazole. Le poids, le SRIS, la dysfonction hépatique et l’administration d’un inhibiteur du CYP2C19 constituaient les covariables significatives rendant compte de 75 % de la variabilité interindividuelle observée pour la CL. Seul le poids influençait significativement le volume central de distribution (Vc). Selon les estimations du modèle final, un enfant de cinq ans pesant 20 kg avait une CL de 5.28 L/h et un Vc de 2.22 L. La CL du pantoprazole augmentait selon l’âge et le poids tandis qu’elle diminuait respectivement de 62.3%, 65.8% et 50.5% en présence d’un SRIS, d’un inhibiteur du CYP2C19 ou d’une dysfonction hépatique. Conclusion : Ces résultats permettront de guider les cliniciens dans le choix d’une dose de charge et dans l’ajustement des posologies du pantoprazole en soins intensifs pédiatriques dépendamment de facteurs fréquemment rencontrés dans cette population.
Resumo:
La thèse comporte trois essais en microéconomie appliquée. En utilisant des modèles d’apprentissage (learning) et d’externalité de réseau, elle étudie le comportement des agents économiques dans différentes situations. Le premier essai de la thèse se penche sur la question de l’utilisation des ressources naturelles en situation d’incertitude et d’apprentissage (learning). Plusieurs auteurs ont abordé le sujet, mais ici, nous étudions un modèle d’apprentissage dans lequel les agents qui consomment la ressource ne formulent pas les mêmes croyances a priori. Le deuxième essai aborde le problème générique auquel fait face, par exemple, un fonds de recherche désirant choisir les meilleurs parmi plusieurs chercheurs de différentes générations et de différentes expériences. Le troisième essai étudie un modèle particulier d’organisation d’entreprise dénommé le marketing multiniveau (multi-level marketing). Le premier chapitre est intitulé "Renewable Resource Consumption in a Learning Environment with Heterogeneous beliefs". Nous y avons utilisé un modèle d’apprentissage avec croyances hétérogènes pour étudier l’exploitation d’une ressource naturelle en situation d’incertitude. Il faut distinguer ici deux types d’apprentissage : le adaptive learning et le learning proprement dit. Ces deux termes ont été empruntés à Koulovatianos et al (2009). Nous avons montré que, en comparaison avec le adaptive learning, le learning a un impact négatif sur la consommation totale par tous les exploitants de la ressource. Mais individuellement certains exploitants peuvent consommer plus la ressource en learning qu’en adaptive learning. En effet, en learning, les consommateurs font face à deux types d’incitations à ne pas consommer la ressource (et donc à investir) : l’incitation propre qui a toujours un effet négatif sur la consommation de la ressource et l’incitation hétérogène dont l’effet peut être positif ou négatif. L’effet global du learning sur la consommation individuelle dépend donc du signe et de l’ampleur de l’incitation hétérogène. Par ailleurs, en utilisant les variations absolues et relatives de la consommation suite à un changement des croyances, il ressort que les exploitants ont tendance à converger vers une décision commune. Le second chapitre est intitulé "A Perpetual Search for Talent across Overlapping Generations". Avec un modèle dynamique à générations imbriquées, nous avons étudié iv comment un Fonds de recherche devra procéder pour sélectionner les meilleurs chercheurs à financer. Les chercheurs n’ont pas la même "ancienneté" dans l’activité de recherche. Pour une décision optimale, le Fonds de recherche doit se baser à la fois sur l’ancienneté et les travaux passés des chercheurs ayant soumis une demande de subvention de recherche. Il doit être plus favorable aux jeunes chercheurs quant aux exigences à satisfaire pour être financé. Ce travail est également une contribution à l’analyse des Bandit Problems. Ici, au lieu de tenter de calculer un indice, nous proposons de classer et d’éliminer progressivement les chercheurs en les comparant deux à deux. Le troisième chapitre est intitulé "Paradox about the Multi-Level Marketing (MLM)". Depuis quelques décennies, on rencontre de plus en plus une forme particulière d’entreprises dans lesquelles le produit est commercialisé par le biais de distributeurs. Chaque distributeur peut vendre le produit et/ou recruter d’autres distributeurs pour l’entreprise. Il réalise des profits sur ses propres ventes et reçoit aussi des commissions sur la vente des distributeurs qu’il aura recrutés. Il s’agit du marketing multi-niveau (multi-level marketing, MLM). La structure de ces types d’entreprise est souvent qualifiée par certaines critiques de système pyramidal, d’escroquerie et donc insoutenable. Mais les promoteurs des marketing multi-niveau rejettent ces allégations en avançant que le but des MLMs est de vendre et non de recruter. Les gains et les règles de jeu sont tels que les distributeurs ont plus incitation à vendre le produit qu’à recruter. Toutefois, si cette argumentation des promoteurs de MLMs est valide, un paradoxe apparaît. Pourquoi un distributeur qui désire vraiment vendre le produit et réaliser un gain recruterait-il d’autres individus qui viendront opérer sur le même marché que lui? Comment comprendre le fait qu’un agent puisse recruter des personnes qui pourraient devenir ses concurrents, alors qu’il est déjà établi que tout entrepreneur évite et même combat la concurrence. C’est à ce type de question que s’intéresse ce chapitre. Pour expliquer ce paradoxe, nous avons utilisé la structure intrinsèque des organisations MLM. En réalité, pour être capable de bien vendre, le distributeur devra recruter. Les commissions perçues avec le recrutement donnent un pouvoir de vente en ce sens qu’elles permettent au recruteur d’être capable de proposer un prix compétitif pour le produit qu’il désire vendre. Par ailleurs, les MLMs ont une structure semblable à celle des multi-sided markets au sens de Rochet et Tirole (2003, 2006) et Weyl (2010). Le recrutement a un effet externe sur la vente et la vente a un effet externe sur le recrutement, et tout cela est géré par le promoteur de l’organisation. Ainsi, si le promoteur ne tient pas compte de ces externalités dans la fixation des différentes commissions, les agents peuvent se tourner plus ou moins vers le recrutement.
Resumo:
Parmi les méthodes d’estimation de paramètres de loi de probabilité en statistique, le maximum de vraisemblance est une des techniques les plus populaires, comme, sous des conditions l´egères, les estimateurs ainsi produits sont consistants et asymptotiquement efficaces. Les problèmes de maximum de vraisemblance peuvent être traités comme des problèmes de programmation non linéaires, éventuellement non convexe, pour lesquels deux grandes classes de méthodes de résolution sont les techniques de région de confiance et les méthodes de recherche linéaire. En outre, il est possible d’exploiter la structure de ces problèmes pour tenter d’accélerer la convergence de ces méthodes, sous certaines hypothèses. Dans ce travail, nous revisitons certaines approches classiques ou récemment d´eveloppées en optimisation non linéaire, dans le contexte particulier de l’estimation de maximum de vraisemblance. Nous développons également de nouveaux algorithmes pour résoudre ce problème, reconsidérant différentes techniques d’approximation de hessiens, et proposons de nouvelles méthodes de calcul de pas, en particulier dans le cadre des algorithmes de recherche linéaire. Il s’agit notamment d’algorithmes nous permettant de changer d’approximation de hessien et d’adapter la longueur du pas dans une direction de recherche fixée. Finalement, nous évaluons l’efficacité numérique des méthodes proposées dans le cadre de l’estimation de modèles de choix discrets, en particulier les modèles logit mélangés.
Resumo:
L’objectif de cette étude est de décrire et comprendre l’impact d’un programme de sport-étude mis sur pied pour les jeunes à risque sur la vie des participants. Le programme à l’étude a été mis sur pied à Montréal afin de maximiser l’intégration sociale de jeunes à risque de s’engager, ou étant déjà engagés dans un mode de vie déviant. Le programme mise sur les sports de combat comme levier d’intervention auprès de ces jeunes. Les participants sont invités à suivre une formation scolaire aux adultes en matinée et des entraînements en sports de combat en après-midi. L’objectif de ce programme est de les outiller pour qu’ils intègrent la société efficacement. Une méthodologie qualitative a été choisie afin de mener cette étude à terme. Une période d’observation participante et des entretiens semi-dirigés avec différents acteurs du programme ont permis de bien saisir la dynamique à l’intérieur de celui-ci et de déterminer quels sont les impacts de la participation au programme sur la vie des jeunes. Le programme génère des effets mixtes sur la vie des participants: 1) quelques uns y vivent des changements positifs, notamment par rapport à l’estime de soi et l’autodiscipline, 2) d’autres ne tirent pas de bénéfices particuliers de leur passage dans le programme et 3) certains développent un sentiment d’indifférence, d’apathie à la suite de leur passage dans le programme, notamment induit par la dynamique présente au sein de celui-ci. Il appert que le modèle logique du programme n’a pas été fidèlement respecté lors de sa mise en place. Un mauvais appariement entre la clientèle et le programme ainsi qu’une implantation déficiente du modèle logique sont à la base des effets pervers induits par celui-ci.
Resumo:
Cette thèse est une réflexion d’épistémologie sociale sur la construction des savoirs professionnels et expérientiels portant sur les problèmes de santé mentale ainsi qu’une exploration de leurs rapports à partir d’un projet de recherche montréalais. Ce projet fédéral de recherche et de démonstration visait à évaluer l’impact de l’approche Logement d’abord auprès de personnes avec des problèmes de santé mentale en situation d’itinérance. À Montréal, des pairs, avec une expérience vécue des réalités de la santé mentale et de l’itinérance, ont été impliqués dans le projet de recherche aux côtés d’intervenants, de gestionnaires et de chercheurs. Au fil des mois, leur présence a eu des effets contrastés, contribuant parfois à renforcer les barrières entre les savoirs et les hiérarchies professionnelles en présence dans le projet, et, à d’autres occasions, à les surmonter et entrer dans un processus de co-production de nouveaux savoirs et pratiques. L’analyse des rapports entre les savoirs en présence dans le projet souligne leur caractère complémentaire dans l’intervention publique dans le domaine des services sociaux et de la santé et les forces de l’approche expérimentale mise en oeuvre. La thèse offre également une contribution à la littérature sur la participation citoyenne en proposant une réflexion sur la capacité des citoyens à transformer les institutions publiques. Les données analysées sont issues d’un terrain de deux ans mêlant observations de la participation des pairs et une cinquantaine d’entretiens individuels et collectifs réalisés auprès de pairs aidants, intervenants, chefs d’équipe, psychiatres, gestionnaires et chercheurs.
Resumo:
This paper studies the application of the simulated method of moments (SMM) for the estimation of nonlinear dynamic stochastic general equilibrium (DSGE) models. Monte Carlo analysis is employed to examine the small-sample properties of SMM in specifications with different curvature. Results show that SMM is computationally efficient and delivers accurate estimates, even when the simulated series are relatively short. However, asymptotic standard errors tend to overstate the actual variability of the estimates and, consequently, statistical inference is conservative. A simple strategy to incorporate priors in a method of moments context is proposed. An empirical application to the macroeconomic effects of rare events indicates that negatively skewed productivity shocks induce agents to accumulate additional capital and can endogenously generate asymmetric business cycles.
Resumo:
L’observation d’un modèle pratiquant une habileté motrice promeut l’apprentissage de l’habileté en question. Toutefois, peu de chercheurs se sont attardés à étudier les caractéristiques d’un bon modèle et à mettre en évidence les conditions d’observation pouvant optimiser l’apprentissage. Dans les trois études composant cette thèse, nous avons examiné les effets du niveau d’habileté du modèle, de la latéralité du modèle, du point de vue auquel l’observateur est placé, et du mode de présentation de l’information sur l’apprentissage d’une tâche de timing séquentielle composée de quatre segments. Dans la première expérience de la première étude, les participants observaient soit un novice, soit un expert, soit un novice et un expert. Les résultats des tests de rétention et de transfert ont révélé que l’observation d’un novice était moins bénéfique pour l’apprentissage que le fait d’observer un expert ou une combinaison des deux (condition mixte). Par ailleurs, il semblerait que l’observation combinée de modèles novice et expert induise un mouvement plus stable et une meilleure généralisation du timing relatif imposé comparativement aux deux autres conditions. Dans la seconde expérience, nous voulions déterminer si un certain type de performance chez un novice (très variable, avec ou sans amélioration de la performance) dans l’observation d’une condition mixte amenait un meilleur apprentissage de la tâche. Aucune différence significative n’a été observée entre les différents types de modèle novices employés dans l’observation de la condition mixte. Ces résultats suggèrent qu’une observation mixte fournit une représentation précise de ce qu’il faut faire (modèle expert) et que l’apprentissage est d’autant plus amélioré lorsque l’apprenant peut contraster cela avec la performance de modèles ayant moins de succès. Dans notre seconde étude, des participants droitiers devaient observer un modèle à la première ou à la troisième personne. L’observation d’un modèle utilisant la même main préférentielle que soi induit un meilleur apprentissage de la tâche que l’observation d’un modèle dont la dominance latérale est opposée à la sienne, et ce, quel que soit l’angle d’observation. Ce résultat suggère que le réseau d’observation de l’action (AON) est plus sensible à la latéralité du modèle qu’à l’angle de vue de l’observateur. Ainsi, le réseau d’observation de l’action semble lié à des régions sensorimotrices du cerveau qui simulent la programmation motrice comme si le mouvement observé était réalisé par sa propre main dominante. Pour finir, dans la troisième étude, nous nous sommes intéressés à déterminer si le mode de présentation (en direct ou en vidéo) influait sur l’apprentissage par observation et si cet effet est modulé par le point de vue de l’observateur (première ou troisième personne). Pour cela, les participants observaient soit un modèle en direct soit une présentation vidéo du modèle et ceci avec une vue soit à la première soit à la troisième personne. Nos résultats ont révélé que l’observation ne diffère pas significativement selon le type de présentation utilisée ou le point de vue auquel l’observateur est placé. Ces résultats sont contraires aux prédictions découlant des études d’imagerie cérébrale ayant montré une activation plus importante du cortex sensorimoteur lors d’une observation en direct comparée à une observation vidéo et de la première personne comparée à la troisième personne. Dans l’ensemble, nos résultats indiquent que le niveau d’habileté du modèle et sa latéralité sont des déterminants importants de l’apprentissage par observation alors que le point de vue de l’observateur et le moyen de présentation n’ont pas d’effets significatifs sur l’apprentissage d’une tâche motrice. De plus, nos résultats suggèrent que la plus grande activation du réseau d’observation de l’action révélée par les études en imagerie mentale durant l’observation d’une action n’induit pas nécessairement un meilleur apprentissage de la tâche.
Resumo:
The first two articles build procedures to simulate vector of univariate states and estimate parameters in nonlinear and non Gaussian state space models. We propose state space speci fications that offer more flexibility in modeling dynamic relationship with latent variables. Our procedures are extension of the HESSIAN method of McCausland[2012]. Thus, they use approximation of the posterior density of the vector of states that allow to : simulate directly from the state vector posterior distribution, to simulate the states vector in one bloc and jointly with the vector of parameters, and to not allow data augmentation. These properties allow to build posterior simulators with very high relative numerical efficiency. Generic, they open a new path in nonlinear and non Gaussian state space analysis with limited contribution of the modeler. The third article is an essay in commodity market analysis. Private firms coexist with farmers' cooperatives in commodity markets in subsaharan african countries. The private firms have the biggest market share while some theoretical models predict they disappearance once confronted to farmers cooperatives. Elsewhere, some empirical studies and observations link cooperative incidence in a region with interpersonal trust, and thus to farmers trust toward cooperatives. We propose a model that sustain these empirical facts. A model where the cooperative reputation is a leading factor determining the market equilibrium of a price competition between a cooperative and a private firm