11 resultados para Data-based Safety Evaluation
em Université de Montréal, Canada
Resumo:
L'anémie de l'enfant reste un problème d'importance pour la santé mondiale, malgré les décennies de recherche visant à comprendre son étiologie et à développer des interventions efficaces pour réduire sa prévalence et ses conséquences. Bien que les facteurs de risque individuels de l'anémie soient connus, y compris les facteurs liés à la malnutrition et à la morbidité, l'interaction entre lesdits facteurs est moins documentée dans des contextes où les enfants sont fréquemment exposés à plusieurs facteurs en même temps. Cette étude vise à documenter les efforts de lutte contre l'anémie du programme MICAH qui a été mis en oeuvre au Ghana, au Malawi et en Tanzanie. Ensuite, en utilisant les données relatives à la fois au processus et à l'évaluation colligées au cours du programme, elle vise à mieux comprendre les facteurs de risque d'anémie chez les jeunes enfants dans ces contextes et à comprendre comment les relations entre ces facteurs peuvent avoir changé au fil du temps lors de l'intervention. Spécifiquement, cette étude vérifie s‘il y a des preuves d'une réduction de la vulnérabilité des enfants aux facteurs de risque associés à l'anémie dans chaque contexte. Un examen de la documentation a été réalisé afin de caractériser le contexte du programme et des interventions, leur l'intensité et étendue. Les données transversales sur la nutrition et l'état de santé des enfants âgés de 24 à 59 mois (N = 2405) obtenues en 2000 et 2004 à partir des enquêtes d'évaluation du programme MICAH au Ghana, au Malawi et en Tanzanie, ont été utilisées pour décrire la prévalence de l'anémie. Les modèles polynomiaux de régression logistique et linéaire ont été utilisés pour estimer les risques d'anémie légère et d'anémie modérée / sévère et les niveaux d‘hémoglobine associés à des groupes de variables. Les estimations du risque attribuable à une population (RAP) ont aussi été calculées. Une anémie (Hb <110 g/L) a touché au moins 60% des enfants dans les trois pays; l'anémie modérée / sévère (<100 g/L) constituait la majorité des cas. Une forte diminution de l'anémie a été observée entre 2000 et 2004 au Ghana, mais seulement une légère baisse au Malawi et en Tanzanie. Le risque d'anémie modérée / sévère était associé au retard de croissance chez les enfants du Ghana (OR 2,68, IC 95% 1,70-4,23) et du Malawi (OR 1,71; 1,29-2,27) mais pas de la Tanzanie (OR 1,29; 0,87- 1,92). Le paludisme et les maladies récentes étaient associées à une hémoglobine plus basse. Une atténuation de cette association en 2004 a été observée seulement au Malawi pour le paludisme et au Ghana pour les maladies récentes. Le risque d'anémie modérée / sévère était 44% moindre chez les enfants âgés de 48 à 59 mois comparativement aux enfants de 24 à 35 mois dans les trois pays et cela n'a pas changé entre 2000 et 2004. Les RAP estimés ont montré qu‘environ un cinquième des cas d‘anémie modérée à sévère était attribuable au retard de croissance au Ghana et Malawi, mais pas en Tanzanie. Des RAP moindres et dépendants des contextes ont été trouvés pour le paludisme et les maladies récentes. Dans ces zones d‘intervention intégrées de santé et de nutrition la relation de certains facteurs de risque à l'anémie se modifia avec le temps. Le retard de croissance est resté toutefois un facteur de risque indépendant et non mitigé de l'anémie. Une réduction efficace des causes de la malnutrition chronique est nécessaire afin de réduire la vulnérabilité des enfants et de garantir un impact maximum des programmes de lutte contre l'anémie. Une mitigation de l'impact du paludisme peut par contre être visée dans les régions endémiques.
Resumo:
La surveillance de l’influenza s’appuie sur un large spectre de données, dont les données de surveillance syndromique provenant des salles d’urgences. De plus en plus de variables sont enregistrées dans les dossiers électroniques des urgences et mises à la disposition des équipes de surveillance. L’objectif principal de ce mémoire est d’évaluer l’utilité potentielle de l’âge, de la catégorie de triage et de l’orientation au départ de l’urgence pour améliorer la surveillance de la morbidité liée aux cas sévères d’influenza. Les données d’un sous-ensemble des hôpitaux de Montréal ont été utilisées, d’avril 2006 à janvier 2011. Les hospitalisations avec diagnostic de pneumonie ou influenza ont été utilisées comme mesure de la morbidité liée aux cas sévères d’influenza, et ont été modélisées par régression binomiale négative, en tenant compte des tendances séculaires et saisonnières. En comparaison avec les visites avec syndrome d’allure grippale (SAG) totales, les visites avec SAG stratifiées par âge, par catégorie de triage et par orientation de départ ont amélioré le modèle prédictif des hospitalisations avec pneumonie ou influenza. Avant d’intégrer ces variables dans le système de surveillance de Montréal, des étapes additionnelles sont suggérées, incluant l’optimisation de la définition du syndrome d’allure grippale à utiliser, la confirmation de la valeur de ces prédicteurs avec de nouvelles données et l’évaluation de leur utilité pratique.
Resumo:
Objectifs : Analyser l’évolution de l’embonpoint chez les enfants québécois entre 4 et 8 ans et évaluer le rôle des différents facteurs de risque sur l’excès de poids persistant. Les données proviennent de l’étude longitudinale du développement des enfants du Québec (ÉLDEQ, 1998-2010). Cette enquête est réalisée par l’Institut de la statistique du Québec auprès d’une cohorte de 2120 nourrissons québécois nés en 1998, faisant l’objet d’un suivi annuel à partir de l’âge de 5 mois. Méthodes d’analyse : univariées, bivariées, modélisation semi-paramétrique, analyses de régressions logistique et log-linéaire (Poisson). Principaux résultats : i) L’excès de poids persistant chez les enfants âgés de 4 à 8 ans est un phénomène fluctuant, qui ne varie pas de façon significative selon le sexe ; ii) Le fait d’allaiter les enfants ne semble pas avoir un effet protecteur en ce qui concerne l’excès de poids ; iii) En ce qui concerne le poids à la naissance, les données dont on dispose ne nous permettent pas de tirer des conclusions ; iv) Le fait d’avoir une santé moins qu’excellente à la naissance semble augmenter le risque d’avoir un excès de poids persistant ; v)Ce qui influence surtout, c’est de toujours manger trop ou trop vite, ou le fait de vivre dans une famille avec un ou deux parents qui font de l’embonpoint ; vi) Les mères qui ont fume pendant leur grossesse présentent une probabilité plus élevée d’avoir des enfants avec un excès de poids persistant que celles qui n’ont pas fumé.
Resumo:
Notre recherche s’inscrit dans le cadre de l’adoption par le Sénégal de l’approche par compétences avec des pratiques évaluatives favorisant la réussite du plus grand nombre d’élèves. Parmi ces pratiques, figurent celles liées à l’évaluation formative et particulièrement aux rétroactions écrites, pouvant prolonger les activités d’apprentissage (Scallon, 2004; OCDE, 2005) et permettre la maîtrise des acquis. De ce point de vue, nous avons examiné les façons de faire l’évaluation formative de trois enseignants sénégalais du primaire. Le but est de documenter leurs façons de pratiquer la rétroaction écrite avant et après une expérimentation des annotations selon les modèles de Rodet (2000) et de Lebœuf (1999). Dans cette optique, notre recherche puise ses fondements dans les recherches qualitatives liées au paradigme naturaliste (Fortin, 2010; Deslauriers et Kérésit, 1997; Savoie-Zajc et Karsenti, 2011). Plus précisément, nous avons opté pour une recherche-formation au travers de la double démarche que nous avons empruntée. D’une part, l’étude est parcourue par une démarche de recherche qualitative telle que Fortin (2010) la conçoit, et ce, à des fins de compréhension des pratiques de rétroaction écrite des enseignants ciblés. D’autre part, le chercheur suit une démarche de formation en s’appuyant sur les travaux de Galvani (1999) et de Lafortune (2006), avec comme visée l’expérimentation de la pratique des annotations. Comme instruments de collecte, nous avons utilisé l’entrevue individuelle semi-structurée ainsi que deux guides d’entretien, en plus des deux grilles de recueil d’annotations. L’analyse des données a permis de constater que, en amont de l’expérimentation, la rétroaction écrite est constituée essentiellement de signes divers, de notes chiffrées et de commentaires sous forme d’appréciations globales. En aval, elle se compose majoritairement d’annotations à formulations positive et constructive à contenu cognitif, et des commentaires injonctifs, verdictifs et explicatifs. Au final, les enseignants trouvent cette nouvelle façon de faire avantageuse en termes de réussite des élèves mais contraignante au vu de son caractère chronophage. Cette recherche ouvre, entre autres, sur une étude traitant des liens entre annotations et réussite des élèves.
Resumo:
La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).
Resumo:
L’architecture au sens strict, qui renvoie à la construction, n’est pas indépendante des déterminations mentales, des images et des valeurs esthétiques, comme références, amenées par divers champs d’intérêt au problème du sens. Elle est, de par ce fait, un objet d’interprétation. Ce qu’on appelle communément « signification architecturale », est un univers vaste dans lequel sont constellées des constructions hypothétiques. En ce qui nous concerne, il s’agit non seulement de mouler la signification architecturale selon un cadre et des matières spécifiques de référence, mais aussi, de voir de près la relation de cette question avec l’attitude de perception de l’homme. Dans l’étude de la signification architecturale, on ne peut donc se détacher du problème de la perception. Au fond, notre travail montrera leur interaction, les moyens de sa mise en œuvre et ce qui est en jeu selon les pratiques théoriques qui la commandent. En posant la question de l’origine de l’acte de perception, qui n’est ni un simple acte de voir, ni un acte contemplatif, mais une forme d’interaction active avec la forme architecturale ou la forme d’art en général, on trouve dans les écrits de l’historien Christian Norberg-Schulz deux types de travaux, et donc deux types de réponses dont nous pouvons d’emblée souligner le caractère antinomique l’une par rapport à l’autre. C’est qu’il traite, dans le premier livre qu’il a écrit, Intentions in architecture (1962), connu dans sa version française sous le titre Système logique de l’architecture (1974, ci-après SLA), de l’expression architecturale et des modes de vie en société comme un continuum, défendant ainsi une approche culturelle de la question en jeu : la signification architecturale et ses temporalités. SLA désigne et représente un système théorique influencé, à bien des égards, par les travaux de l’épistémologie de Jean Piaget et par les contributions de la sémiotique au développement de l’étude de la signification architecturale. Le second type de réponse sur l’origine de l’acte de perception que formule Norberg-Schulz, basé sur sur les réflexions du philosophe Martin Heidegger, se rapporte à un terrain d’étude qui se situe à la dérive de la revendication du fondement social et culturel du langage architectural. Il lie, plus précisément, l’étude de la signification à l’étude de l’être. Reconnaissant ainsi la primauté, voire la prééminence, d’une recherche ontologique, qui consiste à soutenir les questionnements sur l’être en tant qu’être, il devrait amener avec régularité, à partir de son livre Existence, Space and Architecture (1971), des questions sur le fondement universel et historique de l’expression architecturale. Aux deux mouvements théoriques caractéristiques de ses écrits correspond le mouvement que prend la construction de notre thèse que nous séparons en deux parties. La première partie sera ainsi consacrée à l’étude de SLA avec l’objectif de déceler les ambiguïtés qui entourent le cadre de son élaboration et à montrer les types de legs que son auteur laisse à la théorie architecturale. Notre étude va montrer l’aspect controversé de ce livre, lié aux influences qu’exerce la pragmatique sur l’étude de la signification. Il s’agit dans cette première partie de présenter les modèles théoriques dont il débat et de les mettre en relation avec les différentes échelles qui y sont proposées pour l’étude du langage architectural, notamment avec l’échelle sociale. Celle-ci implique l’étude de la fonctionnalité de l’architecture et des moyens de recherche sur la typologie de la forme architecturale et sur sa schématisation. Notre approche critique de cet ouvrage prend le point de vue de la recherche historique chez Manfredo Tafuri. La seconde partie de notre thèse porte, elle, sur les fondements de l’intérêt chez Norberg-Schulz à partager avec Heidegger la question de l’Être qui contribuent à fonder une forme d’investigation existentielle sur la signification architecturale et du problème de la perception . L’éclairage de ces fondements exige, toutefois, de montrer l’enracinement de la question de l’Être dans l’essence de la pratique herméneutique chez Heidegger, mais aussi chez H. G. Gadamer, dont se réclame aussi directement Norberg-Schulz, et de dévoiler, par conséquent, la primauté établie de l’image comme champ permettant d’instaurer la question de l’Être au sein de la recherche architecturale. Sa recherche conséquente sur des valeurs esthétiques transculturelles a ainsi permis de réduire les échelles d’étude de la signification à l’unique échelle d’étude de l’Être. C’est en empruntant cette direction que Norberg-Schulz constitue, au fond, suivant Heidegger, une approche qui a pour tâche d’aborder l’« habiter » et le « bâtir » à titre de solutions au problème existentiel de l’Être. Notre étude révèle, cependant, une interaction entre la question de l’Être et la critique de la technique moderne par laquelle l’architecture est directement concernée, centrée sur son attrait le plus marquant : la reproductibilité des formes. Entre les écrits de Norberg-Schulz et les analyses spécifiques de Heidegger sur le problème de l’art, il existe un contexte de rupture avec le langage de la théorie qu’il s’agit pour nous de dégager et de ramener aux exigences du travail herméneutique, une approche que nous avons nous-même adoptée. Notre méthode est donc essentiellement qualitative. Elle s’inspire notamment des méthodes d’interprétation, de là aussi notre recours à un corpus constitué des travaux de Gilles Deleuze et de Jacques Derrida ainsi qu’à d’autres travaux associés à ce type d’analyse. Notre recherche demeure cependant attentive à des questions d’ordre épistémologique concernant la relation entre la discipline architecturale et les sciences qui se prêtent à l’étude du langage architectural. Notre thèse propose non seulement une compréhension approfondie des réflexions de Norberg-Schulz, mais aussi une démonstration de l’incompatibilité de la phénoménologie de Heidegger et des sciences du langage, notamment la sémiotique.
Approximation de la distribution a posteriori d'un modèle Gamma-Poisson hiérarchique à effets mixtes
Resumo:
La méthode que nous présentons pour modéliser des données dites de "comptage" ou données de Poisson est basée sur la procédure nommée Modélisation multi-niveau et interactive de la régression de Poisson (PRIMM) développée par Christiansen et Morris (1997). Dans la méthode PRIMM, la régression de Poisson ne comprend que des effets fixes tandis que notre modèle intègre en plus des effets aléatoires. De même que Christiansen et Morris (1997), le modèle étudié consiste à faire de l'inférence basée sur des approximations analytiques des distributions a posteriori des paramètres, évitant ainsi d'utiliser des méthodes computationnelles comme les méthodes de Monte Carlo par chaînes de Markov (MCMC). Les approximations sont basées sur la méthode de Laplace et la théorie asymptotique liée à l'approximation normale pour les lois a posteriori. L'estimation des paramètres de la régression de Poisson est faite par la maximisation de leur densité a posteriori via l'algorithme de Newton-Raphson. Cette étude détermine également les deux premiers moments a posteriori des paramètres de la loi de Poisson dont la distribution a posteriori de chacun d'eux est approximativement une loi gamma. Des applications sur deux exemples de données ont permis de vérifier que ce modèle peut être considéré dans une certaine mesure comme une généralisation de la méthode PRIMM. En effet, le modèle s'applique aussi bien aux données de Poisson non stratifiées qu'aux données stratifiées; et dans ce dernier cas, il comporte non seulement des effets fixes mais aussi des effets aléatoires liés aux strates. Enfin, le modèle est appliqué aux données relatives à plusieurs types d'effets indésirables observés chez les participants d'un essai clinique impliquant un vaccin quadrivalent contre la rougeole, les oreillons, la rub\'eole et la varicelle. La régression de Poisson comprend l'effet fixe correspondant à la variable traitement/contrôle, ainsi que des effets aléatoires liés aux systèmes biologiques du corps humain auxquels sont attribués les effets indésirables considérés.
Resumo:
Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.
Resumo:
Dans cette thèse, nous étudions quelques problèmes fondamentaux en mathématiques financières et actuarielles, ainsi que leurs applications. Cette thèse est constituée de trois contributions portant principalement sur la théorie de la mesure de risques, le problème de l’allocation du capital et la théorie des fluctuations. Dans le chapitre 2, nous construisons de nouvelles mesures de risque cohérentes et étudions l’allocation de capital dans le cadre de la théorie des risques collectifs. Pour ce faire, nous introduisons la famille des "mesures de risque entropique cumulatifs" (Cumulative Entropic Risk Measures). Le chapitre 3 étudie le problème du portefeuille optimal pour le Entropic Value at Risk dans le cas où les rendements sont modélisés par un processus de diffusion à sauts (Jump-Diffusion). Dans le chapitre 4, nous généralisons la notion de "statistiques naturelles de risque" (natural risk statistics) au cadre multivarié. Cette extension non-triviale produit des mesures de risque multivariées construites à partir des données financiéres et de données d’assurance. Le chapitre 5 introduit les concepts de "drawdown" et de la "vitesse d’épuisement" (speed of depletion) dans la théorie de la ruine. Nous étudions ces concepts pour des modeles de risque décrits par une famille de processus de Lévy spectrallement négatifs.
Resumo:
This note develops general model-free adjustment procedures for the calculation of unbiased volatility loss functions based on practically feasible realized volatility benchmarks. The procedures, which exploit the recent asymptotic distributional results in Barndorff-Nielsen and Shephard (2002a), are both easy to implement and highly accurate in empirically realistic situations. On properly accounting for the measurement errors in the volatility forecast evaluations reported in Andersen, Bollerslev, Diebold and Labys (2003), the adjustments result in markedly higher estimates for the true degree of return-volatility predictability.
Resumo:
Introduction: Bien que l'importance de transférer les données de la recherche à la pratique a été largement démontrée, ce processus est toujours lent et fait face à plusieurs défis tels que la conceptualisation des évidences, la validité interne et externe de la recherche scientifique et les coûts élevés de la collecte de grandes quantités de données axées sur le patient. Les dossiers dentaires des patients contiennent des renseignements valables qui donneraient aux chercheurs cliniques une opportunité d'utiliser un large éventail d'informations quantitatives ou qualitatives. La standardisation du dossier clinique permettrait d’échanger et de réutiliser des données dans différents domaines de recherche. Objectifs: Le but de cette étude était de concevoir un dossier patient axé sur la recherche dans le domaine de la prosthodontie amovible à la clinique de premier cycle de l’Université de Montréal. Méthodes: Cette étude a utilisé des méthodes de recherche-action avec 4 étapes séquentielles : l'identification des problèmes, la collecte et l'interprétation des données, la planification et l’évaluation de l'action. Les participants de l'étude (n=14) incluaient des professeurs, des chercheurs cliniques et des instructeurs cliniques dans le domaine de la prosthodontie amovible. La collecte des données a été menée à l’aide d’une revue de littérature ciblée et complète sur les résultats en prosthodontie ainsi que par le biais de discussions de groupes et d’entrevues. Les données qualitatives ont été analysées en utilisant QDA Miner 3.2.3. Résultats: Les participants de l'étude ont soulevé plusieurs points absents au formulaire actuel de prosthodontie à la clinique de premier cycle. Ils ont partagé leurs idées pour la conception d'un nouveau dossier-patient basé sur 3 objectifs principaux: les objectifs cliniques, éducatifs et de recherche. Les principaux sujets d’intérêt en prosthodontie amovibles, les instruments appropriés ainsi que les paramètres cliniques ont été sélectionnés par le groupe de recherche. Ces résultats ont été intégrés dans un nouveau formulaire basé sur cette consultation. La pertinence du nouveau formulaire a été évaluée par le même groupe d'experts et les modifications requises ont été effectuées. Les participants de l'étude ont convenu que le cycle de recherche-action doit être poursuivi afin d'évaluer la faisabilité d’implémentation de ce dossier modifié dans un cadre universitaire. Conclusion: Cette étude est une première étape pour développer une base de données dans le domaine de la prothodontie amovible. La recherche-action est une méthode de recherche utile dans ce processus, et les éducateurs académiques sont bien placés pour mener ce type de recherche.