226 resultados para Algorithme de recherche
Resumo:
Les problèmes de satisfaction de contraintes, qui consistent à attribuer des valeurs à des variables en respectant un ensemble de contraintes, constituent une large classe de problèmes naturels. Pour étudier la complexité de ces problèmes, il est commode de les voir comme des problèmes d'homomorphismes vers des structures relationnelles. Un axe de recherche actuel est la caractérisation des classes de complexité auxquelles appartient le problème d'homomorphisme, ceci dans la perspective de confirmer des conjectures reliant les propriétés algébriques des structures relationelles à la complexité du problème d'homomorphisme. Cette thèse propose dans un premier temps la caractérisation des digraphes pour lesquels le problème d'homomorphisme avec listes appartient à FO. On montre également que dans le cas du problèmes d'homomorphisme avec listes sur les digraphes télescopiques, les conjectures reliant algèbre et complexité sont confirmées. Dans un deuxième temps, on caractérise les graphes pour lesquels le problème d'homomorphisme avec listes est résoluble par cohérence d'arc. On introduit la notion de polymorphisme monochromatique et on propose un algorithme simple qui résoud le problème d'homomorphisme avec listes si le graphe cible admet un polymorphisme monochromatique TSI d'arité k pour tout k ≥ 2.
Resumo:
En 2007, le Collège des médecins du Québec a résolu d’adopter le plan d’autogestion du développement professionnel continu (DPC) comme outil de maintien de la compétence professionnelle. Bien que la plupart des médecins reconnaissent la nécessité de demeurer à la fine pointe des connaissances et des découvertes médicales, certains considèrent le plan d’autogestion comme une corvée administrative. Afin de mieux comprendre leurs perceptions à l’égard du plan de DPC, une recherche qualitative a été menée à l’été 2010, par le biais d’entretiens individuels semi-structurés, auprès d’un échantillon de vingt-sept médecins québécois. Un échantillonnage mixte, utilisant la technique « boule de neige » et faisant appel à des informateurs clés et à des cas dits « négatifs », a permis d’atteindre un bon niveau de diversification de l’échantillon et la saturation empirique des données. Bien que les médecins interrogés soient généralement favorables au principe d’un plan d’autogestion de DPC, les commentaires et suggestions formulés par certains d’entre eux devraient inciter le Collège à apporter certaines améliorations à ce plan. Certains irritants tels que la nécessité de tenir à jour un registre des activités de DPC et d’en rendre compte au Collège ont été soulevés. Par contre, la majorité des médecins interrogés considèrent que le plan de DPC d’un médecin témoigne des efforts qu’ils déploient pour rester à la fine pointe des progrès scientifiques et technologiques dans le domaine de la santé. Finalement, tous les médecins interrogés considèrent que le maintien de leur compétence professionnelle est une obligation morale et déontologique.
Resumo:
Malgré des progrès constants en termes de capacité de calcul, mémoire et quantité de données disponibles, les algorithmes d'apprentissage machine doivent se montrer efficaces dans l'utilisation de ces ressources. La minimisation des coûts est évidemment un facteur important, mais une autre motivation est la recherche de mécanismes d'apprentissage capables de reproduire le comportement d'êtres intelligents. Cette thèse aborde le problème de l'efficacité à travers plusieurs articles traitant d'algorithmes d'apprentissage variés : ce problème est vu non seulement du point de vue de l'efficacité computationnelle (temps de calcul et mémoire utilisés), mais aussi de celui de l'efficacité statistique (nombre d'exemples requis pour accomplir une tâche donnée). Une première contribution apportée par cette thèse est la mise en lumière d'inefficacités statistiques dans des algorithmes existants. Nous montrons ainsi que les arbres de décision généralisent mal pour certains types de tâches (chapitre 3), de même que les algorithmes classiques d'apprentissage semi-supervisé à base de graphe (chapitre 5), chacun étant affecté par une forme particulière de la malédiction de la dimensionalité. Pour une certaine classe de réseaux de neurones, appelés réseaux sommes-produits, nous montrons qu'il peut être exponentiellement moins efficace de représenter certaines fonctions par des réseaux à une seule couche cachée, comparé à des réseaux profonds (chapitre 4). Nos analyses permettent de mieux comprendre certains problèmes intrinsèques liés à ces algorithmes, et d'orienter la recherche dans des directions qui pourraient permettre de les résoudre. Nous identifions également des inefficacités computationnelles dans les algorithmes d'apprentissage semi-supervisé à base de graphe (chapitre 5), et dans l'apprentissage de mélanges de Gaussiennes en présence de valeurs manquantes (chapitre 6). Dans les deux cas, nous proposons de nouveaux algorithmes capables de traiter des ensembles de données significativement plus grands. Les deux derniers chapitres traitent de l'efficacité computationnelle sous un angle différent. Dans le chapitre 7, nous analysons de manière théorique un algorithme existant pour l'apprentissage efficace dans les machines de Boltzmann restreintes (la divergence contrastive), afin de mieux comprendre les raisons qui expliquent le succès de cet algorithme. Finalement, dans le chapitre 8 nous présentons une application de l'apprentissage machine dans le domaine des jeux vidéo, pour laquelle le problème de l'efficacité computationnelle est relié à des considérations d'ingénierie logicielle et matérielle, souvent ignorées en recherche mais ô combien importantes en pratique.
Resumo:
La recherche sur l’utilisation des connaissances issues de la recherche (CIR) est en pleine expansion. Plusieurs études ont montré que l’utilisation des CIR contribue à améliorer la réussite scolaire des élèves. Toutefois, il semble que les enseignants les utilisent très peu. Pour améliorer cette utilisation, il est nécessaire de développer un modèle explicatif de l’utilisation des connaissances issues de la recherche. Ce modèle permet de rendre compte des mécanismes menant à l’utilisation des connaissances issues de la recherche en milieu de pratique. Il permet également de mettre en évidence les facteurs les plus influents et l’agencement de ces différents facteurs dans le but de favoriser une meilleure utilisation des connaissances issues de la recherche. Ce dernier aspect constitue l’objectif principal de cette thèse pour le domaine spécifique de l’éducation. Pour ce faire, un questionnaire sur l’utilisation des connaissances issues de la recherche (QUC) est validé et un modèle est proposé. Le premier article de la thèse examine la fiabilité, la validité et la structure factorielle du QUC avec un échantillon francophone et anglophone d’un milieu défavorisé. Le QUC, composé de 43 items, mesure six dimensions, soit : l’utilisation des connaissances issues de la recherche, le contexte organisationnel, la stratégie de soutien, l’opinion des utilisateurs et leur expertise ainsi que la fréquence d’accès aux sources des connaissances issues de la recherche. Au total, 2270 enseignants ont complété le questionnaire. Les résultats des différentes analyses montrent que le QUC doit être réduit à 20 items regroupés en cinq facteurs : l’utilisation des connaissances issues de la recherche, l’opinion des utilisateurs, la stratégie de soutien, l’expertise des utilisateurs et les facteurs organisationnels. Le second article de cette thèse examine quel modèle permet de mieux expliquer l’utilisation des CIR. Pour ce faire, deux modèles sont testés avec le même échantillon que dans le premier article, soit un modèle de liens directs et un modèle avec médiation. Pour le premier modèle, un lien direct entre l’utilisation des connaissances issues de la recherche et les facteurs qui favorisent cette utilisation est postulé : l’expertise, l’opinion, la stratégie de soutien et le facteur organisationnel auront des liens directs avec l’utilisation des connaissances issues de la recherche. Le second modèle (modèle avec médiation) se base quant à lui sur les théories de l’action raisonnée et du comportement planifié et postule que le lien entre les facteurs et l’utilisation n’est pas direct; certains facteurs ont des effets directs et d’autres des effets indirects. Concrètement, ce second modèle postule que l’expertise et l’opinion agissent comme médiateurs entre, d’une part, les deux variables indépendantes (le facteur organisationnel et la stratégie de soutien), et, d’autre part, la variable dépendante (l’utilisation des connaissances issues de la recherche). Les résultats des analyses montrent que le modèle avec médiation permet de mieux comprendre l’utilisation des connaissances issues de la recherche. Cette étude a permis de valider un questionnaire sur l’utilisation des connaissances issues de la recherche et aboutit à la proposition d’un modèle qui permet d’expliquer l’utilisation des connaissances issues de la recherche spécialement conçu pour le domaine de l’éducation. Elle fournit des outils (un questionnaire validé et un modèle) qui permettent de mieux cerner le paradigme de l’utilisation des connaissances issues de la recherche, ce qui pourrait favoriser une plus grande utilisation des CIR par les intervenants scolaires. En effet, les résultats de cette recherche peuvent guider les décideurs dans l’implantation des programmes menant à l’utilisation des connaissances issues de la recherche qui s’adressent aux enseignants. Ces résultats indiquent sur quels facteurs agir en premier lieu afin d’améliorer l’utilisation des CIR chez les enseignants du secondaire dans les milieux défavorisés. Le présent modèle pourrait être utilisé dans d’autres milieux scolaires (par exemple les milieux non défavorisés ou les milieux scolaires primaires) après validation.
Resumo:
Le design pédagogique dans les jeux vidéo non éducatifs est une discipline en mal de définitions et de méthodes. Contrairement à celui que l’on trouve dans les écoles ou autres institutions de formation, le design pédagogique pour les jeux vidéo non éducatifs est fait par des designers de jeux qui n’ont souvent aucune formation en enseignement. Un modèle de design pédagogique pour les jeux vidéo non éducatifs est donc développé dans ce mémoire, à partir d’une recherche exploratoire utilisant l’analyse de contenu de jeux vidéo et les théories de la science de l’éducation. Étant donné les ressources limitées disponibles pour le développement du modèle, la présente recherche pourra servir de base à la construction d’un modèle plus élaboré sur un sujet semblable, offrira des pistes intéressantes de recherche sur l’enseignement par le jeu et pourra soutenir les designers de jeu lors de la planification du design pédagogique dans leurs jeux.
Resumo:
L'objectif principal de ce travail est d’étudier en profondeur certaines techniques biostatistiques avancées en recherche évaluative en chirurgie cardiaque adulte. Les études ont été conçues pour intégrer les concepts d'analyse de survie, analyse de régression avec “propensity score”, et analyse de coûts. Le premier manuscrit évalue la survie après la réparation chirurgicale de la dissection aigüe de l’aorte ascendante. Les analyses statistiques utilisées comprennent : analyses de survie avec régression paramétrique des phases de risque et d'autres méthodes paramétriques (exponentielle, Weibull), semi-paramétriques (Cox) ou non-paramétriques (Kaplan-Meier) ; survie comparée à une cohorte appariée pour l’âge, le sexe et la race utilisant des tables de statistiques de survie gouvernementales ; modèles de régression avec “bootstrapping” et “multinomial logit model”. L'étude a démontrée que la survie s'est améliorée sur 25 ans en lien avec des changements dans les techniques chirurgicales et d’imagerie diagnostique. Le second manuscrit est axé sur les résultats des pontages coronariens isolés chez des patients ayant des antécédents d'intervention coronarienne percutanée. Les analyses statistiques utilisées comprennent : modèles de régression avec “propensity score” ; algorithme complexe d'appariement (1:3) ; analyses statistiques appropriées pour les groupes appariés (différences standardisées, “generalized estimating equations”, modèle de Cox stratifié). L'étude a démontrée que l’intervention coronarienne percutanée subie 14 jours ou plus avant la chirurgie de pontages coronariens n'est pas associée à des résultats négatifs à court ou long terme. Le troisième manuscrit évalue les conséquences financières et les changements démographiques survenant pour un centre hospitalier universitaire suite à la mise en place d'un programme de chirurgie cardiaque satellite. Les analyses statistiques utilisées comprennent : modèles de régression multivariée “two-way” ANOVA (logistique, linéaire ou ordinale) ; “propensity score” ; analyses de coûts avec modèles paramétriques Log-Normal. Des modèles d’analyse de « survie » ont également été explorés, utilisant les «coûts» au lieu du « temps » comme variable dépendante, et ont menés à des conclusions similaires. L'étude a démontrée que, après la mise en place du programme satellite, moins de patients de faible complexité étaient référés de la région du programme satellite au centre hospitalier universitaire, avec une augmentation de la charge de travail infirmier et des coûts.
Resumo:
Ce mémoire de maîtrise a pour objet une recherche de leptons lourds de quatrième génération avec les données prises par le détecteur ATLAS au LHC dans les collisions pp à $\sqrt{s}$ = 7 TeV et avec une luminosité intégrée de 1.02 fb$^{-1}$. Le processus étudié est la production au singulet de leptons lourds neutres de quatrième génération (N) par la voie du courant chargé suivi de la désintégration du celui-ci en un électron et un boson W : $ pp \to W \to N e \to e W e \to e e \nu_{\ell} \ell $ ($\ell$ = $e$ ou $\mu$), et dépend d'un paramètre de mélange $\xi^{2}$ avec un lepton léger. L'analyse passe par plusieurs étapes, soit l'utilisation de FeynRules pour construire le modèle pour ensuite générer des événements par MadGraph 5.1.2.4. Comme hypothèse de référence, on a choisi une masse de 100 GeV pour le lepton lourd neutre et $\xi_{Ne}^2$ = 0.19, donnant une section efficace de 0.312 pb pour une énergie au centre de masse de 7 TeV. Puisque la génération du signal s'est faite de manière privée à Montréal et non par la collaboration ATLAS, les résultats ne peuvent pas être reconnus officiellement. Sur la base de la simulation, avec des données correspondant à 1 fb$^{-1}$, la limite supérieure attendue à un niveau de confiance de $95\%$ sur la section efficace du signal est de 0.145 pb avec 0.294 pb pour un écart type($\sigma$) et 0.519 pb pour 2$\sigma$. La limite supérieure attendue à un niveau de confiance de $95\%$ sur $\xi_{Ne}^{2}$ de 0.09 pour une masse de 100 GeV.
Resumo:
Nous y introduisons une nouvelle classe de distributions bivariées de type Marshall-Olkin, la distribution Erlang bivariée. La transformée de Laplace, les moments et les densités conditionnelles y sont obtenus. Les applications potentielles en assurance-vie et en finance sont prises en considération. Les estimateurs du maximum de vraisemblance des paramètres sont calculés par l'algorithme Espérance-Maximisation. Ensuite, notre projet de recherche est consacré à l'étude des processus de risque multivariés, qui peuvent être utiles dans l'étude des problèmes de la ruine des compagnies d'assurance avec des classes dépendantes. Nous appliquons les résultats de la théorie des processus de Markov déterministes par morceaux afin d'obtenir les martingales exponentielles, nécessaires pour établir des bornes supérieures calculables pour la probabilité de ruine, dont les expressions sont intraitables.
Resumo:
Le diabète de type 2 (DT2) apparaît lorsque la sécrétion d’insuline par les cellules β des îlots du pancréas ne parvient plus à compenser la résistance à l’insuline des organes cibles. Parmi les médicaments disponibles pour traiter le DT2, deux classes agissent en améliorant la sensibilité à l’insuline : les biguanides (metformine) et les thiazolidinediones (pioglitazone et rosiglitazone). Des études suggèrent que ces médicaments protègent également la fonction des cellules β. Dans le but d’identifier des mécanismes par lesquels les médicaments insulinosensibilisateurs protègent les cellules β, nous avons étudié les effets aigus de la metformine et de la pioglitazone sur le métabolisme et la fonction des cellules INS 832/13, sécrétrices d’insuline et des îlots pancréatiques isolés de rats. Nous avons aussi validé in vivo avec des rats Wistar les principales observations obtenues en présence de pioglitazone grâce à des clamps glucidiques et par calorimétrie indirecte. Le traitement aigu des cellules β avec de la pioglitazone ou de la metformine inhibe la sécrétion d’insuline induite par le glucose en diminuant la sensibilité des cellules au glucose (inhibition en présence de concentrations intermédiaires de glucose seulement). Dans les mêmes conditions, les traitements inhibent aussi plusieurs paramètres du métabolisme mitochondrial des nutriments et, pour la pioglitazone, du métabolisme des lipides. Les composés affectent le métabolisme en suivant un patron d’inhibition similaire à celui observé pour la sécrétion d’insuline, que nous avons nommé « décélération métabolique ». La capacité de la pioglitazone à inhiber la sécrétion d’insuline et à ralentir le métabolisme mitochondrial de façon aigüe se confirme in vivo. En conclusion, nous avons identifié la décélération métabolique de la cellule β comme nouveau mode d’action pour les médicaments insulinosensibilisateurs. La décélération métabolique causée par les agents insulinosensibilisateurs les plus utilisés semble provenir d’une inhibition du métabolisme mitochondrial et pourrait être impliquée dans les bienfaits de ceux-ci dans un contexte de stress métabolique. Le fait que les deux agents insulinosensibilisateurs étudiés agissent à la fois sur la sensibilité à l’insuline et sur la sécrétion d’insuline, les deux composantes majeures du DT2, pourrait expliquer pourquoi ils sont parmi les agents antidiabétiques les plus efficaces. La décélération métabolique est une approche thérapeutique à considérer pour le traitement du DT2 et d’autres maladies métaboliques.
Resumo:
Nous proposons de construire un atlas numérique 3D contenant les caractéristiques moyennes et les variabilités de la morphologie d’un organe. Nos travaux seront appliqués particulièrement à la construction d'un atlas numérique 3D de la totalité de la cornée humaine incluant la surface antérieure et postérieure à partir des cartes topographiques fournies par le topographe Orbscan II. Nous procédons tout d'abord par normalisation de toute une population de cornées. Dans cette étape, nous nous sommes basés sur l'algorithme de recalage ICP (iterative closest point) pour aligner simultanément les surfaces antérieures et postérieures d'une population de cornée vers les surfaces antérieure et postérieure d'une cornée de référence. En effet, nous avons élaboré une variante de l'algorithme ICP adapté aux images (cartes) de cornées qui tient compte de changement d'échelle pendant le recalage et qui se base sur la recherche par voisinage via la distance euclidienne pour établir la correspondance entre les points. Après, nous avons procédé pour la construction de l'atlas cornéen par le calcul des moyennes des élévations de surfaces antérieures et postérieures recalées et leurs écarts-types associés. Une population de 100 cornées saines a été utilisée pour construire l'atlas cornéen normal. Pour visualiser l’atlas, on a eu recours à des cartes topographiques couleurs similairement à ce qu’offrent déjà les systèmes topographiques actuels. Enfin, des observations ont été réalisées sur l'atlas cornéen reflétant sa précision et permettant de développer une meilleure connaissance de l’anatomie cornéenne.
Resumo:
La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l'Université de Montréal (www.bib.umontreal.ca/MU).
Resumo:
La fibrillation auriculaire (FA) est une arythmie touchant les oreillettes. En FA, la contraction auriculaire est rapide et irrégulière. Le remplissage des ventricules devient incomplet, ce qui réduit le débit cardiaque. La FA peut entraîner des palpitations, des évanouissements, des douleurs thoraciques ou l’insuffisance cardiaque. Elle augmente aussi le risque d'accident vasculaire. Le pontage coronarien est une intervention chirurgicale réalisée pour restaurer le flux sanguin dans les cas de maladie coronarienne sévère. 10% à 65% des patients qui n'ont jamais subi de FA, en sont victime le plus souvent lors du deuxième ou troisième jour postopératoire. La FA est particulièrement fréquente après une chirurgie de la valve mitrale, survenant alors dans environ 64% des patients. L'apparition de la FA postopératoire est associée à une augmentation de la morbidité, de la durée et des coûts d'hospitalisation. Les mécanismes responsables de la FA postopératoire ne sont pas bien compris. L'identification des patients à haut risque de FA après un pontage coronarien serait utile pour sa prévention. Le présent projet est basé sur l'analyse d’électrogrammes cardiaques enregistrées chez les patients après pontage un aorte-coronaire. Le premier objectif de la recherche est d'étudier si les enregistrements affichent des changements typiques avant l'apparition de la FA. Le deuxième objectif est d'identifier des facteurs prédictifs permettant d’identifier les patients qui vont développer une FA. Les enregistrements ont été réalisés par l'équipe du Dr Pierre Pagé sur 137 patients traités par pontage coronarien. Trois électrodes unipolaires ont été suturées sur l'épicarde des oreillettes pour enregistrer en continu pendant les 4 premiers jours postopératoires. La première tâche était de développer un algorithme pour détecter et distinguer les activations auriculaires et ventriculaires sur chaque canal, et pour combiner les activations des trois canaux appartenant à un même événement cardiaque. L'algorithme a été développé et optimisé sur un premier ensemble de marqueurs, et sa performance évaluée sur un second ensemble. Un logiciel de validation a été développé pour préparer ces deux ensembles et pour corriger les détections sur tous les enregistrements qui ont été utilisés plus tard dans les analyses. Il a été complété par des outils pour former, étiqueter et valider les battements sinusaux normaux, les activations auriculaires et ventriculaires prématurées (PAA, PVA), ainsi que les épisodes d'arythmie. Les données cliniques préopératoires ont ensuite été analysées pour établir le risque préopératoire de FA. L’âge, le niveau de créatinine sérique et un diagnostic d'infarctus du myocarde se sont révélés être les plus importants facteurs de prédiction. Bien que le niveau du risque préopératoire puisse dans une certaine mesure prédire qui développera la FA, il n'était pas corrélé avec le temps de l'apparition de la FA postopératoire. Pour l'ensemble des patients ayant eu au moins un épisode de FA d’une durée de 10 minutes ou plus, les deux heures précédant la première FA prolongée ont été analysées. Cette première FA prolongée était toujours déclenchée par un PAA dont l’origine était le plus souvent sur l'oreillette gauche. Cependant, au cours des deux heures pré-FA, la distribution des PAA et de la fraction de ceux-ci provenant de l'oreillette gauche était large et inhomogène parmi les patients. Le nombre de PAA, la durée des arythmies transitoires, le rythme cardiaque sinusal, la portion basse fréquence de la variabilité du rythme cardiaque (LF portion) montraient des changements significatifs dans la dernière heure avant le début de la FA. La dernière étape consistait à comparer les patients avec et sans FA prolongée pour trouver des facteurs permettant de discriminer les deux groupes. Cinq types de modèles de régression logistique ont été comparés. Ils avaient une sensibilité, une spécificité et une courbe opérateur-receveur similaires, et tous avaient un niveau de prédiction des patients sans FA très faible. Une méthode de moyenne glissante a été proposée pour améliorer la discrimination, surtout pour les patients sans FA. Deux modèles ont été retenus, sélectionnés sur les critères de robustesse, de précision, et d’applicabilité. Autour 70% patients sans FA et 75% de patients avec FA ont été correctement identifiés dans la dernière heure avant la FA. Le taux de PAA, la fraction des PAA initiés dans l'oreillette gauche, le pNN50, le temps de conduction auriculo-ventriculaire, et la corrélation entre ce dernier et le rythme cardiaque étaient les variables de prédiction communes à ces deux modèles.
Resumo:
Dans la philosophie de Thomas d’Aquin, les puissances principales de l’âme, l’intelligence et la volonté, interagissent dans les activités humaines. Une des activités les plus importantes est identifiée par le docteur comme étant la recherche de la vérité. Cette recherche s’inscrit dans la finalité ultime de l’homme. La vérité, en tant que bien de l’intelligence, est voulue par la volonté qui est un appétit rationnel. Ainsi, selon le Dominicain « la volonté veut que l’intelligence intellige ». Puisque la vérité n’est pas le seul bien proposé au libre arbitre, la volonté doit choisir de poursuivre cette fin au détriment d’autres biens concurrents. Elle doit pour se faire perfectionner les puissances de l’âme par le biais d’habitus et de vertus en plus d’éviter les vices qui conduisent à l’erreur. La recherche de la vérité est, selon Thomas d’Aquin, un acte moral.
Resumo:
Les filtres de recherche bibliographique optimisés visent à faciliter le repérage de l’information dans les bases de données bibliographiques qui sont presque toujours la source la plus abondante d’évidences scientifiques. Ils contribuent à soutenir la prise de décisions basée sur les évidences. La majorité des filtres disponibles dans la littérature sont des filtres méthodologiques. Mais pour donner tout leur potentiel, ils doivent être combinés à des filtres permettant de repérer les études couvrant un sujet particulier. Dans le champ de la sécurité des patients, il a été démontré qu’un repérage déficient de l’information peut avoir des conséquences tragiques. Des filtres de recherche optimisés couvrant le champ pourraient s’avérer très utiles. La présente étude a pour but de proposer des filtres de recherche bibliographique optimisés pour le champ de la sécurité des patients, d’évaluer leur validité, et de proposer un guide pour l’élaboration de filtres de recherche. Nous proposons des filtres optimisés permettant de repérer des articles portant sur la sécurité des patients dans les organisations de santé dans les bases de données Medline, Embase et CINAHL. Ces filtres réalisent de très bonnes performances et sont spécialement construits pour les articles dont le contenu est lié de façon explicite au champ de la sécurité des patients par leurs auteurs. La mesure dans laquelle on peut généraliser leur utilisation à d’autres contextes est liée à la définition des frontières du champ de la sécurité des patients.
Resumo:
Travail réalisé à l'École de bibliothéconomie et des sciences de l'information (EBSI), Université de Montréal, sous la direction de Mme Audrey Laplante dans le cadre du cours SCI6850 Recherche individuelle, à l'automne 2012.