63 resultados para étude QUALITY
Resumo:
L’étude utilise la méthode des différences entre jumeaux monozygotes pour analyser le lien entre les pratiques parentales positives ou hostiles-réactives de la mère à 29 mois et la qualité des relations d’amitié des enfants à 6 ans, tout en contrôlant une série de facteurs confondants tels le sexe, le revenu familial, le tempérament et le poids à la naissance. Un effet modérateur du sexe est aussi testé. La méthodologie nouvelle et particulière de cette recherche permet de contrôler de possibles corrélations gènes-environnement. Les résultats ne concordent pas tous avec les hypothèses et démontrent que 1) le jumeau ayant reçu le plus de pratiques parentales positives de la mère est celui dont l’ami évalue le plus négativement sa relation d’amitié à 6 ans et 2) le jumeau ayant reçu le plus de pratiques parentales hostiles-réactives de la mère est celui dont l’ami évalue le moins positivement sa relation d’amitié à la maternelle. Différentes pistes d’explications sont proposées pour comprendre les résultats et pour guider les études futures.
Resumo:
D’une part, le développement scientifique dans le domaine pharmaceutique fournit des bénéfices substantiels à la santé des personnes, améliorant par conséquent leur qualité de vie. Toutefois, créer et mettre en marché une nouvelle substance thérapeutique n’est pas une tâche facile. Les laboratoires investissent du temps et de l’argent en recherche et développement pour y parvenir. D’autre part, malgré les bienfaits de la science et les efforts des chercheurs, les médicaments sont des produits potentiellement dangereux. Ils présentent des risques inhérents à leur nature, capables de causer des préjudices graves et irréversibles. D’ailleurs, la nature dangereuse de ces produits a incité l’instauration de normes qui imposent des critères stricts aux fabricants de médicaments dans le but de protéger le public. En suivant cette tendance mondiale, les législateurs brésilien et canadien ont instauré des régimes statutaires qui édictent des règles rigoureuses de conception, de fabrication et de commercialisation des médicaments. Néanmoins, à cause de la nature pénale et administrative de ces normes, elles ne sont pas efficaces lorsqu’il s’agit de dédommager le consommateur ou le tiers qui est victime du fait du médicament. Dans une telle situation, il faut recourir au droit civil dans le cas du Brésil et du Québec, ou à la common law dans les autres provinces canadiennes. Dans une étude comparée sur le sujet, nous avons appris que les droits civils brésilien et québécois ainsi que la common law canadienne ont des ressemblances très importantes, cependant en ce qui concerne l’exclusion de la responsabilité fondée sur le risque de développement scientifique, différentes solutions s’appliquent.
Resumo:
Les sociétés modernes dépendent de plus en plus sur les systèmes informatiques et ainsi, il y a de plus en plus de pression sur les équipes de développement pour produire des logiciels de bonne qualité. Plusieurs compagnies utilisent des modèles de qualité, des suites de programmes qui analysent et évaluent la qualité d'autres programmes, mais la construction de modèles de qualité est difficile parce qu'il existe plusieurs questions qui n'ont pas été répondues dans la littérature. Nous avons étudié les pratiques de modélisation de la qualité auprès d'une grande entreprise et avons identifié les trois dimensions où une recherche additionnelle est désirable : Le support de la subjectivité de la qualité, les techniques pour faire le suivi de la qualité lors de l'évolution des logiciels, et la composition de la qualité entre différents niveaux d'abstraction. Concernant la subjectivité, nous avons proposé l'utilisation de modèles bayésiens parce qu'ils sont capables de traiter des données ambiguës. Nous avons appliqué nos modèles au problème de la détection des défauts de conception. Dans une étude de deux logiciels libres, nous avons trouvé que notre approche est supérieure aux techniques décrites dans l'état de l'art, qui sont basées sur des règles. Pour supporter l'évolution des logiciels, nous avons considéré que les scores produits par un modèle de qualité sont des signaux qui peuvent être analysés en utilisant des techniques d'exploration de données pour identifier des patrons d'évolution de la qualité. Nous avons étudié comment les défauts de conception apparaissent et disparaissent des logiciels. Un logiciel est typiquement conçu comme une hiérarchie de composants, mais les modèles de qualité ne tiennent pas compte de cette organisation. Dans la dernière partie de la dissertation, nous présentons un modèle de qualité à deux niveaux. Ces modèles ont trois parties: un modèle au niveau du composant, un modèle qui évalue l'importance de chacun des composants, et un autre qui évalue la qualité d'un composé en combinant la qualité de ses composants. L'approche a été testée sur la prédiction de classes à fort changement à partir de la qualité des méthodes. Nous avons trouvé que nos modèles à deux niveaux permettent une meilleure identification des classes à fort changement. Pour terminer, nous avons appliqué nos modèles à deux niveaux pour l'évaluation de la navigabilité des sites web à partir de la qualité des pages. Nos modèles étaient capables de distinguer entre des sites de très bonne qualité et des sites choisis aléatoirement. Au cours de la dissertation, nous présentons non seulement des problèmes théoriques et leurs solutions, mais nous avons également mené des expériences pour démontrer les avantages et les limitations de nos solutions. Nos résultats indiquent qu'on peut espérer améliorer l'état de l'art dans les trois dimensions présentées. En particulier, notre travail sur la composition de la qualité et la modélisation de l'importance est le premier à cibler ce problème. Nous croyons que nos modèles à deux niveaux sont un point de départ intéressant pour des travaux de recherche plus approfondis.
Resumo:
Depuis quelques décennies, l'intérêt pour l’étude de la fonction d’évaluation s’est diversifié pour approfondir les principes théoriques (Jenkinson, 1922; Schellenberg, 1956; Samuels, 1992; Cook, 1992b; Eastwood, 1992b; Duranti, 1994; Couture, 1999), les stratégies (Booms, 1972; Samuels, 1986; Cook, 1992b; Eastwood, 1992b; Couture, 1999) et les dispositifs de leur processus d’application (Ham, 1984; Boles & Young, 1991; Cook, 2001a, 2001b). Mais, toutes ces contributions n'ont pas encore étudié la nature des résultats de l'évaluation que sont les archives définitives. Du point de vue patrimonial, l’absence d’études sur la définition et la mesure des qualités des archives définitives ne permet pas de vérifier si ces archives constituent un patrimoine documentaire significatif. Sur le plan administratif, l’état actuel de la pratique de l'évaluation n'a pas encore investi dans l'examen méticuleux de la nature de ses résultats. Au plan économique, le manque de méthodes et d'outils pour la mesure des qualités des archives ne permet pas de juger si ces archives valent l’investissement matériel, technique, financier et humain que leur conservation implique. Du point de vue professionnel, l’absence de méthodes et d’instruments d’évaluation des qualités des archives ne permet pas aux professionnels d’appuyer leur décision en matière d’évaluation des archives. Afin de remédier à cette situation, notre recherche vise à définir et à mesurer les qualités des archives définitives issues de l’évaluation. Pour ce faire, nous privilégions une méthodologie quantitative de nature descriptive, appropriée lorsqu’il s’agit d’étudier un sujet peu abordé (Fortin, 2006) tel que l'opérationnalisation des qualités des archives définitives. La stratégie de la recherche a comporté deux phases. La phase conceptuelle a permis d’identifier et de définir quatre qualités soit l’« Unicité », la « Preuve crédible », l’« Exploitabilité » et la « Représentativité ». La phase empirique consistait à vérifier la mesurabilité, à titre d’exemple, des variables découlant de deux des quatre dimensions de qualité dans le contexte des archives définitives, soit la « Preuve crédible » et l’« Exploitabilité ». Le mode de collecte des données réside dans l’application d’une grille de mesure conçue spécialement aux fins de cette étude. La réalisation de la collecte de données qui s’est déroulée à Bibliothèque et Archives nationales du Québec a permis l’opérationnalisation de 10 indicateurs spécifiques sur 13 appartenant à deux dimensions de qualité : la « Preuve crédible » et l’« Exploitabilité » des archives définitives. Ainsi, trois indicateurs spécifiques sur l’ensemble de 13 sont restés sans mesures à cause d’une certaine faiblesse liée à leur mesure que nous avons pu identifier et vérifier lors des pré-tests de la recherche. Ces trois indicateurs spécifiques sont le « Créateur » dans le cadre de la dimension de la « Preuve crédible », ainsi que la « Compréhensibilité » et la « Repérabilité » dans le cadre de la dimension de l’« Exploitabilité ». Les mesures obtenues pour les 10 indicateurs ont mené à l’identification des avantages et des points à améliorer concernant différentes variables liées au créateur, au service de conservation ou encore à l’état et à la nature du support. Cibler l’amélioration d’un produit ou d’un service représente, comme démontré dans la revue de la littérature, le but ultime d’une étude sur les dimensions de qualité. Trois types de contributions découlent de cette recherche. Au plan théorique, cette recherche offre un cadre conceptuel qui permet de définir le concept de qualité des archives définitives dans une perspective d’évaluation archivistique. Au plan méthodologique, elle propose une méthode de mesure des qualités applicables aux archives définitives ainsi que les instruments et le guide qui expliquent sa réalisation. Au plan professionnel, d'une part, elle permet d’évaluer les résultats de l’exercice de l’évaluation archivistique; d'autre part, elle offre aux professionnels non seulement une grille de mesure des qualités des archives définitives déjà testée, mais aussi le guide de son application.
Resumo:
Plusieurs études se sont intéressées aux conséquences des comportements adoptés par les entraîneurs. Un comportement n’a cependant pas reçu l’attention méritée : la rétroaction négative. Pourtant, cette rétroaction est à la fois essentielle aux progrès et porteuse de conséquences négatives potentielles (Brewer, et al. 1991; Kluger & DeNisi, 1996). Le présent mémoire propose que la qualité de la rétroaction négative est déterminante dans les conséquences vécues par les athlètes. Une étude corrélationnelle a été menée auprès de 315 athlètes et 54 entraîneurs. Des analyses multiniveaux ont confirmé qu’une rétroaction négative de qualité doit soutenir l’autonomie des athlètes, et six caractéristiques définissant une telle rétroaction ont été identifiées. Il a aussi été démontré que la qualité de la rétroaction négative prédit l’expérience phénoménologique et les performances des athlètes au-delà de la quantité de rétroaction et du style interpersonnel de l’entraîneur. Les implications théoriques et pratiques de ces résultats sont discutées.
Resumo:
Au Québec, des réseaux ont été implantés afin de contrer le manque d’intégration des services offerts aux personnes vivant avec un traumatisme cranio-cérébral (TCC). Toutefois, l’évaluation de leur performance est actuellement limitée par l’absence de description et de conceptualisation de leur performance. Le but de cette thèse est de poser les bases préliminaires d’un processus d’évaluation de la performance des réseaux TCC. Nos objectifs sont de 1) décrire les organisations, la nature et la qualité des liens ainsi que la configuration d’un réseau TCC; 2) connaître les perceptions des constituants du réseau quant aux forces, faiblesses, opportunités et menaces propres à cette forme organisationnelle; 3) documenter et comparer les perceptions de répondants provenant de divers types d’organisations quant à l’importance de 16 dimensions du concept de performance pour l’évaluation des réseaux TCC; 4) réconcilier les perceptions différentes afin de proposer une hiérarchisation consensuelle des dimensions de la performance. En utilisant la méthode de l’analyse du réseau social, nous avons décrit un réseau de petite taille, modérément dense et essentiellement organisé autour de quatre organisations fortement centralisées. Les constituants ont décrit leur réseau comme présentant autant de forces que de faiblesses. La majorité des enjeux rapportés étaient relatifs à l’Adaptation du réseau à son environnement et au Maintien des Valeurs. Par ailleurs, les représentants des 46 organisations membre d’un réseau TCC ont perçu les dimensions de la performance relatives à l’Atteinte des buts comme étant plus importantes que celles relatives aux Processus. La Capacité d’attirer la clientèle, la Continuité et la Capacité de s’adapter pour répondre aux besoins des clients étaient les trois dimensions les plus importantes, tandis que la Capacité de s’adapter aux exigences et aux tendances et la Quantité de soins et de services étaient les moins importants. Les groupes TRIAGE ont permis aux constituants de s’entendre sur l’importance accordée à chaque dimension et d’uniformiser leurs différentes perspectives. Bien que plusieurs étapes demeurent à franchir pour actualiser le processus d’évaluation de la performance des réseaux TCC québécois, nos travaux permettent de poser des bases scientifiques solides qui optimisent la pertinence et l’appropriation des résultats pour les étapes ultérieures.
Resumo:
Le Programme de formation de l’école québécoise situe l’élève au cœur de ses apprentissages. L’enseignant peut faciliter le développement des compétences en offrant une rétroaction permettant à l’élève de progresser dans ses apprentissages. Il est difficile pour les enseignants de faire des annotations pertinentes et efficaces en mathématique, car l’accent est mis sur le concept travaillé et non sur la démarche mathématique. C’est pourquoi, nous avons porté notre regard sur l’incidence que peut avoir l’enseignement explicite des stratégies ainsi que sur les annotations faites par l’enseignant sur les copies des élèves en ce qui a trait au développement de leurs compétences à résoudre des problèmes complexes en mathématique. Nous avons opté pour une recherche qualitative et collaborative pour vivre un échange avec l’enseignant et vivre une interinfluence entre le praticien et le chercheur. La qualité des sujets a été favorisée. La technique d’échantillonnage retenue pour le choix de l’enseignant a été celle de cas exemplaires, tandis que celle que nous avons choisie pour les élèves était l’échantillonnage intentionnel critérié. La recherche a duré du mois de novembre au mois de mai de l’année scolaire 2008-2009. Comme instruments de cueillette de données, nous avons opté pour des entrevues avec l’enseignant et des mini-entrevues avec les élèves à deux moments de la recherche. Nous avons consulté les travaux corrigés des élèves dans leur portfolio. Notre étude fait ressortir l’apport de l’enseignement stratégique de la démarche mathématique. Les résultats précisent que les annotations de type méthodologique ont été celles qui ont été les plus utilisées et ont permis une meilleure compréhension chez l’élève. De plus, elles favorisent le transfert d’une situation à l’autre et permettent à l’élève d’obtenir de meilleurs résultats.
Resumo:
Problématique : Les organisations de santé font face à des pressions diverses pour offrir des soins et des services qui répondent aux plus hauts critères de performance et rendre compte de cette performance. Ces pressions proviennent de différents acteurs tels que les usagers du système de santé et les décideurs politiques. En raison de la place importante que prennent les infirmières dans l’offre de services de santé, il existe un intérêt croissant pour la mise en place d’interventions visant à mesurer et à améliorer la performance des services infirmiers. Cependant, dans le cadre de ces processus, les organisations sont souvent confrontées à des visions différentes et conflictuelles de la performance et à diverses approches pour la mesurer. Objectifs : Cette étude qualitative exploratoire a pour but d’explorer les conceptions de la performance des membres de l’équipe d’encadrement impliqués dans la prestation des services infirmiers et des infirmières soignantes et d’examiner dans quelle mesure les conceptions de la performance des deux groupes d’acteurs correspondent ou entrent en conflit. Méthodologie : Des entrevues semi-dirigées ont été conduites auprès de cinq membres de l’équipe d’encadrement et de trois infirmières. Une analyse de contenu a été effectuée à la fois pour faire ressortir l’éventail des conceptions et celles qui sont les plus prépondérantes dans les discours. Le cadre de référence ayant guidé cette analyse est une adaptation du modèle conceptuel de Donabedian comprenant trois dimensions soit la structure, le processus et les résultats (Unruh & Wan, 2004). Résultats : L’analyse des données recueillies auprès des membres de l’équipe d’encadrement fait ressortir dix conceptions distinctes, mais interreliées de la performance qui mettent l’accent sur les éléments de processus de soins infirmiers et de résultats chez la clientèle. Concernant les infirmières, neuf conceptions ont été répertoriées et l’accent a été porté surtout sur les éléments concernant l’adéquation des ressources humaines infirmières et de processus de soins infirmiers. Certaines similitudes et différences ont été repérées entre les conceptions de ces deux groupes d’acteurs. Conclusion : Cette étude permet de mieux comprendre les conceptions de la performance des acteurs impliqués dans l’offre de services infirmiers. Le modèle intégrateur qui résulte de la combinaison de ces différentes conceptions offre un cadre utile pour guider la construction d’outils de mesure de performance directement en lien avec les soins infirmiers et répondre à la demande d’imputabilité par rapport à ces services.
Resumo:
Cette étude de cas vise à comparer le modèle de soins implanté sur le territoire d’un centre de santé et des services sociaux (CSSS) de la région de Montréal aux modèles de soins en étapes et à examiner l’influence de facteurs contextuels sur l’implantation de ce modèle. Au total, 13 cliniciens et gestionnaires travaillant à l’interface entre la première et la deuxième ligne ont participé à une entrevue semi-structurée. Les résultats montrent que le modèle de soins hiérarchisés implanté se compare en plusieurs points aux modèles de soins en étapes. Cependant, certains éléments de ces derniers sont à intégrer afin d’améliorer l’efficience et la qualité des soins, notamment l’introduction de critères d’évaluation objectifs et la spécification des interventions démontrées efficaces à privilégier. Aussi, plusieurs facteurs influençant l’implantation d’un modèle de soins hiérarchisés sont dégagés. Parmi ceux-ci, la présence de concertation et de lieux d’apprentissage représente un élément clé. Néanmoins, certains éléments sont à considérer pour favoriser sa réussite dont l’uniformisation des critères et des mécanismes de référence, la clarification des rôles du guichet d’accès en santé mentale et l’adhésion des omnipraticiens au modèle de soins hiérarchisés. En somme, l’utilisation des cadres de référence et d’analyse peut guider les gestionnaires sur les enjeux à considérer pour favoriser l’implantation d’un modèle de soins basé sur les données probantes, ce qui, à long terme, devrait améliorer l’efficience des services offerts et leur adéquation avec les besoins populationnels.
Resumo:
La protection de l’environnement est un enjeu capital de la société contemporaine. Suite à la révolution industrielle, la contamination de l’environnement a pris divers chemins pour se retrouver dans notre eau, notre atmosphère et, de manière parfois moins évidente, dans nos sols. Considérant le nombre de sites contaminés répertoriés par le ministère du Développement durable, de l’Environnement et des Parcs, on peut s’interroger sur l’efficacité des dispositions prévues à la section IV.2.1 de la Loi sur la qualité de l’environnement qui prévoit des pouvoirs d’ordonnance de caractérisation et de réhabilitation pouvant viser de manière rétroactive non seulement le pollueur et celui ayant permis la contamination, mais également, dans certains cas, le gardien, à quelque titre que ce soit, du terrain. En 2003, le cadre réglementaire en matière d’ordonnances de décontamination a fait l’objet d’une réforme majeure, dont les grandes lignes sont rapportées dans la première partie de cette étude. Toutefois, l’application de ces mesures relève d’un pouvoir de nature discrétionnaire pour le ministre, cette discrétion faisant l’objet de développements dans la deuxième partie de notre mémoire. Le nombre d’ordonnances rendues par le ministre en matière de décontamination des sites est si peu élevé qu’on ne peut éviter de traiter, dans la dernière partie de notre étude, de l’éventuelle responsabilité de l’État en lien avec la contamination des sols, considérant les principes de développement durable et surtout, d’équité intergénérationnelle qui, selon nous, devraient se refléter dans l’application des pouvoirs d’ordonnance du ministre de l’Environnement.
Resumo:
La documentation des programmes aide les développeurs à mieux comprendre le code source pendant les tâches de maintenance. Toutefois, la documentation n’est pas toujours disponible ou elle peut être de mauvaise qualité. Le recours à la redocumentation s’avère ainsi nécessaire. Dans ce contexte, nous proposons de faire la redocumentation en générant des commentaires par application de techniques de résumé par extraction. Pour mener à bien cette tâche, nous avons commencé par faire une étude empirique pour étudier les aspects quantitatifs et qualitatifs des commentaires. En particulier, nous nous sommes intéressés à l’étude de la distribution des commentaires par rapport aux différents types d’instructions et à la fréquence de documentation de chaque type. Aussi, nous avons proposé une taxonomie de commentaires pour classer les commentaires selon leur contenu et leur qualité. Suite aux résultats de l’étude empirique, nous avons décidé de résumer les classes Java par extraction des commentaires des méthodes/constructeurs. Nous avons défini plusieurs heuristiques pour déterminer les commentaires les plus pertinents à l’extraction. Ensuite, nous avons appliqué ces heuristiques sur les classes Java de trois projets pour en générer les résumés. Enfin, nous avons comparé les résumés produits (les commentaires produits) à des résumés références (les commentaires originaux) en utilisant la métrique ROUGE.
Resumo:
La présente étude porte sur les aspects Nature-Culture relatifs à l’émergence de variations interindividuelles quant à la capacité universelle de régulation d’une émotion primaire, la tristesse. Cette problématique représente un exemple du lien entre la conception évolutionniste d’une nature humaine universelle, innée et génétiquement prescrite, mais susceptible de variation dans son expression en fonction d’expériences individuelles liées aux processus de socialisation et d’enculturation. À l’aide du devis génétiquement informatif des jumeaux, nous nous sommes d’abord penchés sur l’étiologie gènes-environnement de la dépression à l’enfance, une dysfonction du système de régulation émotionnelle de la tristesse. Puis, nous nous sommes interrogés quant à l’influence du traitement et de l’état psychique maternels sur cet aspect du développement émotionnel de l’enfant. Nos analyses de la symptomatologie dépressive indiquent une absence d’influence génétique dans le développement de ce trouble de l’humeur. Les variations individuelles de la régulation de la tristesse reposent ainsi uniquement sur les effets de l’environnement. Nos résultats révèlent également l’existence d’une relation importante entre l’état psychique de la mère, évalué lorsque les jumeaux avaient cinq mois, et la présence de symptômes dépressifs chez ces derniers mesurés huit ans plus tard. L’état psychique de la mère est considéré comme l’un des meilleurs indicateurs de la qualité du traitement maternel en bas âge. Nos mesures directes des comportements maternels envers le nourrisson et le développement ultérieur du trouble de dépression indiquent également l’existence de tendances statistiques allant dans le sens de notre hypothèse d’un traitement maternel sous-optimal contribuant au développement de dysfonctions émotionnelles ultérieures.
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal.
Resumo:
La présente étude avait pour but d’explorer les modulations fonctionnelles putaminales du signal de spectroscopie par résonance magnétique (SRM) combiné du glutamate et de la glutamine (Glx), ainsi que de l’acide γ-aminobutyrique (GABA) en lien avec l’apprentissage d’une séquence motrice. Nous avons émis l’hypothèse que les concentrations de Glx seraient spécifiquement augmentées pendant et après la pratique d’une telle tâche, et ce comparativement à une condition d’exécution motrice simple conçue pour minimiser l’apprentissage. La tâche d’appuis séquentiels des doigts (« finger taping task ») utilisée est connue pour induire un apprentissage moteur évoluant en phases, avec une progression initialement rapide lors de la première session d’entraînement (phase rapide), puis lente lors de sessions subséquentes (phase lente). Cet apprentissage est également conçu comme dépendant de processus « on-line » (pendant la pratique) d’acquisition et « off-line » (entre les périodes de pratique) de consolidation de la trace mnésique de l’habilité motrice. Une grande quantité de données impliquent le système de neurotransmission glutamatergique, principalement par l’action de ses récepteurs N-Méthyl-D-aspartate (NMDAR) et métabotropiques (mGluR), dans une multitude de domaine de la mémoire. Quelques-unes de ces études suggèrent que cette relation s’applique aussi à des mémoires de type motrice ou dépendante du striatum. De plus, certains travaux chez l’animal montrent qu’une hausse des concentrations de glutamate et de glutamine peut être associée à l’acquisition et/ou consolidation d’une trace mnésique. Nos mesures de SRM à 3.0 Tesla, dont la qualité ne s’est avérée satisfaisante que pour le Glx, démontrent qu’une telle modulation des concentrations de Glx est effectivement détectable dans le putamen après la performance d’une tâche motrice. Elles ne nous permettent toutefois pas de dissocier cet effet putativement attribuable à la plasticité du putamen associée à l’apprentissage moteur de séquence, de celui de la simple activation neuronale causée par l’exécution motrice. L’interprétation de l’interaction non significative, montrant une plus grande modulation par la tâche motrice simple, mène cependant à l’hypothèse alternative que la plasticité glutamatergique détectée est potentiellement plus spécifique à la phase lente de l’apprentissage, suggérant qu’une seconde expérience ainsi orientée et utilisant une méthode de SRM plus sensible au Glx aurait donc de meilleures chances d’offrir des résultats concluants.
Resumo:
Depuis les années 1980, la formation des enseignants a fait l’objet de réformes majeures dans la plupart des sociétés développées, souvent en étant directement articulée à un processus de «professionnalisation» (Tardif, Lessard & Gauthier, 1998). La professionnalisation de l’enseignement est aujourd’hui considérée comme un mouvement international (OCDE, 2005). Dans cette recherche de maîtrise, nous analysons la mise en œuvre de la professionnalisation et son articulation à l’organisation des programmes de formation des enseignants du primaire dans deux contextes : Finlande et Québec. L’intérêt d’une comparaison du Québec avec la Finlande découle des enquêtes PISA 2000, 2003, et 2006, qui ont permis de faire reconnaître le système éducatif finlandais comme l’exemple d’un système performant qui combine avec succès la qualité, l’équité et la cohésion sociale (Sahlberg, 2007). Or, parmi les nombreuses raisons présentées pour expliquer ce succès, une des plus importantes serait la formation des enseignants. En Finlande les enseignants réalisent une formation initiale de 5 ans. Mais au Québec les enseignants sont aussi hautement éduqués : ils réalisent une formation universitaire de 4 ans après deux années d’études pré-universitaires. Dans les deux contextes, les enseignants complètent 17 ans de scolarité. Quelles sont les similitudes et les différences entre les programmes de formation des enseignants du primaire en Finlande et au Québec? Comment et en quoi ce processus de professionnalisation, comme tendance internationale, a-t-il marqué les systèmes de formation d’enseignants finlandais et québécois ? Peut-on dégager, à partir de cette comparaison, des éléments d’un système de formation à l’enseignement de meilleure qualité pour le Québec?