25 resultados para Conceptual mistakes in text books
em Université de Montréal, Canada
Resumo:
Cette thèse porte sur l’évaluation de la cohérence du réseau conceptuel démontré par des étudiants de niveau collégial inscrits en sciences de la nature. L’évaluation de cette cohérence s’est basée sur l’analyse des tableaux de Burt issus des réponses à des questionnaires à choix multiples, sur l’étude détaillée des indices de discrimination spécifique qui seront décrits plus en détail dans le corps de l’ouvrage et sur l’analyse de séquences vidéos d’étudiants effectuant une expérimentation en contexte réel. Au terme de ce projet, quatre grands axes de recherche ont été exploré. 1) Quelle est la cohérence conceptuelle démontrée en physique newtonienne ? 2) Est-ce que la maîtrise du calcul d’incertitude est corrélée au développement de la pensée logique ou à la maîtrise des mathématiques ? 3) Quelle est la cohérence conceptuelle démontrée dans la quantification de l’incertitude expérimentale ? 4) Quelles sont les procédures concrètement mise en place par des étudiants pour quantifier l’incertitude expérimentale dans un contexte de laboratoire semi-dirigé ? Les principales conclusions qui ressortent pour chacun des axes peuvent se formuler ainsi. 1) Les conceptions erronées les plus répandues ne sont pas solidement ancrées dans un réseau conceptuel rigide. Par exemple, un étudiant réussissant une question sur la troisième loi de Newton (sujet le moins bien réussi du Force Concept Inventory) montre une probabilité à peine supérieure de réussir une autre question sur ce même sujet que les autres participants. De nombreux couples de questions révèlent un indice de discrimination spécifique négatif indiquant une faible cohérence conceptuelle en prétest et une cohérence conceptuelle légèrement améliorée en post-test. 2) Si une petite proportion des étudiants ont montré des carences marquées pour les questions reliées au contrôle des variables et à celles traitant de la relation entre la forme graphique de données expérimentales et un modèle mathématique, la majorité des étudiants peuvent être considérés comme maîtrisant adéquatement ces deux sujets. Toutefois, presque tous les étudiants démontrent une absence de maîtrise des principes sous-jacent à la quantification de l’incertitude expérimentale et de la propagation des incertitudes (ci-après appelé métrologie). Aucune corrélation statistiquement significative n’a été observée entre ces trois domaines, laissant entendre qu’il s’agit d’habiletés cognitives largement indépendantes. Le tableau de Burt a pu mettre en lumière une plus grande cohérence conceptuelle entre les questions de contrôle des variables que n’aurait pu le laisser supposer la matrice des coefficients de corrélation de Pearson. En métrologie, des questions équivalentes n’ont pas fait ressortir une cohérence conceptuelle clairement démontrée. 3) L’analyse d’un questionnaire entièrement dédié à la métrologie laisse entrevoir des conceptions erronées issues des apprentissages effectués dans les cours antérieurs (obstacles didactiques), des conceptions erronées basées sur des modèles intuitifs et une absence de compréhension globale des concepts métrologiques bien que certains concepts paraissent en voie d’acquisition. 4) Lorsque les étudiants sont laissés à eux-mêmes, les mêmes difficultés identifiées par l’analyse du questionnaire du point 3) reviennent ce qui corrobore les résultats obtenus. Cependant, nous avons pu observer d’autres comportements reliés à la mesure en laboratoire qui n’auraient pas pu être évalués par le questionnaire à choix multiples. Des entretiens d’explicitations tenus immédiatement après chaque séance ont permis aux participants de détailler certains aspects de leur méthodologie métrologique, notamment, l’emploi de procédures de répétitions de mesures expérimentales, leurs stratégies pour quantifier l’incertitude et les raisons sous-tendant l’estimation numérique des incertitudes de lecture. L’emploi des algorithmes de propagation des incertitudes a été adéquat dans l’ensemble. De nombreuses conceptions erronées en métrologie semblent résister fortement à l’apprentissage. Notons, entre autres, l’assignation de la résolution d’un appareil de mesure à affichage numérique comme valeur de l’incertitude et l’absence de procédures d’empilement pour diminuer l’incertitude. La conception que la précision d’une valeur numérique ne peut être inférieure à la tolérance d’un appareil semble fermement ancrée.
Criteria for the validation of specialized verb equivalents : application in bilingual terminography
Resumo:
Multilingual terminological resources do not always include valid equivalents of legal terms for two main reasons. Firstly, legal systems can differ from one language community to another and even from one country to another because each has its own history and traditions. As a result, the non-isomorphism between legal and linguistic systems may render the identification of equivalents a particularly challenging task. Secondly, by focusing primarily on the definition of equivalence, a notion widely discussed in translation but not in terminology, the literature does not offer solid and systematic methodologies for assigning terminological equivalents. As a result, there is a lack of criteria to guide both terminologists and translators in the search and validation of equivalent terms. This problem is even more evident in the case of predicative units, such as verbs. Although some terminologists (L‘Homme 1998; Lerat 2002; Lorente 2007) have worked on specialized verbs, terminological equivalence between units that belong to this part of speech would benefit from a thorough study. By proposing a novel methodology to assign the equivalents of specialized verbs, this research aims at defining validation criteria for this kind of predicative units, so as to contribute to a better understanding of the phenomenon of terminological equivalence as well as to the development of multilingual terminography in general, and to the development of legal terminography, in particular. The study uses a Portuguese-English comparable corpus that consists of a single genre of texts, i.e. Supreme Court judgments, from which 100 Portuguese and 100 English specialized verbs were selected. The description of the verbs is based on the theory of Frame Semantics (Fillmore 1976, 1977, 1982, 1985; Fillmore and Atkins 1992), on the FrameNet methodology (Ruppenhofer et al. 2010), as well as on the methodology for compiling specialized lexical resources, such as DiCoInfo (L‘Homme 2008), developed in the Observatoire de linguistique Sens-Texte at the Université de Montréal. The research reviews contributions that have adopted the same theoretical and methodological framework to the compilation of lexical resources and proposes adaptations to the specific objectives of the project. In contrast to the top-down approach adopted by FrameNet lexicographers, the approach described here is bottom-up, i.e. verbs are first analyzed and then grouped into frames for each language separately. Specialized verbs are said to evoke a semantic frame, a sort of conceptual scenario in which a number of mandatory elements (core Frame Elements) play specific roles (e.g. ARGUER, JUDGE, LAW), but specialized verbs are often accompanied by other optional information (non-core Frame Elements), such as the criteria and reasons used by the judge to reach a decision (statutes, codes, previous decisions). The information concerning the semantic frame that each verb evokes was encoded in an xml editor and about twenty contexts illustrating the specific way each specialized verb evokes a given frame were semantically and syntactically annotated. The labels attributed to each semantic frame (e.g. [Compliance], [Verdict]) were used to group together certain synonyms, antonyms as well as equivalent terms. The research identified 165 pairs of candidate equivalents among the 200 Portuguese and English terms that were grouped together into 76 frames. 71% of the pairs of equivalents were considered full equivalents because not only do the verbs evoke the same conceptual scenario but their actantial structures, the linguistic realizations of the actants and their syntactic patterns were similar. 29% of the pairs of equivalents did not entirely meet these criteria and were considered partial equivalents. Reasons for partial equivalence are provided along with illustrative examples. Finally, the study describes the semasiological and onomasiological entry points that JuriDiCo, the bilingual lexical resource compiled during the project, offers to future users.
Resumo:
Au niveau méthodologique, ce travail innove en combinant plusieurs moyens d'observation complémentaires sur le processus d'écriture et sur le processus de correction. Les observations qualitatives ainsi recueillies sont retranscrites en les combinant selon l'ordre chronologique d'apparition, puis elles sont traitées et analysées sous le logiciel QDA Miner.
Modes de conceptualisation métaphoriques et théorie de l’évolution : analyse textuelle et traduction
Resumo:
Éminent naturaliste du XIXe siècle, Charles Darwin publie en 1859 ce qui s'avérera être l’un des textes fondateurs des sciences de la vie : On the origin of species by means of natural selection, or the preservation of favoured races in the struggle for life (ou OS). Ce volumineux ouvrage pose les assises conceptuelles de la théorie darwinienne de l'évolution. Cette dernière suscite encore de nos jours la controverse : certains la nient (créationnisme, dessein intelligent, etc.) alors que d'autres la poussent à l'extrême (eugénisme, darwinisme social, etc.). Vu la grande portée de l'OS, le problème de sa traduction en français se présente de lui-même. Ce champ d'étude reste pourtant largement inexploré. Nous avons donc choisi, dans le présent travail, d’étudier les traductions françaises de l’OS. Notre étude s’inscrivant dans un axe de recherche qui s’intéresse aux modes de conceptualisation métaphorique en usage dans les domaines biomédicaux, ainsi qu’aux problèmes de traduction qu’ils soulèvent, nous avons choisi de nous concentrer plus particulièrement sur les modes de conceptualisation métaphorique présents dans le texte de l'OS, et sur la manière dont ils ont été traduits en français. Pour mener à bien ce projet, nous avons élaboré une méthodologie à partir de celle déjà utilisée avec succès dans des études antérieures menées au sein du même axe de recherche que le nôtre. En plus de l’annotation et l’interrogation informatisée de notre corpus, cette méthodologie consiste en la mise en relation, au plan informatique, de plusieurs traductions d’un même texte. De par sa complexité technique, son élaboration constitue l’un des objectifs majeurs de notre étude. Les résultats obtenus nous ont permis de confirmer deux de nos trois hypothèses : 1) la totalité des modes de conceptualisation identifiés dans notre corpus anglais se retrouvent également dans chacune des traductions, et 2) aucun mode de conceptualisation métaphorique ne peut être dégagé des traductions françaises qui n’est pas déjà présent dans l’original anglais. En plus de nous permettre de comparer chaque traduction à l’original anglais, ces résultats nous ont également permis de comparer entre elles les différentes traductions françaises de l’OS. Ce mémoire de maîtrise comporte six chapitres, qui correspondent tour à tour à : notre cadre théorique, l'état de la question, nos hypothèses et nos objectifs, notre méthodologie, nos résultats et la discussion de ces résultats.
Resumo:
Ce mémoire de maitrise vise à dresser un portrait des erreurs syntaxiques des élèves du secondaire en analysant un corpus de textes de cinq groupes du Québec, de la 1re à la 5e secondaire. Les résultats actuels aux épreuves ministérielles des élèves de 5e secondaire nous indiquent que les élèves éprouvent des difficultés avec l’écriture du français. Une analyse approfondie nous permet de comprendre que l’amélioration de la situation passe par une meilleure connaissance des erreurs syntaxiques des élèves. En nous appuyant sur la grille de Boivin et Pinsonneault (2014), nous avons analysé les données provenant du codage des textes d’élèves de la 1re à la 5e secondaire. L’analyse de ces données nous a permis de constater que parmi les sept grandes catégories d’erreurs de la grille, c’est en syntaxe que les élèves commettent le plus d’erreurs. Une incursion au cœur des six sous-catégories de la syntaxe a révélé que la ponctuation causait le plus de problème aux élèves, et ce, à tous les niveaux. Les erreurs liées à la détermination de la catégorie grammaticale des mots (homophones) arrivaient en deuxième place. Par la suite, nous avons précisé davantage l’analyse en déterminant, pour chacun des codes, l’évolution du nombre d’erreurs d’un niveau du secondaire à l’autre. Il est ressorti de cette étude que les deux principales erreurs, basées sur les sous-catégories syntaxiques, sont celles portant sur l’usage de la virgule et celles liées à la confusion qui existe encore un verbe terminant par «er» et un adjectif ou un participe passé terminant par «é-e-s».
Resumo:
Cette thèse propose l’émergence d’une poésie de l’entre deux dans la littérature expérimentale, en suivant ses développements du milieu du vingtième siècle jusqu'au début du vingt-et-unième. Cette notion d’entre-deux poétique se fonde sur une théorie du neutre (Barthes, Blanchot) comme ce qui se situe au delà ou entre l'opposition et la médiation. Le premier chapitre retrace le concept de monotonie dans la théorie esthétique depuis la période romantique où il est vu comme l'antithèse de la variabilité ou tension poétique, jusqu’à l’émergence de l’art conceptuel au vingtième siècle où il se déploie sans interruption. Ce chapitre examine alors la relation de la monotonie à la mélancolie à travers l’analyse de « The Anatomy of Monotony », poème de Wallace Stevens tiré du recueil Harmonium et l’œuvre poétique alphabet de Inger Christensen. Le deuxième chapitre aborde la réalisation d’une poésie de l’entre-deux à travers une analyse de quatre œuvres poétiques qui revisitent l’usage de l’index du livre paratextuel: l’index au long poème “A” de Louis Zukofsky, « Index to Shelley's Death » d’Alan Halsey qui apparait à la fin de l’oeuvre The Text of Shelley's Death, Cinema of the Present de Lisa Robertson, et l’oeuvre multimédia Via de Carolyn Bergvall. Le troisième chapitre retrace la politique de neutralité dans la théorie de la traduction. Face à la logique oppositionnelle de l’original contre la traduction, il propose hypothétiquement la réalisation d’une troisième texte ou « l’entre-deux », qui sert aussi à perturber les récits familiers de l’appropriation, l’absorption et l’assimilation qui effacent la différence du sujet de l’écrit. Il examine l’oeuvre hybride Secession with Insecession de Chus Pato et Erin Moure comme un exemple de poésie de l’entre-deux. A la fois pour Maurice Blanchot et Roland Barthes, le neutre représente un troisième terme potentiel qui défie le paradigme de la pensée oppositionnelle. Pour Blanchot, le neutre est la différence amenée au point de l’indifférence et de l’opacité de la transparence tandis que le désire de Barthes pour le neutre est une utopie lyrique qui se situe au-delà des contraintes de but et de marquage. La conclusion examine comment le neutre correspond au conditions de liberté gouvernant le principe de créativité de la poésie comme l’acte de faire sans intention ni raison.
Resumo:
Département de linguistique et de traduction
Resumo:
Ayant réalisé neuf longs-métrages entre 1988 et 2007, aussi que plusieurs campagnes publicitaires, vidéo-clips, courts-métrages et projets collectifs, Wong Kar-wai est un des réalisateurs contemporains les plus importants actuellement. Issu de l'industrie cinématographique fortement commerciale de Hong Kong, Wong est parvenu à attirer l'attention du circuit international des festivals de cinéma avec son style visuel unique et son récit fragmenté. Considéré par plusieurs critiques comme le poète de la recherche d’identité de Hong Kong après 1997, Wong Kar-wai défie toutes les tentatives de catégorisation. L’étude qui se poursuivit ici a donc pour objet essentiel de fournir une analyse attentive et complète de son oeuvre, tout en se concentrant sur les traits stylistiques qui donnent à ses films une unité. Ces caractéristiques correspondent à une certaine façon de raconter des histoires, de composer des personnages et des récits, de manipuler le temps et d'utiliser des ressources techniques de sorte que ses films offrent une identité cohérente. L'objectif est d'analyser les différents composants de ses images pour découvrir comment ses films communiquent les uns avec les autres afin de créer une identité unique. Pour atteindre cet objectif, je pose comme hypothèse de travail que le cinéma de Wong est marqué par une structure dualiste qui permet à ses films de présenter des qualités contradictoires simultanément. La plupart de mes arguments se concentrent sur le travail du philosophe français Gilles Deleuze, qui a proposé une théorie du cinéma divisé entre l’image-mouvement et l’image-temps. Je considère que sa théorie fournit un cadre valide sur lequel les films de Wong peuvent être projetés. Tandis que ma recherche se concentre sur l’interprétation textuelle des films, je profiterais également d’une analyse comparative.
Resumo:
Une traduction française des "Thèses sur le besoin" de Theodor W. Adorno accompagne la thèse (annexe).
Resumo:
L’équité apparaît aujourd’hui comme l’un des enjeux majeurs de la négociation sur le changement climatique. Cet article procède à un état des lieux des négociations et de la question de l’équité. Le débat est actuellement confiné dans les approches économiques, qui le posent en termes de répartition des droits à émettre les gaz à effet de serre (“ partage du fardeau”). L’article montre ensuite les insuffisances du débat actuel, qui tient essentiellement en trois points: l’étroitesse et les présupposés du point de vue économique dominant, la non prise en compte des analyses venant d’autres domaines que l’analyse économique, et l’oubli du contexte historique et conceptuel dans lequel se pose le problème. Nous tentons de montrer qu’il y a urgence à élargir le débat et penser le problème en termes de définition commune d’un projet global. La question du changement climatique ne peut pas être résolue par la seule convention climat. Nous concluons en évoquant ce que pourrait être un régime international impliquant les pays en développement.
Resumo:
Il est connu que ceux qui ne s’informent pas sur leur passé seront toujours condamnés à répéter les mêmes erreurs et pour déterminer où aller il faut d’abord savoir d’où on vient . La thèse se penche sur l’analyse de plus de deux siècles d’histoire de l’appareil judiciaire malgache à la lumière du concept d’indépendance de la magistrature. L’auteur porte une analyse rétrospective sur une assez longue période qui s’étend de la fin du XVIIIème siècle à nos jours au cours de laquelle il essaie de comprendre l’ensemble des situations ayant prévalu dans le pays témoin, avant, pendant et après la colonisation française. Cette thèse tente d’apporter des argumentaires nouveaux et une méthodologie d’approche nouvelle dans l’analyse de l’appareil judiciaire d’un pays anciennement colonisé. Il s’agit de mettre de côté certaines idées reçues sur les situations des systèmes juridiques des pays anciennement colonisés, notamment malgache et africains. L’étude remet en cause quelques préjugés d’antan qui marquent encore les esprits relativement aux situations précoloniales, à l’arrivée des modèles juridiques occidentaux et plus particulièrement au concept d’indépendance de la magistrature et sa consistance actuelle dans les anciennes colonies, à l’instar de la Grande Île. A travers l'étude du cas particulier de Madagascar, la thèse apporte des réponses à plusieurs questions suscitées par l’acculturation du système juridique des anciennes colonies à partir de leur contact avec les modèles juridiques occidentaux. La question spécifique de recherche consiste à déterminer si le concept d’indépendance de la magistrature est déjà entré dans le système juridique des pays anciennement colonisés comme Madagascar. Pour l’auteur, le concept d’indépendance de la magistrature tel que compris en Occident n’a jamais fait son véritable entrée à Madagascar. Le cadre théorique adopté pour la vérification de l’hypothèse combine le positivisme juridique avec les approches anthropologique et sociologique et se distingue des recherches presque exclusivement positivistes antérieures. Dans la première partie, l’auteur propose le cadre théorique de recherche et rapporte les modes de règlements des conflits à l’époque précoloniale. L’analyse anthropologique de la période a démontré que le concept d’indépendance de la magistrature fut inconnu des traditions judiciaires précoloniales même si une certaine influence occidentale imprégnait le processus de métissage spontanée diligenté par les souverains successifs. Dans la seconde partie, l’auteur livre une analyse de la période coloniale et postcoloniale jusqu’à l’époque contemporaine. Pour la période coloniale, l’ouvrage relate, d’une part, les multiples mesures prises durant les années coloniales, qui éloignèrent le modèle juridique colonial implanté à Madagascar du modèle juridique français original de la métropole. D’autre part, il mesure les impacts de l’instauration du modèle colonial sur les traditions juridiques malgaches précoloniales. Contrairement aux idées reçues, le modèle juridique français et tous ses concepts clés, notamment le concept de séparation des pouvoirs et celui d’indépendance de la magistrature ne furent pas transmis à Madagascar par le fait de la conquête. Ensuite, il a survolé la magistrature des trois républiques successives depuis l’indépendance acquise en 1960. En premier lieu, par une analyse résolument positiviste l’auteur analyse les imperfections initiales des choix et des mesures prises lors de la mise en place du nouveau système juridique de la jeune république durant les premières années de l’indépendance et dont la magistrature malgache est encore tributaire aujourd’hui. En second lieu, par une démarche à la fois positiviste et sociologique, il démontre que les valeurs du concept d’indépendance de la magistrature, reconnues par le système politique et timidement repris par le système juridique, n’ont pas réussi jusqu’ici à pénétrer le cœur de ce dernier
Resumo:
Cette thèse est une enquête épistémologique qui s’interroge sur la persistance de « l’éther » dans le champ de la technologie. De façon générale, le mot « éther » évoque un modèle conceptuel de la physique pré-einsteinienne, celui d’un milieu invisible permettant la propagation de la lumière et des ondes électromagnétiques. Or, ce n’est là qu’une des figures de l’éther. Dans plusieurs mythologies et cosmogonies anciennes, le nom « éther » désignait le feu originel contenu dans les plus hautes régions célestes. Aristote nommait « éther », par exemple, le « cinquième être », ou « cinquième élément ». La chimie a aussi sa propre figure de l’éther où il donne son nom à un composé chimique, le C4H10O, qui a été utilisé comme premier anesthésiant général à la fin du XIXe siècle. L’apparition soutenue dans l’histoire de ces figures disparates de l’éther, qui a priori ne semblent pas entretenir de relation entre elles, est pour nous la marque de la persistance de l’éther. Nous défendons ici l’argument selon lequel cette persistance ne se résume pas à la constance de l’attribution d’un mot ou d’un nom à différents phénomènes dans l’histoire, mais à l’actualisation d’une même signature, éthérogène. À l’invitation d’Agamben et en nous inspirant des travaux de Nietzsche et Foucault sur l’histoire-généalogie et ceux de Derrida sur la déconstruction, notre thèse amorce une enquête historique motivée par un approfondissement d’une telle théorisation de la signature. Pour y parvenir, nous proposons de placer l’éther, ou plutôt la signature-éther, au cœur de différentes enquêtes historiques préoccupées par le problème de la technologie. En abordant sous cet angle des enjeux disparates – la légitimation des savoirs narratifs, la suspension des sens, la pseudoscience et la magie, les révolutions de l’information, l’obsession pour le sans-fil, l’économie du corps, la virtualisation de la communication, etc. –, nous proposons dans cette thèse autant d’amorces pour une histoire autre, une contre-histoire.
Resumo:
Bien que son existence soit presque aussi vieille que le cinéma, l‘écran fragmenté (que les académiciens et autres professionnels du cinéma de langue anglaise désignent communément sous l‘appellation « split screen ») n‘a jamais fait l‘objet d‘analyses véritablement approfondies. Quand il est mentionné dans les livres d‘histoire, l‘écran fragmenté est rapidement esquivé. Pourtant, ses apparitions sont nombreuses. Ce mémoire de maîtrise cherche à corriger nombre d‘idées préétablies en exposant l‘histoire de cette manifestation visuelle, en commençant des débuts (le « cinéma des premiers temps ») jusqu‘à l‘arrivée du « cinéma numérique » du nouveau millénaire.
Resumo:
Depuis quelques décennies, l'intérêt pour l’étude de la fonction d’évaluation s’est diversifié pour approfondir les principes théoriques (Jenkinson, 1922; Schellenberg, 1956; Samuels, 1992; Cook, 1992b; Eastwood, 1992b; Duranti, 1994; Couture, 1999), les stratégies (Booms, 1972; Samuels, 1986; Cook, 1992b; Eastwood, 1992b; Couture, 1999) et les dispositifs de leur processus d’application (Ham, 1984; Boles & Young, 1991; Cook, 2001a, 2001b). Mais, toutes ces contributions n'ont pas encore étudié la nature des résultats de l'évaluation que sont les archives définitives. Du point de vue patrimonial, l’absence d’études sur la définition et la mesure des qualités des archives définitives ne permet pas de vérifier si ces archives constituent un patrimoine documentaire significatif. Sur le plan administratif, l’état actuel de la pratique de l'évaluation n'a pas encore investi dans l'examen méticuleux de la nature de ses résultats. Au plan économique, le manque de méthodes et d'outils pour la mesure des qualités des archives ne permet pas de juger si ces archives valent l’investissement matériel, technique, financier et humain que leur conservation implique. Du point de vue professionnel, l’absence de méthodes et d’instruments d’évaluation des qualités des archives ne permet pas aux professionnels d’appuyer leur décision en matière d’évaluation des archives. Afin de remédier à cette situation, notre recherche vise à définir et à mesurer les qualités des archives définitives issues de l’évaluation. Pour ce faire, nous privilégions une méthodologie quantitative de nature descriptive, appropriée lorsqu’il s’agit d’étudier un sujet peu abordé (Fortin, 2006) tel que l'opérationnalisation des qualités des archives définitives. La stratégie de la recherche a comporté deux phases. La phase conceptuelle a permis d’identifier et de définir quatre qualités soit l’« Unicité », la « Preuve crédible », l’« Exploitabilité » et la « Représentativité ». La phase empirique consistait à vérifier la mesurabilité, à titre d’exemple, des variables découlant de deux des quatre dimensions de qualité dans le contexte des archives définitives, soit la « Preuve crédible » et l’« Exploitabilité ». Le mode de collecte des données réside dans l’application d’une grille de mesure conçue spécialement aux fins de cette étude. La réalisation de la collecte de données qui s’est déroulée à Bibliothèque et Archives nationales du Québec a permis l’opérationnalisation de 10 indicateurs spécifiques sur 13 appartenant à deux dimensions de qualité : la « Preuve crédible » et l’« Exploitabilité » des archives définitives. Ainsi, trois indicateurs spécifiques sur l’ensemble de 13 sont restés sans mesures à cause d’une certaine faiblesse liée à leur mesure que nous avons pu identifier et vérifier lors des pré-tests de la recherche. Ces trois indicateurs spécifiques sont le « Créateur » dans le cadre de la dimension de la « Preuve crédible », ainsi que la « Compréhensibilité » et la « Repérabilité » dans le cadre de la dimension de l’« Exploitabilité ». Les mesures obtenues pour les 10 indicateurs ont mené à l’identification des avantages et des points à améliorer concernant différentes variables liées au créateur, au service de conservation ou encore à l’état et à la nature du support. Cibler l’amélioration d’un produit ou d’un service représente, comme démontré dans la revue de la littérature, le but ultime d’une étude sur les dimensions de qualité. Trois types de contributions découlent de cette recherche. Au plan théorique, cette recherche offre un cadre conceptuel qui permet de définir le concept de qualité des archives définitives dans une perspective d’évaluation archivistique. Au plan méthodologique, elle propose une méthode de mesure des qualités applicables aux archives définitives ainsi que les instruments et le guide qui expliquent sa réalisation. Au plan professionnel, d'une part, elle permet d’évaluer les résultats de l’exercice de l’évaluation archivistique; d'autre part, elle offre aux professionnels non seulement une grille de mesure des qualités des archives définitives déjà testée, mais aussi le guide de son application.