997 resultados para Problème 3SUM
Resumo:
Nous présentons une nouvelle approche pour formuler et calculer le temps de séparation des événements utilisé dans l’analyse et la vérification de différents systèmes cycliques et acycliques sous des contraintes linéaires-min-max avec des composants ayant des délais finis et infinis. Notre approche consiste à formuler le problème sous la forme d’un programme entier mixte, puis à utiliser le solveur Cplex pour avoir les temps de séparation entre les événements. Afin de démontrer l’utilité en pratique de notre approche, nous l’avons utilisée pour la vérification et l’analyse d’une puce asynchrone d’Intel de calcul d’équations différentielles. Comparée aux travaux précédents, notre approche est basée sur une formulation exacte et elle permet non seulement de calculer le maximum de séparation, mais aussi de trouver un ordonnancement cyclique et de calculer les temps de séparation correspondant aux différentes périodes possibles de cet ordonnancement.
Resumo:
Le réalisme des images en infographie exige de créer des objets (ou des scènes) de plus en plus complexes, ce qui entraîne des coûts considérables. La modélisation procédurale peut aider à automatiser le processus de création, à simplifier le processus de modification ou à générer de multiples variantes d'une instance d'objet. Cependant même si plusieurs méthodes procédurales existent, aucune méthode unique permet de créer tous les types d'objets complexes, dont en particulier un édifice complet. Les travaux réalisés dans le cadre de cette thèse proposent deux solutions au problème de la modélisation procédurale: une solution au niveau de la géométrie de base, et l’autre sous forme d'un système général adapté à la modélisation des objets complexes. Premièrement, nous présentons le bloc, une nouvelle primitive de modélisation simple et générale, basée sur une forme cubique généralisée. Les blocs sont disposés et connectés entre eux pour constituer la forme de base des objets, à partir de laquelle est extrait un maillage de contrôle pouvant produire des arêtes lisses et vives. La nature volumétrique des blocs permet une spécification simple de la topologie, ainsi que le support des opérations de CSG entre les blocs. La paramétrisation de la surface, héritée des faces des blocs, fournit un soutien pour les textures et les fonctions de déplacements afin d'appliquer des détails de surface. Une variété d'exemples illustrent la généralité des blocs dans des contextes de modélisation à la fois interactive et procédurale. Deuxièmement, nous présentons un nouveau système de modélisation procédurale qui unifie diverses techniques dans un cadre commun. Notre système repose sur le concept de composants pour définir spatialement et sémantiquement divers éléments. À travers une série de déclarations successives exécutées sur un sous-ensemble de composants obtenus à l'aide de requêtes, nous créons un arbre de composants définissant ultimement un objet dont la géométrie est générée à l'aide des blocs. Nous avons appliqué notre concept de modélisation par composants à la génération d'édifices complets, avec intérieurs et extérieurs cohérents. Ce nouveau système s'avère général et bien adapté pour le partionnement des espaces, l'insertion d'ouvertures (portes et fenêtres), l'intégration d'escaliers, la décoration de façades et de murs, l'agencement de meubles, et diverses autres opérations nécessaires lors de la construction d'un édifice complet.
Resumo:
L'ensemble de mon travail a été réalisé grâce a l'utilisation de logiciel libre.
Resumo:
Le surpoids (embonpoint et obésité) chez l’enfant est un problème préoccupant qui prend de plus en plus d’ampleur. Le rôle du parent dans cette problématique est prédominant, puisqu’il assure la disponibilité des aliments, choisit les mets présentés, joue le rôle de modèle dans l’acte alimentaire et interagit avec l’enfant durant les prises alimentaires pour guider son comportement alimentaire. Le parent offre et façonne l’environnement dans lequel évolue l’enfant. Cette thèse explore le rôle de la mère dans cet environnement. Le parent utilise diverses pratiques alimentaires pour guider l’alimentation de l’enfant. Certaines sont douces, comme encourager positivement l’enfant à essayer un aliment (ex. Goûtes-y, moi je trouve ça très bon!) et d’autres plus coercitives (ex. Tu ne sors pas de table sans avoir terminé ton assiette). Les interactions parent-enfant lors de la prise alimentaire sont susceptibles d’avoir différentes conséquences sur l’alimentation de l’enfant, modifiant possiblement les apports alimentaires, les préférences, la néophobie et le statut pondéral. Les interactions parent-enfant en général, donc hors du contexte précis de l’alimentation, peuvent aussi influencer les comportements alimentaires de l’enfant. L’objectif général de cette thèse est d’explorer les relations entre les interactions parent-enfant en général, aussi nommées « styles parentaux » (SP), les interactions parent-enfant dans le contexte alimentaire, portant le nom de «styles parentaux alimentaires» (SPA), les stratégies alimentaires utilisées par les parents pour guider l’alimentation de l’enfant, nommées « pratiques alimentaires parentales » (PAP), les comportements alimentaires de l’enfant et le statut pondéral de ce dernier. Cette thèse comprend 4 objectifs spécifiques. D’abord, d’examiner les relations entre les SP, les SPA et les PAP. Dans un deuxième temps, les relations entre les SPA, le comportement alimentaire de l’enfant (préférence et fréquence de consommation) et le statut pondéral de l’enfant seront explorées. Puis, l’existence de relations entre l’usage de PAP et le comportement alimentaire de l’enfant sera évaluée. Finalement, les relations entre les attitudes de la mère à l’égard de son poids et de celui de son enfant et du comportement néophobique de l’enfant seront explorées. Cent vingt-deux mères d’enfants d’âge préscolaire, de 3 à 5 ans, ont été recrutées par des milieux de garde de l’île de Montréal et ont complété et retourné un questionnaire auto-administré portant sur le style parental, style parental alimentaire, les PAP, les fréquences de consommation de l’enfant, les préférences de l’enfant pour certains aliments et groupe d’aliments, la néophobie de l’enfant, le poids et la taille de l’enfant, le régime actuel de la mère, la perception du poids de l’enfant, la préoccupation face au poids de l’enfant ainsi que la description du profil familial. Les SP, les SPA et les PAP montrent des corrélations. Les SPA, plus particulièrement les deux échelles qui les composent (exigence et sensibilité) montrent des corrélations avec la consommation et la préférence pour certains aliments. Des différences sont aussi notées entre les différents SPA et le statut pondéral de l’enfant et certains comportements alimentaires. La présente thèse suggère une implication de trois concepts, soient les SP, les SPA et les PAP, dans la dynamique alimentaire de la dyade mère-enfant. Des relations importantes entre les SPA et les préférences alimentaires sont suggérées. Les futures recherches dans ce domaine devront évaluer l’impact relatif des PAP, des SP et des SPA sur le comportement alimentaire (consommation et préférence) et le poids de l’enfant. Une intervention efficace visant des changements de comportements alimentaires auprès des familles devra adresser à la fois les PAP, mais aussi les SP et les SPA.
Resumo:
Un facteur d’incertitude de 10 est utilisé par défaut lors de l’élaboration des valeurs toxicologiques de référence en santé environnementale, afin de tenir compte de la variabilité interindividuelle dans la population. La composante toxicocinétique de cette variabilité correspond à racine de 10, soit 3,16. Sa validité a auparavant été étudiée sur la base de données pharmaceutiques colligées auprès de diverses populations (adultes, enfants, aînés). Ainsi, il est possible de comparer la valeur de 3,16 au Facteur d’ajustement pour la cinétique humaine (FACH), qui constitue le rapport entre un centile élevé (ex. : 95e) de la distribution de la dose interne dans des sous-groupes présumés sensibles et sa médiane chez l’adulte, ou encore à l’intérieur d’une population générale. Toutefois, les données expérimentales humaines sur les polluants environnementaux sont rares. De plus, ces substances ont généralement des propriétés sensiblement différentes de celles des médicaments. Il est donc difficile de valider, pour les polluants, les estimations faites à partir des données sur les médicaments. Pour résoudre ce problème, la modélisation toxicocinétique à base physiologique (TCBP) a été utilisée pour simuler la variabilité interindividuelle des doses internes lors de l’exposition aux polluants. Cependant, les études réalisées à ce jour n’ont que peu permis d’évaluer l’impact des conditions d’exposition (c.-à-d. voie, durée, intensité), des propriétés physico/biochimiques des polluants, et des caractéristiques de la population exposée sur la valeur du FACH et donc la validité de la valeur par défaut de 3,16. Les travaux de la présente thèse visent à combler ces lacunes. À l’aide de simulations de Monte-Carlo, un modèle TCBP a d’abord été utilisé pour simuler la variabilité interindividuelle des doses internes (c.-à-d. chez les adultes, ainés, enfants, femmes enceintes) de contaminants de l’eau lors d’une exposition par voie orale, respiratoire, ou cutanée. Dans un deuxième temps, un tel modèle a été utilisé pour simuler cette variabilité lors de l’inhalation de contaminants à intensité et durée variables. Ensuite, un algorithme toxicocinétique à l’équilibre probabiliste a été utilisé pour estimer la variabilité interindividuelle des doses internes lors d’expositions chroniques à des contaminants hypothétiques aux propriétés physico/biochimiques variables. Ainsi, les propriétés de volatilité, de fraction métabolisée, de voie métabolique empruntée ainsi que de biodisponibilité orale ont fait l’objet d’analyses spécifiques. Finalement, l’impact du référent considéré et des caractéristiques démographiques sur la valeur du FACH lors de l’inhalation chronique a été évalué, en ayant recours également à un algorithme toxicocinétique à l’équilibre. Les distributions de doses internes générées dans les divers scénarios élaborés ont permis de calculer dans chaque cas le FACH selon l’approche décrite plus haut. Cette étude a mis en lumière les divers déterminants de la sensibilité toxicocinétique selon le sous-groupe et la mesure de dose interne considérée. Elle a permis de caractériser les déterminants du FACH et donc les cas où ce dernier dépasse la valeur par défaut de 3,16 (jusqu’à 28,3), observés presqu’uniquement chez les nouveau-nés et en fonction de la substance mère. Cette thèse contribue à améliorer les connaissances dans le domaine de l’analyse du risque toxicologique en caractérisant le FACH selon diverses considérations.
Resumo:
La bactérie Salmonella enterica sérovar Typhi (S. Typhi) provoque la fièvre typhoïde chez les humains et constitue un problème de santé publique important. La majorité de nos connaissances sur la pathogenèse de cette bactérie provient du modèle de fièvre entérique chez la souris causée par le sérovar Typhimurium. Peu d’études se sont penchées sur les facteurs de virulence uniques au sérovar Typhi, ni sur la possibilité que les pseudogènes retrouvés dans son génome puissent être fonctionnels. Le fimbria stg, unique au sérovar Typhi, renferme un codon d’arrêt TAA prématuré dans le gène stgC qui code pour le placier responsable de l’assemblage des sous-unités fimbriaires à la surface de la bactérie. Ainsi, le fimbria stg a été classifié dans la liste des pseudogènes non-fonctionnels. Les objectifs de cette étude étaient d’évaluer l’implication du fimbria stg lors de l’interaction avec les cellules humaines, puis de vérifier l’importance du pseudogène stgC lors de la biogenèse fimbriaire. Dans une première partie, la transcription de stg a été évaluée à l’aide d’une fusion lacZ. Malgré des niveaux d’expression observés généralement faibles en milieu riche, la croissance en milieu minimal a favorisé la transcription de l’opéron. La délétion complète de l’opéron fimbriaire stgABCD du génome de S. Typhi a été réalisée par échange allélique, puis a été complémentée sur un plasmide. Il a été démontré que la présence de stg chez S. Typhi, S. Typhimurium et E. coli contribue à une adhérence accrue sur les cellules épithéliales humaines. De plus, ce fimbria semble agir comme une structure anti-phagocytaire lors de l’interaction avec des macrophages humains. Ainsi, l’opéron stg semble fonctionnel, malgré son codon d’arrêt prématuré, puisque des phénotypes ont été observés. La seconde partie de cette étude consistait à vérifier le rôle joué par le pseudogène stgC dans la biogenèse du fimbria. Différentes variantes de l’opéron ont été générées, clonées dans un vecteur inductible à l’arabinose, puis transformées dans la souche afimbriaire d’E. coli ORN172. La translocation de la sous-unité fimbriaire StgD à la surface de la bactérie a été évaluée chez ces différents mutants par immunobuvardage de type Western. Cette expérience a permis de démontrer que le pseudogène stgC est essentiel pour l’exportation de la sous-unité StgD à la surface. L’ajout d’une étiquette de 6-histidines en C-terminal de StgC a permis de confirmer la traduction complète du gène, malgré le codon d’arrêt TAA prématuré. Le séquençage peptidique a révélé l’insertion d’une tyrosine à ce codon. Une fusion traductionnelle avec la protéine verte fluorescente a révélé qu’environ 0.8% de l’ARNm peut être traduit et permet la production complète du placier. Ce projet a permis la caractérisation d’un facteur de virulence unique à S. Typhi et constitue une étape de plus vers la compréhension de ses mécanismes de pathogenèse. Il s’agit de la première démonstration chez les bactéries de la fonctionnalité d’un gène interrompu prématurément par un codon d’arrêt TAA.
Resumo:
Ce mémoire présente les recherches et réflexions entourant la conception d’une application à base d’ontologie dédiée au e-recrutement dans le domaine des services de dotation de personnel en technologies de l’information à l’ère du Web Social. Cette application, nommée Combine, vise essentiellement à optimiser et enrichir la Communication Médiée par Ordinateur (CMO) des acteurs du domaine et utilise des concepts issus du paradigme technologique émergent qu’est le Web sémantique. Encore très peu discuté dans une perspective CMO, le présent mémoire se propose donc d’examiner les enjeux communicationnels relatifs à ce nouveau paradigme. Il présente ses principaux concepts, dont la notion d’ontologie qui implique la modélisation formelle de connaissances, et expose le cas de développement de Combine. Il décrit comment cette application fut développée, de l’analyse des besoins à l’évaluation du prototype par les utilisateurs ciblés, tout en révélant les préoccupations, les contraintes et les opportunités rencontrées en cours de route. Au terme de cet examen, le mémoire tend à évaluer de manière critique le potentiel de Combine à optimiser la CMO du domaine d’activité ciblé. Le mémoire dresse au final un portrait plutôt favorable quant à la perception positive des acteurs du domaine d’utiliser un tel type d’application, et aussi quant aux nets bénéfices en frais d’Interactions Humain-Ordinateur (IHO) qu’elle fait miroiter. Il avertit toutefois d’une certaine exacerbation du problème dit « d’engagement ontologique » à considérer lors de la construction d’ontologies modélisant des objets sociaux tels que ceux dont le monde du recrutement est peuplé.
Resumo:
Dans ce mémoire, nous étudions le problème de l'estimation de la variance pour les estimateurs par double dilatation et de calage pour l'échantillonnage à deux phases. Nous proposons d'utiliser une décomposition de la variance différente de celle habituellement utilisée dans l'échantillonnage à deux phases, ce qui mène à un estimateur de la variance simplifié. Nous étudions les conditions sous lesquelles les estimateurs simplifiés de la variance sont valides. Pour ce faire, nous considérons les cas particuliers suivants : (1) plan de Poisson à la deuxième phase, (2) plan à deux degrés, (3) plan aléatoire simple sans remise aux deux phases, (4) plan aléatoire simple sans remise à la deuxième phase. Nous montrons qu'une condition cruciale pour la validité des estimateurs simplifiés sous les plans (1) et (2) consiste à ce que la fraction de sondage utilisée pour la première phase soit négligeable (ou petite). Nous montrons sous les plans (3) et (4) que, pour certains estimateurs de calage, l'estimateur simplifié de la variance est valide lorsque la fraction de sondage à la première phase est petite en autant que la taille échantillonnale soit suffisamment grande. De plus, nous montrons que les estimateurs simplifiés de la variance peuvent être obtenus de manière alternative en utilisant l'approche renversée (Fay, 1991 et Shao et Steel, 1999). Finalement, nous effectuons des études par simulation dans le but d'appuyer les résultats théoriques.
Resumo:
Il est avant-tout question, dans ce mémoire, de la modélisation du timbre grâce à des algorithmes d'apprentissage machine. Plus précisément, nous avons essayé de construire un espace de timbre en extrayant des caractéristiques du son à l'aide de machines de Boltzmann convolutionnelles profondes. Nous présentons d'abord un survol de l'apprentissage machine, avec emphase sur les machines de Boltzmann convolutionelles ainsi que les modèles dont elles sont dérivées. Nous présentons aussi un aperçu de la littérature concernant les espaces de timbre, et mettons en évidence quelque-unes de leurs limitations, dont le nombre limité de sons utilisés pour les construire. Pour pallier à ce problème, nous avons mis en place un outil nous permettant de générer des sons à volonté. Le système utilise à sa base des plug-ins qu'on peut combiner et dont on peut changer les paramètres pour créer une gamme virtuellement infinie de sons. Nous l'utilisons pour créer une gigantesque base de donnée de timbres générés aléatoirement constituée de vrais instruments et d'instruments synthétiques. Nous entrainons ensuite les machines de Boltzmann convolutionnelles profondes de façon non-supervisée sur ces timbres, et utilisons l'espace des caractéristiques produites comme espace de timbre. L'espace de timbre ainsi obtenu est meilleur qu'un espace semblable construit à l'aide de MFCC. Il est meilleur dans le sens où la distance entre deux timbres dans cet espace est plus semblable à celle perçue par un humain. Cependant, nous sommes encore loin d'atteindre les mêmes capacités qu'un humain. Nous proposons d'ailleurs quelques pistes d'amélioration pour s'en approcher.
Resumo:
Cette thèse a pour objectif de déterminer quelques aspects des figurations du sujet au XVIIe siècle à travers une lecture conjointe des romans à la première personne et des textes philosophiques de cette période. Partant de questionnements proches, ces deux genres discursifs construisent une figure du sujet savant et itinérant : être animé d'un désir de connaissance et amené à repenser les conditions d'énonciation de son expérience particulière. Pour les auteurs du corpus, la vérité se découvre au fil d'expériences singulières si bien que dire le monde avec exactitude revient à l'énoncer à la première personne, à en rendre une perception d'abord subjective. Se pose alors le problème de la légitimation de l'énonciation personnelle, légitimation qui permet d'articuler la première personne à une altérité tout en conservant la singularité du sujet. Cette singularité se double toujours d'une dispersion des identités du sujet et des référents de la première personne. Mais narration, fiction et usages du corps figurent cette identité en constellation. Les deux premières exposent la diversité des visages du « je », leurs concordances ou leurs discordances, à la fois être passé et présent, homme réel et personnage imaginaire, narrateur et auteur. Dans les usages liés aux peines et aux plaisirs du corps se dessine une autre forme de rencontre possible entre la particularité du sujet et l'autre : celui qu'il désire, avec lequel il souffre, avec lequel il jouit, qui vit en lui. Par tous ces aspects, énonciatif, narratif, fictionnel, physique, la subjectivité construite par les textes est toujours et essentiellement une relation : récit raconté pour rejoindre autrui.
Resumo:
Rapport de recherche présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise en sciences économiques.
Resumo:
Cette thèse présente une exploration de l’impact que des enseignants peuvent exercer sur le développement de l’intérêt d’étudiants envers leur discipline d’enseignement. Le problème visé par l’étude était le faible niveau de maîtrise de l’orthographe des collégiens du cours de mise à niveau en français et le taux d’échec important à ce cours. Spécifiquement, l’objectif de l’étude était d’évaluer un dispositif pédagogique d’interdisciplinarité ayant pour but de stimuler le développement de l’intérêt de collégiens envers leur cours de mise à niveau en français (MNF). Le dispositif a consisté en un pairage entre un cours moins apprécié des collégiens (le cours de MNF) et un cours très populaire (un cours de psychologie de la sexualité). Ces deux cours ont donc été planifiés en construisant entre eux le plus possible de liens facilement perceptibles par les étudiants. Les écrits théoriques permettaient de croire qu’un intérêt envers le cours de MNF pourrait émerger si l’on menait, dans le cours de français, des activités d’apprentissage utilisant les notions étudiées dans le cours de psychologie. De plus, la théorie du développement de l’intérêt d’Hidi et Renninger (2006) laissait anticiper un approfondissement de cet intérêt envers la matière en général (le français) et non seulement envers le cours. Par ailleurs, la littérature du champ de la motivation scolaire permettait de s’attendre à ce que cet intérêt soit lié à une plus grande perception de l’utilité du cours de MNF de la part des étudiants, ainsi qu’à un meilleur engagement et un meilleur rendement. Pour vérifier ces hypothèses, un devis quasi-expérimental avec condition témoin et suivi longitudinal a été adopté. Le groupe expérimental (GE) était composé de 27 collégiens inscrits aux deux cours : le cours de MNF et le cours de psychologie de la sexualité. Le groupe témoin (GT) était composé de 79 collégiens inscrits au cours de MNF sans être exposés à une condition d’interdisciplinarité. L’intérêt, l’utilité, l’engagement cognitif et l’engagement comportemental ont été mesurées à l’aide d’échelles de type Likert. De plus, la prise des présences en classe par les enseignants a été utilisée comme mesure supplémentaire de l’engagement comportemental. Le rendement, représenté par la performance en orthographe, a été évalué par l’administration d’une dictée avant puis après l’intervention. Les résultats d’une analyse de multivariance (MANOVA) ont révélé un intérêt envers le cours de MNF significativement plus grand après l’intervention pour le GE, comparativement au GT, tout comme une plus grande perception de l’utilité du cours et un meilleur engagement comportemental. Concernant le rendement en orthographe, le nombre d’erreurs d’orthographe grammaticale a diminué davantage entre les deux temps de mesure pour le GE comparativement au GT. Cette différence est significative. Ces résultats suggèrent de valoriser l’interdisciplinarité dans l’enseignement au collégial.
Resumo:
Le vieillissement de la population canadienne prévisible dans les prochaines années entrainera d’importants changements au point de vue social. L’un d’eux est l’augmentation fulgurante du nombre d’aînés en état d’incapacité. Utilisant le modèle de microsimulation LifePaths, cette recherche compare deux projections, ayant des méthodologies différentes, du nombre d’individus en incapacité de 65 ans et plus vivant en ménage privé en 2031. La première méthode utilise le module d’incapacité de LifePaths pour générer les individus en incapacité tandis que la seconde méthode utilise plutôt une régression logistique ordonnée pour les obtenir. Les projections du nombre d’individus en état d’incapacité des deux méthodes nous permettent une comparaison entre ces résultats. Suite à l’élaboration de tableaux et de graphiques permettant de tracer un portait de la situation, cette recherche essaie de démystifier les sources possibles à l’origine de ces différences. Les résultats montrent d’importantes différences entre les projections, spécifiquement pour les individus en état d’incapacité sévère. De plus, lorsqu’on s’intéresse aux variables d’intérêts, on remarque que les différences de projections d’effectifs sont importantes chez les hommes et les gens mariés. Par contre, lorsque les proportions sont analysées, c’est plutôt le groupe d’âges 80 ans et plus ainsi que les projections pour la province du Québec qui créent problème. Ces différences sont attribuables aux caractéristiques d’un modèle de microsimulation, aux populations de départ ainsi qu’aux paramètres définis. Les résultats démontrés dans cette recherche mettent en garde sur les travaux étudiant le nombre d’individus en incapacité dans le futur. Nos deux méthodes ayant des résultats différents, nous ne pouvons pas conclure avec certitude quelle sera la situation dans le futur.
Resumo:
Thèse réalisée en cotutelle avec l'Université d'Avignon.
Resumo:
La formation à distance (FAD) est de plus en plus utilisée dans le cadre de la formation des enseignants aux technologies de l’information et de la communication (TIC). Dans les pays en voie de développement, elle permet non seulement de réduire les coûts par rapport à une formation traditionnelle, mais aussi de modéliser des pratiques pédagogiques exemplaires qui permettent de maximiser le recours aux TIC. En ce sens, la formation continue des enseignants aux TIC par des cours à distance qui intègrent des forums de discussion offre plusieurs avantages pour ces pays. L’évaluation des apprentissages réalisés dans les forums reste cependant un problème complexe. Différents modèles et différentes procédures d’évaluation ont été proposés par la littérature, mais aucun n’a encore abordé spécifiquement la culture e-learning des participants telle qu’elle est définie par le modèle IntersTICES (Viens, 2007 ; Viens et Peraya, 2005). L’objectif de notre recherche est l’élaboration d’une grille opérationnelle pour l’analyse de la culture e-learning à partir des contenus de différents forums de discussion utilisés comme activité de formation dans un cours à distance. Pour développer cette grille, nous utiliserons une combinaison de modèles recensés dans la revue de littérature afin de circonscrire les principaux concepts et indicateurs à prendre en compte pour ensuite suivre les procédures relatives à l’analyse de la valeur, une méthodologie qui appelle la production d’un cahier des charges fonctionnel, la production de l’outil, puis sa mise à l’essai auprès d’experts. Cette procédure nous a permis de mettre sur pied une grille optimale, opérationnelle et appuyée par une base théorique et méthodologique solide.