1000 resultados para Les tests neuropsychologiques
Resumo:
À l’ère du web 2.0, l’usage des sites web se multiplie et génère de nouveaux enjeux. La satisfaction en rapport à l’interactivité, facteur d’efficacité des sites, détermine la popularité, et donc la visibilité de ceux-ci sur la Toile. Par conséquent, dans cette étude, nous considérons que les utilisateurs ont un rôle à jouer lors du processus de conception de ces derniers. Certes, autant en théorie que dans la pratique, les concepteurs semblent bel et bien tenir compte des utilisateurs; toutefois, ils ne les intègrent pas comme participants actifs dans leurs démarches. Cette étude vise au moyen d’une recherche documentaire et d’observations sur le terrain à comprendre les principales catégories et morphologies des sites web ainsi que les usages qui en découlent. Une analyse des diverses démarches de conception et des perceptions et attentes des internautes est réalisée sur la base de ces résultats. Pour répondre à ces objectifs, cette analyse cible deux catégories de sites réalisés par des professionnels et par des amateurs. Celle-ci nous permet de démontrer que les résultats de chacune de ces démarches, exprimés à travers les interfaces graphiques des sites, diffèrent au niveau de la qualité perceptible. Cette étude souligne également l’importance d’un traitement efficace de la communication graphique des éléments des sites web, afin de structurer la lecture et transmettre au final un message clair et compréhensible aux internautes. Dans le but consolider nos propositions, nous faisons référence à deux théories de communication graphique, la Gestalt et la sémiotique, l’une s’intéressant à la perception visuelle, l’autre à l’interprétation des signes. Celles-ci se sont révélées pertinentes pour analyser la qualité et l’efficacité des éléments de contenus. Notre étude révèle que les participants ne sont pas satisfaits des deux sites testés car l’utilisabilité du site conçu par des professionnels est trop complexe et l’interface du site conçu par un amateur manque de professionnalisme et de cohérence. Ces résultats soulignent la pertinence d’une approche centrée sur l’utilisateur pour la conception de sites web, car elle permet d’identifier et de résoudre des erreurs de conception. Nos résultats permettent également de souligner que les professionnels ayant un savoir technique et théorique se démarquent des amateurs au niveau des intervenants, des outils et des limites. Des pistes de solution, via des critères de design centré sur l’utilisateur, sont proposées à la fin de cette étude dans le but d’optimiser la qualité et l’efficacité des interfaces graphiques web.
Resumo:
Depuis quelques années, plusieurs didacticiens du français se penchent sur l’enseignement et l’évaluation de l’oral, mais peu d’informations sont encore disponibles concernant les pratiques effectives des enseignants à cet égard. Notre recherche vise à décrire les croyances de deux enseignants de français au secondaire et leurs pratiques au sujet de l’évaluation de l’oral, plus particulièrement de l’oral dans une situation d’interaction entre pairs. Une entrevue dirigée a permis d’avoir accès à leurs croyances et à leurs pratiques déclarées, alors que le think-aloud a été employé pour observer leur pratique d’évaluation, à l’étape du jugement, d’une situation d’interaction entre pairs. Nos résultats montrent que, du point de vue de leurs croyances, les enseignants ont tous deux des préoccupations concernant les tâches et les instruments d’évaluation, et que leurs pratiques d’évaluation déclarées sont assez semblables en ce qui a trait aux tâches retenues, à leur fréquence et à l’intention poursuivie. Du côté de leurs pratiques d’évaluation observées à l’étape du jugement, nous exposons de façon détaillée les gestes d’enseignants en situation authentique, en identifiant les principaux processus cognitifs et métacognitifs impliqués dans cette tâche complexe. Des divergences entre les deux enseignants ont été observées relativement à leurs croyances, pratiques déclarées et pratiques observées durant le jugement. Tout d’abord, les critères retenus pour l’évaluation (pratique déclarée) ne tiennent pas toujours compte de ce qu’ils croient important d’enseigner en classe (croyance). De plus, malgré une pratique déclarée positive concernant l’autoévaluation, ces enseignants n’y ont peu ou pas eu recours durant leur jugement. Enfin, les gestes de l’un, durant le jugement, tendaient vers la posture d’instructeur-contrôleur, alors que ceux de l’autre s’inscrivaient davantage dans la posture de conseiller-didacticien. De façon générale, nous constatons que les pratiques de ces enseignants sont plus influencées par les situations rencontrées en tant qu’élèves et les traditions d’enseignement de la discipline que par le programme en vigueur.
Resumo:
Le genre bactérien Salmonella regroupe plus de 2500 sérovars, mais peu sont responsables de pathologies humaines. Salmonella enterica sérovar Typhi (S. Typhi) est reconnu pour son importance médicale à travers le globe. S. Typhi cause la fièvre typhoïde chez l’Homme, une maladie infectieuse létale caractérisée par la dissémination systémique de la bactérie vers des organes du système réticulo-endothélial. La fièvre typhoïde représente un fardeau pour la santé mondiale, notamment auprès des pays en développement où les conditions sanitaires sont désuètes. La situation se complique davantage par l’apparition de souches résistantes aux antibiotiques. De plus, les deux vaccins licenciés sont d’efficacité modérée, présentent certaines contraintes techniques et ne sont pas appropriés pour les jeunes enfants et nourrissons. La phase systémique de l’infection par Salmonella repose sur sa survie dans les macrophages du système immunitaire. Dans ce compartiment intracellulaire, la bactérie module les défenses antimicrobiennes grâce à de multiples facteurs de virulence encodés dans son génome. Les mécanismes moléculaires sollicités sont complexes et finement régulés. Malgré les progrès scientifiques réalisés précédemment, plusieurs incompréhensions persistent au sujet de l’adaptation de ce pathogène dans les macrophages de l’hôte. Pour mieux concevoir les déterminants génétiques de S. Typhi impliqués dans l’interaction avec ces cellules, une stratégie de sélection négative a été appliquée afin de vérifier systématiquement l’effet direct des gènes pendant l’infection. En premier temps, une librairie de mutants par transposon chez S. Typhi a été créée pour l’infection de macrophages humains en culture. Après 24 heures d’infection, la présence des mutants fut évaluée simultanément par analyse sur des biopuces de Salmonella. Au total, 130 gènes ont été sélectionnés pour leur contribution potentielle auprès des macrophages infectés. Ces gènes comptaient des composantes d’enveloppe bactérienne, des éléments fimbriaires, des portions du flagelle, des régulateurs, des facteurs de pathogenèse et plusieurs protéines sans fonction connue. En deuxième temps, cette collection de gènes a dirigé la création de 28 mutants de délétion définie chez S. Typhi. Les capacités d’entrée et de réplication intracellulaire de ces mutants au sein des macrophages humains ont été caractérisées. D’abord, les macrophages ont été co-infectés avec les mutants en présence de la souche sauvage, pour vérifier la compétitivité de chacun d’eux envers cette dernière. Ensuite, les mutants ont été inoculés individuellement chez les macrophages et leur infectivité fut mesurée comparativement à celle de la souche sauvage. Sommairement, 26 mutants ont présenté des défauts lorsqu’en compétition, tandis que 14 mutants se sont montrés défectueux lorsque testés seuls. Par ailleurs, 12 mutants ont exposé une déficience lors de l’infection mixte et individuelle, incluant les mutants acrA, exbDB, flhCD, fliC, gppA, mlc, pgtE, typA, waaQGP, STY1867-68, STY2346 et SPI-4. Notamment, 35 nouveaux phénotypes défectueux d’entrée ou de survie intracellulaire chez Salmonella ont été révélés par cette étude. Les données générées ici offrent plusieurs nouvelles pistes pour élucider comment S. Typhi manipule sa niche intracellulaire, menant à l’infection systémique. Les gènes décrits représentent des cibles potentielles pour atténuer la bactérie chez l’humain et pourraient contribuer au développement de meilleures souches vaccinales pour immuniser contre la fièvre typhoïde.
Resumo:
L’analyse des anomalies génomiques récurrentes est importante pour établir le diagnostic, le pronostic et pour orienter la thérapie des leucémies aiguës pédiatriques. L’objectif de notre étude est d’élaborer une stratégie optimale pour détecter les anomalies chromosomiques dans les leucémies aiguës lymphoblastiques (LAL) et myéloïdes (LAM) des enfants. Pour ce faire, nous avons caractérisé au caryotype, avec des panels d’hybridation in situ en fluorescence (FISH), par RT-PCR et par l’index d’ADN 253 leucémies de novo reçues au CHU Sainte-Justine entre 2005 et 2011 (186 LAL-B, 27 LAL-T et 40 LAM). Nous avons réussi à optimiser la détection des anomalies chromosomiques dans les trois types de leucémies, avec des fréquences de 93,5% dans les LAL-B (174/186), 66,7% dans les LAL-T (18/27) et 90% dans les LAM (36/40). Nos résultats suggèrent d’utiliser plusieurs tests génétiques concomitants afin d’optimiser la détection des anomalies génomiques dans les LAL et les LAM de novo pédiatriques.
Resumo:
Rapport de stage présenté à la Faculté des arts et des sciences en vue de l’obtention du grade de Maîtrise ès sciences (M. Sc.) en criminologie option Intervention
Resumo:
Mycobacterium avium subsp. paratuberculosis (MAP) cause la maladie de Johne, une maladie chronique et incurable affectant les ruminants partout dans le monde. Plusieurs pays ont mis en place des programmes de contrôle afin de prévenir la transmission entre et au sein des troupeaux. Afin d’arriver à prévenir et contrôler cette maladie, une bonne compréhension des facteurs de risque impliqués dans la transmission est essentielle. Des tests diagnostiques performants et à coût abordable sont aussi nécessaires afin de détecter la présence du MAP et/ou les animaux infectés. L’objectif de la première étude était de réviser systématiquement la littérature scientifique concernant les facteurs de risque associés à la transmission du MAP aux génisses laitières. La présence d’une association significative entre les facteurs de risque concernant l’environnement néonatal, le colostrum, le lait, le logement des veaux et le contact des veaux avec le fumier de vaches adultes et la transmission du MAP a été compilée de 23 articles. Le contact des veaux avec le fumier de vaches adultes est le facteur de risque le plus important dans la transmission du MAP. L’objectif de la seconde étude était d’évaluer la relation entre le nombre d’échantillons de l’environnement positifs pour le MAP et la prévalence individuelle d’excrétion fécale dans les troupeaux laitiers entravés du Québec. Le nombre de cultures positives d’échantillons de l’environnement s’est avéré associé à la prévalence individuelle d’excrétion fécale du MAP. Une association significative a été trouvée entre la présence d’une forte charge bactérienne dans un échantillon de fumier individuel et la détection du MAP dans l’environnement.
Resumo:
Les processus Markoviens continus en temps sont largement utilisés pour tenter d’expliquer l’évolution des séquences protéiques et nucléotidiques le long des phylogénies. Des modèles probabilistes reposant sur de telles hypothèses sont conçus pour satisfaire la non-homogénéité spatiale des contraintes fonctionnelles et environnementales agissant sur celles-ci. Récemment, des modèles Markov-modulés ont été introduits pour décrire les changements temporels dans les taux d’évolution site-spécifiques (hétérotachie). Des études ont d’autre part démontré que non seulement la force mais également la nature de la contrainte sélective agissant sur un site peut varier à travers le temps. Ici nous proposons de prendre en charge cette réalité évolutive avec un modèle Markov-modulé pour les protéines sous lequel les sites sont autorisés à modifier leurs préférences en acides aminés au cours du temps. L’estimation a posteriori des différents paramètres modulants du noyau stochastique avec les méthodes de Monte Carlo est un défi de taille que nous avons su relever partiellement grâce à la programmation parallèle. Des réglages computationnels sont par ailleurs envisagés pour accélérer la convergence vers l’optimum global de ce paysage multidimensionnel relativement complexe. Qualitativement, notre modèle semble être capable de saisir des signaux d’hétérogénéité temporelle à partir d’un jeu de données dont l’histoire évolutive est reconnue pour être riche en changements de régimes substitutionnels. Des tests de performance suggèrent de plus qu’il serait mieux ajusté aux données qu’un modèle équivalent homogène en temps. Néanmoins, les histoires substitutionnelles tirées de la distribution postérieure sont bruitées et restent difficilement interprétables du point de vue biologique.
Resumo:
Le diagnostic de l’acouphène repose sur le rapport verbal du patient. Cependant, les paramètres psychoacoustiques, tels que la hauteur et la sonie de l’acouphène, sont essentiels pour l’évaluation et pour discriminer les fausses plaintes. Quantifier le percept de l’acouphène reste un objectif de recherche important. Nous avons cherché à: (1) évaluer la précision d'une nouvelle méthode d'évaluation des acouphènes du type « likeness rating » avec une méthode de présentation continue de la hauteur, en considérant la formation musicale, et (2) vérifier si les mesures psychoacoustiques de l’acouphène ont la sensibilité et la spécificité pour détecter les personnes simulant un acouphène. Nous avons recruté des musiciens et des non-musiciens souffrant d'acouphènes et des simulateurs sans acouphènes. La plupart d’entre eux ont été testés une seconde fois quelques semaines plus tard. La hauteur de l’acouphène a d’abord été évaluée en utilisant la méthode « likness rating ». Des sons purs ont été présentés de manière aléatoire de 0.25 kHz à 16 kHz et les participants devaient coter la ressemblance de chaque son par rapport à leur acouphène, et en ajuster son volume de 0 à 100 dB SPL. La hauteur a ensuite été évaluée par une méthode, où les participants devaient apparier la hauteur de leur acouphène en déplaçant leur doigt sur une bande tactile générant des sons purs en continu de 0.5 kHz à 20 kHz par pas de 1 Hz. Les capacités à apparier des sons externes ont été évaluées en utilisant cet appareil. La hauteur prédominante de l’acouphène était similaire entre les deux méthodes pour les musiciens et les non-musiciens, bien que les musiciens montraient de meilleures capacités d’appariement face à des sons externes. Les simulateurs ont coté la sonie bien au-dessus que les autres groupes avec un grand degré de spécificité (94,4%), et ont été inconsistants dans l’appariement de cette sonie (pas de la hauteur) d’une session à une autre. Les données de la seconde session montrent des réponses similaires pour l’appariement de la hauteur pour les deux méthodes ainsi que pour tous nos participants. En conclusion, la hauteur et la sonie correspondent au percept de l’acouphène et doivent en plus être utilisées avec des échelles visuelles analogiques, qui sont plus corrélées avec la gêne et la détresse. Enfin, l’appariement de la sonie est sensible et spécifique à déterminer la présence de l’acouphène.
Resumo:
Le but de ce travail de mémoire était d'explorer des moyens pour augmenter la perméabilité des biofilms de Streptococcus mutans aux macromolécules en utilisant des agents potentiellement perturbateurs de la structure des biofilms. L’acide éthylènediamine tétraacétique (EDTA) ainsi que l’acide acétylsalicylique (aspirine) sont les agents perturbateurs choisis. Le changement de perméabilité des biofilms de S. mutans a été déterminé en mesurant les coefficients de diffusion globale du polyéthylène glycol (PEG) et de diffusion locale de dextrans. Les coefficients de diffusion globale ont été mesurés par spectroscopie infrarouge avec un échantillonnage par réflexion totale atténuée (ATR) alors que la spectroscopie par corrélation de fluorescence (SCF) a été utilisée pour la mesure des coefficients de diffusion locale. Les résultats ont démontré que l’incorporation de l’EDTA à une concentration de 7.5 (m/v) % dans la solution de diffusion permet d’améliorer les propriétés de transport du PEG dans les biofilms en augmentant sa pénétrabilité et son coefficient de diffusion globale. Par contre, aucune variation n’a été constatée dans la valeur du coefficient de diffusion locale de dextran fluorescent. Cette différence peut être expliquée, entre autres, par l'échelle des mesures et la nature différente des molécules diffusantes. L’aspirine n’a démontré aucun effet sur le transport du PEG à travers les biofilms de S. mutans. La pénétration accrue du PEG en présence de l’EDTA a été corrélée aux tests de viabilité des cellules bactériennes. En effet, la combinaison de la pénicilline G (PenG) avec l’EDTA 2 (m/v) % a eu comme effet l’augmentation du pouvoir biocide d’un facteur 3. De plus, les images de microscopie à épifluorescence et de microscopie confocale à balayage de laser ont démontré que les bactéries dans le cœur des microcolonies sont plus affectées par la PenG lorsque le milieu contient de l'EDTA. A la lumière des résultats obtenus, il s’avère que l’incorporation d'agents perturbateurs de la structure des biofilms est une option sérieuse à considérer dans l’éradication des biofilms microbiens. Plus d’études devront être effectuées afin d’investiguer l’effet d’autres molécules possédant les propriétés perturbatrices de la structure des biofilms sur la résistance de ces derniers aux agents antimicrobiens.
Resumo:
Contexte : De manière générale, on considère que le processus de validation d’un instrument de mesure porte sur la validité et la fiabilité. Or, la nature dynamique et évolutive de certaines problématiques, comme la stigmatisation des personnes vivant avec le VIH (PVVIH), laisse croire qu’il est particulièrement important de réinvestir rapidement dans la pratique, les résultats produits par les mesures ainsi validées. Objectifs : La présente thèse vise à développer et valider une échelle de mesure des attitudes stigmatisantes envers les PVVIH en intégrant un dispositif participatif. La thèse utilise en partie les données d’une enquête de surveillance des attitudes envers les PVVIH au Québec, elle comporte trois études qui répondent aux trois objectifs spécifiques suivants : (1) valider la version révisée d’un instrument de mesure des attitudes favorables à la stigmatisation dans la population générale du Québec envers les PVVIH; (2) analyser la relation entre la mesure des attitudes favorables à la stigmatisation et le recours au dépistage du VIH dans la population générale du Québec; (3) décrire et analyser les processus de circulation et d’utilisation des connaissances produites par l’instrument de mesure dans les réseaux professionnels des membres d’un comité consultatif. Méthodes : Un comité consultatif réunissant plusieurs partenaires issus de différents milieux a été constitué dès l’obtention de la subvention. Il a été consulté et informé avant, pendant et après l’enquête téléphonique populationnelle (n=1500) ayant permis de colliger les données. L’Échelle des Attitudes Stigmatisantes envers les Personnes Vivant avec le VIH (EASE-PVVIH) a été validée au moyen de plusieurs analyses psychométriques : analyses factorielles exploratoires et confirmatives, corrélations, régression linéaire multiple, test-t, tests d’hypothèses d’invariance de la structure factorielle et alphas de Cronbach (objectif 1). L’association entre les attitudes favorables à la stigmatisation et le recours au dépistage du VIH a été testée à l’aide de régressions logistiques hiérarchiques (objectif 2). Quant aux processus de circulation et d’utilisation des connaissances dans les réseaux professionnels, ils ont été analysés au moyen d’une étude de cas rétrospective (objectif 3). Résultats : Les analyses ont révélé trois résultats importants. Premièrement, d’un point de vue psychométrique, l’EASE-PVVIH est un outil fiable et valide pour mesurer les attitudes stigmatisantes envers les personnes vivant avec le VIH. Deuxièmement, sous une certaine forme caractérisée par l’inquiétude éprouvée lors de rencontres occasionnelles, les attitudes stigmatisantes par rapport aux personnes vivant avec le VIH semblent nuire au recours au test de dépistage dans la population générale au Québec. Troisièmement, un dispositif participatif en particulier, soit un comité consultatif, semble être un moyen pour favoriser le réinvestissement rapide et étendre la portée des résultats produits par la recherche dans des actions concrètes de santé publique. Conclusion : Ces résultats mettent en lumière la portée d’un dispositif participatif pour la validation d’instrument de mesure. L’arrimage entre les préoccupations scientifiques et pratiques apparaît être une avenue prometteuse pour améliorer la qualité et la pertinence sociale des données produites par les mesures.
Resumo:
Le changement de paradigme amené par l'approche par compétences dans le système éducatif québécois au début des années 2000 devait conduire les enseignants à adopter de nouvelles façons de faire prescrites par la Politique en évaluation des apprentissages (MEQ, 2003) qui s’inscrivent dans une évaluation au service de l’apprentissage. Brookhart (2004) pour sa part, considère que la recherche en ce qui concerne les apprentissages et l'évaluation au primaire sont limitées et Boutin (2007) se questionne sur le changement effectif des pratiques considérant les vives critiques suscitées quant à l'implantation de l'approche par compétences dans les écoles québécoises. Cette recherche vise à apporter un éclairage quant aux façons de faire d'enseignants de la 6e année du primaire à toutes les étapes de la démarche d'évaluation en lecture, écriture et mathématique en les situant dans des perspectives nouvelles ou traditionnelles de l'évaluation et en observant si la fréquence des énoncés reliés aux façons de faire diffère selon les caractéristiques personnelles des enseignants. Suivant une méthodologie de type simultanée imbriquée, 55 enseignants ont rempli un questionnaire et 14 d'entre eux ont participé à des entrevues semi-dirigées. L’analyse des données montre que tout au long de la démarche d'évaluation, les façons de faire des enseignants varient, et ce, dans les trois matières: ils utilisent des façons de faire qui sont situées tantôt dans un continuum allant des perspectives traditionnelles aux perspectives nouvelles de l'évaluation comme dans la planification, la collecte de données, l'interprétation et la communication et tantôt dans les nouvelles perspectives de l'évaluation comme dans l'étape du jugement, et ce, selon leurs caractéristiques sociodémographiques. Nous avons ainsi pu catégoriser les enseignants selon le modèle de Schwartz, Bransford et Sears (2005) en distinguant ceux qui sont efficients de ceux qui ne le sont pas, même s'ils innovent. Afin d’améliorer les pratiques des enseignants à chaque étape de la démarche d’évaluation, nous pensons qu'il serait intéressant de valider un tableau synthèse inspiré de Scallon (2004) et l'OCDE (2005) afin de créer une métagrille pour analyser la pertinence et la cohérence des façons de faire des enseignants en cours de cycle dans une optique d’évaluation intégrée à l’apprentissage.
Resumo:
Thèse effectuée en cotutelle (Université de Poitiers, France)
Resumo:
Le monde actuel, marqué par une augmentation incessante des exigences professionnelles, requiert des enseignants une adaptation constante aux changements sociaux, culturels et économiques. Si, pour les enseignants expérimentés, l’accommodation à ces transformations est accompagnée de plusieurs défis, pour les nouveaux enseignants qui ne maîtrisent pas complètement tous les aspects de la profession, l’intégration au milieu scolaire peut être extrêmement difficile ou même insupportable, au point où certains quittent le métier. Néanmoins, à force de persévérance, un certain nombre des nouveaux enseignants franchissent les obstacles imposés par la profession. Dans leur cas, la satisfaction et l’engagement professionnel peuvent être des caractéristiques importantes qui les incitent à continuer à exercer leurs activités d’enseignement. Dans ce contexte, l’étude vise l’analyse des éléments liés à la construction de l’identité professionnelle des enseignants lors de leur insertion dans le métier, à partir des perceptions des nouveaux enseignants et de celles des gestionnaires des écoles primaires et secondaires. L’harmonie entre la perception de ces deux groupes d’acteurs scolaires peut constituer un important facteur du rendement des professionnels dans leur métier et de l’efficacité des institutions d’enseignement. Ainsi, du côté des nouveaux enseignants, l’étude examine les variables qui peuvent être liées à leur engagement professionnel et de celui des gestionnaires, elle vise à analyser les éléments qui peuvent être liés à leur satisfaction sur le travail effectué par les nouveaux enseignants. La présente étude, de type quantitatif, est constituée des analyses secondaires des données issues des enquêtes pancanadiennes auprès des directions et des enseignants d’écoles primaires et secondaires du Canada, menées en 2005 et 2006 par une équipe de professeurs de différentes universités canadiennes. Les analyses statistiques sont basées sur deux modèles théoriques : (1) l’engagement professionnel des nouveaux enseignants et (2) la satisfaction des gestionnaires sur le travail effectué par les nouveaux enseignants. Ces modèles sont examinés en suivant la théorie classique des tests (TCT) et celle des réponses aux items (TRI) afin de profiter des avantages de chacune des méthodes. Du côté de la TCT, des analyses de cheminement et des modélisations aux équations structurelles ont été effectuées pour examiner les modèles théoriques. Du côté de la TRI, des modélisations de Rasch ont été utilisées pour examiner les propriétés psychométriques des échelles utilisées par la recherche afin de vérifier si les données sont bien ajustées aux modèles et si les items se regroupent de façon logique pour expliquer les traits latents à l’étude. Les résultats mettent en évidence le rapport humain qui définit la profession enseignante. Autrement dit, pour les nouveaux enseignants, les émotions en classe, conséquence du processus d’interaction avec leurs élèves, sont le facteur majeur lié à l’engagement professionnel. Dans le même sens, la relation des nouveaux enseignants avec les divers membres de la communauté scolaire (parents des élèves, gestionnaires, personnel de l’école et autres enseignants) est un facteur-clé de la satisfaction des gestionnaires quant au travail des nouveaux enseignants. Les analyses indiquent également l’importance de la satisfaction au travail dans le modèle des nouveaux enseignants. Cette variable est un important déterminant de l’engagement professionnel et peut être associée à tous les autres éléments du modèle des nouveaux enseignants. Finalement, les résultats indiquent le besoin de construction des variables latentes avec un plus grand nombre d’items pour mieux positionner les personnes dans l’échelle de mesure. Ce résultat est plutôt important pour le modèle des gestionnaires qui indique de mauvais ajustements items-personnes.
Resumo:
La malhonnêteté académique au cours d’épreuves présente des enjeux importants quant à l’intégrité des évaluations. La présence des TIC étant de plus en plus importante en cours de passation dans les épreuves, il est important avec ce mode de récolte de données d’assurer un niveau de sécurité égal ou même supérieur à celui présent lorsqu’un mode de récolte de données traditionnel, le papier-crayon, est utilisé. Il existe plusieurs recherches sur l’utilisation des TIC dans l’évaluation, mais peu d’entre elles traitent des modalités de sécurité lors de l’utilisation des TIC. Dans ce mémoire, treize organisations québécoises ont été rencontrées: six qui utilisaient les TIC dans la passation, cinq qui utilisaient le papier-crayon dans la passation mais qui désiraient utiliser les TIC et deux qui utilisaient le papier-crayon et qui ne désiraient pas utiliser les TIC. Les organisations sont des établissements d’enseignement (primaire, secondaire, collégial, universitaire), des entreprises privées, des organismes gouvernementaux ou municipaux et des ordres professionnels. Des entrevues semi-structurées et une analyse qualitative par présence ou absence de différentes caractéristiques ont permis de documenter les modalités de sécurité liées à la récolte de données en vue de l’évaluation en utilisant les TIC. Ces modalités ont été comparées à celles utilisées lors de l’utilisation du papier-crayon dans la récolte de données en vue de l’évaluation afin de voir comment elles varient lors de l’utilisation des TIC. Les résultats révèlent que l’utilisation des TIC dans la passation complexifie et ajoute des étapes à la préparation des épreuves pour assurer un niveau de sécurité adéquat. Cependant elle permet également de nouvelles fonctions en ce qui concerne le type de questions, l’intégration de multimédia, l’utilisation de questions adaptatives et la génération aléatoire de l’épreuve qui permettent de contrer certaines formes de malhonnêteté académiques déjà présentes avec l’utilisation du papier-crayon dans la passation et pour lesquelles il était difficile d’agir. Toutefois, l’utilisation des TIC dans la passation peut aussi amener de nouvelles possibilités de malhonnêteté académique. Mais si ces dernières sont bien prises en considération, l’utilisation des TIC permet un niveau de sécurité des épreuves supérieur à celui où les données sont récoltées au traditionnel papier-crayon en vue de l’évaluation.
Resumo:
Un protocole inspiré du test de simulation 309 de l’Organisation de coopération et de développement économiques (OCDE) nous a permis de mesurer la dégradation chimique (excluant la photolyse) dans des eaux de surface de même que la dégradation chimique et biologique de neuf contaminants émergents dans l’effluent d’un décanteur primaire d’eau usée municipale. Les données étaient compatibles avec le modèle de cinétique de pseudo ordre un. Les résultats démontrant une persistance de plus d’un an dans les eaux de surface et de 71 jours dans l’effluent du décanteur primaire suggèrent que les dégradations chimique et biologique ne contribuent pas significativement à la diminution de: atrazine, déséthylatrazine, carbamazépine et diclofénac dans la phase aqueuse des systèmes testés. Les autres composés se sont dégradés à différents niveaux. Le 17ß-estradiol ainsi que l’éthinylestradiol, la noréthindrone, la caféine et le sulfaméthoxazole ont tous été sujet à la dégradation biologique dans les effluents du décanteur primaire d’eau usée avec des constantes de dégradation k et des demi-vies t1/2 mesurées allant respectivement de 0.0082 à 0.59 j-1 et de 1.2 à 85 jours. Les paramètres de cinétique mesurés peuvent être combinés aux concentrations typiques des composés à l’étude dans un décanteur primaire d’eau usée pour y calculer leur vitesse de dégradation. Cependant, puisque les décanteurs primaires dans les usines de traitement d’eaux usées ont généralement des temps de résidence de quelques heures seulement, il est improbable que les neufs contaminants émergents à l’étude diminuent significativement par ces processus durant leur passage dans le compartiment.