966 resultados para [JEL:C52] Mathématiques et méthodes quantitatives - Modélisation économétrique - Évaluation de modèles et tests
Resumo:
Il semble y avoir des attentes réciproques non comblées en formation initiale à l’enseignement des mathématiques. Cherchant à comprendre la genèse de ces attentes, nous nous sommes intéressée à la vision que les étudiants nourrissent des phénomènes d’enseignement. Ayant postulé que les étudiants ont une vision déterministe de ces phénomènes, et considérant que leur anticipation oriente leur projet de formation, nous nous sommes attaquée au problème de la rencontre des projets des étudiants et des formateurs. Deux objectifs généraux ont été formulés : le premier concerne la description des projets de formation des étudiants tandis que le second concerne l’expérimentation d’une séquence de situations susceptible de faire évoluer leurs projets. Cette recherche a été menée auprès de 58 étudiants du baccalauréat en enseignement en adaptation scolaire et sociale d’une même université, lesquels entamaient leur formation initiale à l’enseignement des mathématiques. Afin d’explorer les projets qu’ils nourrissent a priori, tous les étudiants ont complété un questionnaire individuel sur leur vision des mathématiques et de leur enseignement et ont participé à une première discussion de groupe sur le sujet. Une séquence de situations probabilistes leur a ensuite été présentée afin d’induire une complexification de leur projet. Enfin, cette expérimentation a été suivie d’une seconde discussion de groupe et complétée par la réalisation de huit entretiens individuels. Il a été mis en évidence que la majorité des étudiants rencontrés souhaitent avant tout évoluer en tant qu’enseignant, en développant leur capacité à enseigner et à faire apprendre ou comprendre les mathématiques. Bien que certaines visées se situent dans une perspective transmissive, celles-ci ne semblent pas représentatives de l’ensemble des projets "visée". De plus, même si la plupart des étudiants rencontrés projettent de développer des connaissances relatives aux techniques et aux méthodes d’enseignement, la sensibilité à la complexité dont certains projets témoignent ne permet plus de réduire les attentes des étudiants à l’endroit de leur formation à la simple constitution d’un répertoire de techniques d’enseignement réputées efficaces. En ce qui a trait aux modes d’anticipation relevés a priori, nos résultats mettent en relief des anticipations se rattachant d’abord à un mode adaptatif, puis à un mode prévisionnel. Aucune anticipation se rattachant à un mode prospectif n’a été recensée a priori. La séquence a permis aux étudiants de s’engager dans une dialectique d’action, de formulation et de validation, elle les a incités à recourir à une approche stochastique ainsi qu’à porter un jugement de probabilité qui prenne en compte la complexité de la situation. A posteriori, nous avons observé que les projets "visée" de certains étudiants se sont complexifiés. Nous avons également noté un élargissement de la majorité des projets, lesquels considèrent désormais les autres sommets du triangle didactique. Enfin, des anticipations se rattachant à tous les modes d’anticipation ont été relevées. Des anticipations réalisées grâce à un mode prospectif permettent d’identifier des zones d’incertitude et de liberté sur lesquelles il est possible d’agir afin d’accroître la sensibilité à la complexité des situations professionnelles à l’intérieur desquelles les futurs enseignants devront se situer.
Resumo:
Dans un premier temps, nous avons modélisé la structure d’une famille d’ARN avec une grammaire de graphes afin d’identifier les séquences qui en font partie. Plusieurs autres méthodes de modélisation ont été développées, telles que des grammaires stochastiques hors-contexte, des modèles de covariance, des profils de structures secondaires et des réseaux de contraintes. Ces méthodes de modélisation se basent sur la structure secondaire classique comparativement à nos grammaires de graphes qui se basent sur les motifs cycliques de nucléotides. Pour exemplifier notre modèle, nous avons utilisé la boucle E du ribosome qui contient le motif Sarcin-Ricin qui a été largement étudié depuis sa découverte par cristallographie aux rayons X au début des années 90. Nous avons construit une grammaire de graphes pour la structure du motif Sarcin-Ricin et avons dérivé toutes les séquences qui peuvent s’y replier. La pertinence biologique de ces séquences a été confirmée par une comparaison des séquences d’un alignement de plus de 800 séquences ribosomiques bactériennes. Cette comparaison a soulevée des alignements alternatifs pour quelques unes des séquences que nous avons supportés par des prédictions de structures secondaires et tertiaires. Les motifs cycliques de nucléotides ont été observés par les membres de notre laboratoire dans l'ARN dont la structure tertiaire a été résolue expérimentalement. Une étude des séquences et des structures tertiaires de chaque cycle composant la structure du Sarcin-Ricin a révélé que l'espace des séquences dépend grandement des interactions entre tous les nucléotides à proximité dans l’espace tridimensionnel, c’est-à-dire pas uniquement entre deux paires de bases adjacentes. Le nombre de séquences générées par la grammaire de graphes est plus petit que ceux des méthodes basées sur la structure secondaire classique. Cela suggère l’importance du contexte pour la relation entre la séquence et la structure, d’où l’utilisation d’une grammaire de graphes contextuelle plus expressive que les grammaires hors-contexte. Les grammaires de graphes que nous avons développées ne tiennent compte que de la structure tertiaire et négligent les interactions de groupes chimiques spécifiques avec des éléments extra-moléculaires, comme d’autres macromolécules ou ligands. Dans un deuxième temps et pour tenir compte de ces interactions, nous avons développé un modèle qui tient compte de la position des groupes chimiques à la surface des structures tertiaires. L’hypothèse étant que les groupes chimiques à des positions conservées dans des séquences prédéterminées actives, qui sont déplacés dans des séquences inactives pour une fonction précise, ont de plus grandes chances d’être impliqués dans des interactions avec des facteurs. En poursuivant avec l’exemple de la boucle E, nous avons cherché les groupes de cette boucle qui pourraient être impliqués dans des interactions avec des facteurs d'élongation. Une fois les groupes identifiés, on peut prédire par modélisation tridimensionnelle les séquences qui positionnent correctement ces groupes dans leurs structures tertiaires. Il existe quelques modèles pour adresser ce problème, telles que des descripteurs de molécules, des matrices d’adjacences de nucléotides et ceux basé sur la thermodynamique. Cependant, tous ces modèles utilisent une représentation trop simplifiée de la structure d’ARN, ce qui limite leur applicabilité. Nous avons appliqué notre modèle sur les structures tertiaires d’un ensemble de variants d’une séquence d’une instance du Sarcin-Ricin d’un ribosome bactérien. L’équipe de Wool à l’université de Chicago a déjà étudié cette instance expérimentalement en testant la viabilité de 12 variants. Ils ont déterminé 4 variants viables et 8 létaux. Nous avons utilisé cet ensemble de 12 séquences pour l’entraînement de notre modèle et nous avons déterminé un ensemble de propriétés essentielles à leur fonction biologique. Pour chaque variant de l’ensemble d’entraînement nous avons construit des modèles de structures tertiaires. Nous avons ensuite mesuré les charges partielles des atomes exposés sur la surface et encodé cette information dans des vecteurs. Nous avons utilisé l’analyse des composantes principales pour transformer les vecteurs en un ensemble de variables non corrélées, qu’on appelle les composantes principales. En utilisant la distance Euclidienne pondérée et l’algorithme du plus proche voisin, nous avons appliqué la technique du « Leave-One-Out Cross-Validation » pour choisir les meilleurs paramètres pour prédire l’activité d’une nouvelle séquence en la faisant correspondre à ces composantes principales. Finalement, nous avons confirmé le pouvoir prédictif du modèle à l’aide d’un nouvel ensemble de 8 variants dont la viabilité à été vérifiée expérimentalement dans notre laboratoire. En conclusion, les grammaires de graphes permettent de modéliser la relation entre la séquence et la structure d’un élément structural d’ARN, comme la boucle E contenant le motif Sarcin-Ricin du ribosome. Les applications vont de la correction à l’aide à l'alignement de séquences jusqu’au design de séquences ayant une structure prédéterminée. Nous avons également développé un modèle pour tenir compte des interactions spécifiques liées à une fonction biologique donnée, soit avec des facteurs environnants. Notre modèle est basé sur la conservation de l'exposition des groupes chimiques qui sont impliqués dans ces interactions. Ce modèle nous a permis de prédire l’activité biologique d’un ensemble de variants de la boucle E du ribosome qui se lie à des facteurs d'élongation.
Resumo:
Nous avons examiné la nature du lien, additif ou interactif, entre les capacités attentionnelles et les habiletés de motricité fine et leur influence sur les habiletés d’écriture ultérieures. Les mesures de l’échantillon (n=439) de l’étude montréalaise sur le préscolaire en milieu défavorisé (MLEPS) à la maternelle incluent des questionnaires aux enseignants, des évaluations sur la connaissance des nombres et du vocabulaire réceptif des élèves et caractéristiques familiales rapportées par les parents. En 3ème année, les mesures proviennent de questionnaires aux enseignants. Selon les résultats des régressions multiples de notre modèle, un élève qui avait de bonnes capacités d’attention ou de motricité fine à la maternelle, avait plus de chances d’avoir de bonnes habiletés d’écriture en 3ème année. L’interaction entre l’attention et la motricité fine était aussi significative, ce qui signifie que les capacités d’attention, avec l’influence des habiletés de motricité fine, prédisent davantage les habiletés d’écriture ultérieure. Il est pertinent de mesurer la réussite scolaire en écriture puisque les élèves à l’école peuvent investir de 31 à 60% de leur temps à réaliser des tâches motrices et 85% de celles-ci incluraient un crayon et du papier (McHale & Cermak, 1992). L’écriture serait aussi importante que les mathématiques et la lecture pour la réussite scolaire (Cutler & Graham, 2008). En identifiant les éléments clés de la réussite en écriture, nous pourrons mieux intervenir et soutenir les élèves, et ainsi, nous pourrions augmenter leurs chances de vivre des expériences positives à l’école, d’obtenir un diplôme et d’ intégrer le marché du travail.
Resumo:
L’introduction aux concepts unificateurs dans l’enseignement des mathématiques privilégie typiquement l’approche axiomatique. Il n’est pas surprenant de constater qu’une telle approche tend à une algorithmisation des tâches pour augmenter l’efficacité de leur résolution et favoriser la transparence du nouveau concept enseigné (Chevallard, 1991). Cette réponse classique fait néanmoins oublier le rôle unificateur du concept et n’encourage pas à l’utilisation de sa puissance. Afin d’améliorer l’apprentissage d’un concept unificateur, ce travail de thèse étudie la pertinence d’une séquence didactique dans la formation d’ingénieurs centrée sur un concept unificateur de l’algèbre linéaire: la transformation linéaire (TL). La notion d’unification et la question du sens de la linéarité sont abordées à travers l’acquisition de compétences en résolution de problèmes. La séquence des problèmes à résoudre a pour objet le processus de construction d’un concept abstrait (la TL) sur un domaine déjà mathématisé, avec l’intention de dégager l’aspect unificateur de la notion formelle (Astolfi y Drouin, 1992). À partir de résultats de travaux en didactique des sciences et des mathématiques (Dupin 1995; Sfard 1991), nous élaborons des situations didactiques sur la base d’éléments de modélisation, en cherchant à articuler deux façons de concevoir l’objet (« procédurale » et « structurale ») de façon à trouver une stratégie de résolution plus sûre, plus économique et réutilisable. En particulier, nous avons cherché à situer la notion dans différents domaines mathématiques où elle est applicable : arithmétique, géométrique, algébrique et analytique. La séquence vise à développer des liens entre différents cadres mathématiques, et entre différentes représentations de la TL dans les différents registres mathématiques, en s’inspirant notamment dans cette démarche du développement historique de la notion. De plus, la séquence didactique vise à maintenir un équilibre entre le côté applicable des tâches à la pratique professionnelle visée, et le côté théorique propice à la structuration des concepts. L’étude a été conduite avec des étudiants chiliens en formation au génie, dans le premier cours d’algèbre linéaire. Nous avons mené une analyse a priori détaillée afin de renforcer la robustesse de la séquence et de préparer à l’analyse des données. Par l’analyse des réponses au questionnaire d’entrée, des productions des équipes et des commentaires reçus en entrevus, nous avons pu identifier les compétences mathématiques et les niveaux d’explicitation (Caron, 2004) mis à contribution dans l’utilisation de la TL. Les résultats obtenus montrent l’émergence du rôle unificateur de la TL, même chez ceux dont les habitudes en résolution de problèmes mathématiques sont marquées par une orientation procédurale, tant dans l’apprentissage que dans l’enseignement. La séquence didactique a montré son efficacité pour la construction progressive chez les étudiants de la notion de transformation linéaire (TL), avec le sens et les propriétés qui lui sont propres : la TL apparaît ainsi comme un moyen économique de résoudre des problèmes extérieurs à l’algèbre linéaire, ce qui permet aux étudiants d’en abstraire les propriétés sous-jacentes. Par ailleurs, nous avons pu observer que certains concepts enseignés auparavant peuvent agir comme obstacles à l’unification visée. Cela peut ramener les étudiants à leur point de départ, et le rôle de la TL se résume dans ces conditions à révéler des connaissances partielles, plutôt qu’à guider la résolution.
Resumo:
La division cellulaire asymétrique (DCA) consiste en une division pendant laquelle des déterminants cellulaires sont distribués préférentiellement dans une des deux cellules filles. Par l’action de ces déterminants, la DCA générera donc deux cellules filles différentes. Ainsi, la DCA est importante pour générer la diversité cellulaire et pour maintenir l’homéostasie de certaines cellules souches. Pour induire une répartition asymétrique des déterminants cellulaires, le positionnement du fuseau mitotique doit être très bien contrôlé. Fréquemment ceci génère deux cellules filles de tailles différentes, car le fuseau mitotique n’est pas centré pendant la mitose, ce qui induit un positionnement asymétrique du sillon de clivage. Bien qu’un complexe impliquant des GTPases hétérotrimériques et des protéines liant les microtubules au cortex ait été impliqué directement dans le positionnement du fuseau mitotique, le mécanisme exact induisant le positionnement asymétrique du fuseau durant la DCA n'est pas encore compris. Des études récentes suggèrent qu’une régulation asymétrique du cytosquelette d’actine pourrait être responsable de ce positionnement asymétrique du faisceau mitotique. Donc, nous émettons l'hypothèse que des contractions asymétriques d’actine pendant la division cellulaire pourraient déplacer le fuseau mitotique et le sillon de clivage pour créer une asymétrie cellulaire. Nos résultats préliminaires ont démontré que le blebbing cortical, qui est une indication de tension corticale et de contraction, se produit préférentiellement dans la moitié antérieure de cellule précurseur d’organes sensoriels (SOP) pendant le stage de télophase. Nos données soutiennent l'idée que les petites GTPases de la famille Rho pourraient être impliqués dans la régulation du fuseau mitotique et ainsi contrôler la DCA des SOP. Les paramètres expérimentaux développés pour cette thèse, pour étudier la régulation de l’orientation et le positionnement du fuseau mitotique, ouvrirons de nouvelles avenues pour contrôler ce processus, ce qui pourrait être utile pour freiner la progression de cellules cancéreuses. Les résultats préliminaires de ce projet proposeront une manière dont les petites GTPases de la famille Rho peuvent être impliqués dans le contrôle de la division cellulaire asymétrique in vivo dans les SOP. Les modèles théoriques qui sont expliqués dans cette étude pourront servir à améliorer les méthodes quantitatives de biologie cellulaire de la DCA.
Resumo:
Cette thèse propose une étude des raisons théoriques et empiriques impliquées dans l’élaboration d’une nouvelle astronomie par Johannes Kepler (1571-1630) tel qu’exposé dans son ouvrage Astronomia nova (1619). Cette thèse se déroule en deux temps : la première partie touche de près aux textes mêmes de Kepler, tandis que la seconde partie utilise la notion d’abduction pour interpréter logiquement ce processus de découverte et de justification. La première partie débute avec une analyse du projet de Kepler et de ses fondements philosophiques, métaphysiques et théologiques tels qu’exposés dans son premier ouvrage, le Mysterium cosmographicum. Ensuite, une étude des propos explicites de Kepler quant à la nature et au statut des hypothèses astronomiques est proposée via une étude de son traité intitulé Apologia pro Tychone contra Ursum. Une étude attentive des sources philosophiques, mathématiques et scientifiques ayant influencé Kepler pour sa nouvelle astronomie est ensuite proposée avant l’analyse détaillée des arguments scientifiques et des différentes étapes démonstratives qui sont présentés dans l’Astronomia nova. La deuxième partie vise à éclairer le débat sur l’abduction en se penchant d’abord sur trois approches traditionnelles (Platon, Aristote et Épicure) quant à la connaissance scientifique des phénomènes célestes permettant d’obtenir un discours vraisemblable ou une multiplicité d’explications concordantes avec les phénomènes. Enfin, quatre interprétations contemporaines et abductives du processus de découverte suivi par Kepler dans l’Astronomia nova sont présentées, reformulées et critiquées afin de proposer une nouvelle interprétation abductive laissant une plus grande place au projet même de construire une astronomie nouvelle fondée sur les causes. Cela nous donne des outils pour mieux saisir le sens et la portée de ce qui peut être désigné comme étant la « révolution képlérienne », soit le passage d’un système géocentrique à un système non pas simplement héliocentrique mais héliodynamique, ayant permis aux astronomes de s’affranchir du paradigme des orbites circulaires.
Resumo:
Dans cette thèse, je propose une lecture renouvelée de l’itinéraire philosophique d’Hilary Putnam concernant la problématique du réalisme. Mon propos consiste essentiellement à défendre l’idée selon laquelle il y aurait beaucoup plus de continuité, voir une certaine permanence, dans la manière dont Putnam a envisagé la question du réalisme tout au long de sa carrière. Pour arriver à une telle interprétation de son oeuvre, j’ai essentiellement suivi deux filons. D’abord, dans un ouvrage du début des années 2000, Ethics without Ontology (2004), Putnam établit un parallèle entre sa conception de l’objectivité en philosophie des mathématiques et en éthique. Le deuxième filon vient d’une remarque qu’il fait, dans l’introduction du premier volume de ses Philosophical Papers (1975), affirmant que la forme de réalisme qu’il présupposait dans ses travaux des années 1960-1970 était la même que celle qu’il défendait en philosophie des mathématiques et qu’il souhaitait défendre ultérieurement en éthique. En suivant le premier filon, il est possible de mieux cerner la conception générale que se fait Putnam de l’objectivité, mais pour comprendre en quel sens une telle conception de l’objectivité n’est pas propre aux mathématiques, mais constitue en réalité une conception générale de l’objectivité, il faut suivre le second filon, selon lequel Putnam aurait endossé, durant les années 1960-1970, le même type de réalisme en philosophie des sciences et en éthique qu’en philosophie des mathématiques. Suivant cette voie, on se rend compte qu’il existe une similarité structurelle très forte entre le premier réalisme de Putnam et son réalisme interne. Après avoir établi la parenté entre le premier et le second réalisme de Putnam, je montre, en m’inspirant de commentaires du philosophe ainsi qu’en comparant le discours du réalisme interne au discours de son réalisme actuel (le réalisme naturel du commun des mortels), que, contrairement à l’interprétation répandue, il existe une grande unité au sein de sa conception du réalisme depuis les années 1960 à nos jours. Je termine la thèse en montrant comment mon interprétation renouvelée de l’itinéraire philosophique de Putnam permet de jeter un certain éclairage sur la forme de réalisme que Putnam souhaite défendre en éthique.
Resumo:
La présente recherche s’inscrit dans la mouvance actuelle orientée vers l’approche par compétences (APC) en Afrique de l’ouest. Née des exigences économiques et professionnelles à l’échelle mondiale, l’APC a connu son essor dans les années 1990. Par conséquent, le mode de recrutement sur le marché de l’emploi est basé sur les compétences des postulants. Il était donc légitime que l’école intègre cette nouvelle donne afin que les finissants puissent remplir les exigences socioprofessionnelles en temps opportun. De Ketele (2001, dans Hirtt 2009, p.6) est de cet avis quand il soutient que : « c’est en effet le monde socio-économique qui a déterminé la notion de compétence parce que les adultes que l’école a formés n’étaient pas suffisamment aptes à entrer dans la vie professionnelle ». L’APC rompt donc le caractère insulaire de l’école en faisant intervenir de nouveaux enjeux au niveau de l’enseignement, de l’apprentissage, des pratiques évaluatives des enseignants et des encadrements légaux dans les pays qui l’ont adoptée. Pour des contraintes socioéconomiques, le Burkina Faso a résolument opté de mettre en oeuvre une approche éclectique qui emprunte à l’APC certaines bases didactiques et pédagogiques. Cette option vise à doter le système éducatif burkinabé de mécanismes efficaces et efficients pour un enseignement de qualité tout en assurant la réussite et l’intégration socioprofessionnelle du plus grand nombre des sortants de l’école. Notre étude se situe dans cette nouvelle donne et vise l’amélioration du processus d’évaluation des élèves en fin du cycle primaire. Pour ce faire, nous avons conçu et validé un guide d’élaboration d’épreuves de mathématique dans une visée certificative pour ledit niveau afin de soutenir prioritairement les agents chargés de l’élaboration des épreuves officielles. En nous basant sur le paradigme de l’apprentissage, le constructivisme et la démarche méthodologique de Loiselle et Harvey (2009), nous avons examiné, dans un premier temps, les épreuves nationales développées au Québec et au Burkina Faso. Cette analyse a permis d’en relever les caractéristiques et d’identifier les éléments devant être retenus dans le cahier des charges au regard du profil des sortants défini dans le programme burkinabé. Dans un deuxième temps, un cahier des charges (version initiale.) a été développé en quatre sections afin de présenter les principes qui le sous-tendent : (1) l’élaboration des situations d’évaluation, (2) l’élaboration des outils d’administration de l’épreuve, (3) l’élaboration des outils de correction et de consignation et (4) les grilles d’évaluation. Dans un troisième temps, un groupe d’experts canadiens et deux groupes d’experts burkinabé se sont exprimés sur le degré de pertinence et de clarté de chaque section à partir de l’une ou l’autre version du Guide. Leurs observations et commentaires nous ont permis de le bonifier. D’une manière générale, les pourcentages des degrés d’accord pour la pertinence et la clarté des contenus développés au niveau de chaque section sont satisfaisants. Cependant, les recommandations des experts ont suscité des ajustements sur : 1) le contenu du guide soit de conserver une seule épreuve en mathématiques et de retirer les énoncés concernant les volets lecture et écriture en français; 2) le contenu de certains tableaux : à compléter ou à fusionner et; 3) la qualité de la langue : certaines phrases ont été reformulées, les erreurs de numérotation de certaines sous-sections ont été corrigées. La version finale serait celle qui est adaptée au contexte burkinabé. Ce guide est destiné aux structures chargées de l’évaluation des apprentissages et des acquis des élèves au Burkina Faso. Il constitue aussi un référentiel pour la formation initiale et continue des enseignants et des encadreurs. Bien que la recherche ait rempli des conditions méthodologiques et éthiques, la mise en oeuvre de ses résultats se limite au contexte burkinabé. Cependant, ils pourront soutenir ou orienter d’autres recherches qui s’inscrivent dans la même dynamique.
Resumo:
Mode of access: Internet.
Resumo:
From: Mémoires de la classe des sciences mathématiques et physiques de l'Institut de France. 1807 [1808]. 8: 307-373.
Resumo:
Mémoires de la Classe des sciences mathématiques et physiques de l'Institut de France, 1798-99, ii, 312-325.
Resumo:
Title varies:1910-1917, Bulletin international de l'Académie des sciences de Cracovie. Classe des sciences mathématiques et naturelles. Série B: Sciences naturelles.
Resumo:
Cette étude fut entreprise afin de répondre à un problème réel rencontré par les enseignants des disciplines agronomiques, en formation continue. En effet, alors que le nouveau concept de fertilisation intégrée (PGFI) faisait l'objet d'une formation destinée à des conseillers agricoles, des difficultés d'ordre pédagogique (acquisition de nouvelles connaissances et compréhensions de la résolution de problèmes), d'assiduité et d'intérêt sont apparues. Il a alors semblé important de rechercher une méthode d'enseignement capable de répondre aux besoins des adultes professionnels qui doivent être à la fine pointe des connaissances dans leur domaine d'activité. Ainsi, après avoir cerné les différents éléments de la problématique et décrit le cadre conceptuel de la recherche, la méthode pédagogique appelée Approche Par Problèmes (APP) fit l'objet de l'expérimentation. Les sessions de formation se sont adressées à des conseillers agricoles et à des technologistes de trois niveaux de compétence en fertilisation intégrée, soit des experts, des intermédiaires et des novices. Trois types d'instruments de recueil de données, à savoir un questionnaire d'évaluation du cours, des tests de connaissances et des commentaires généraux des participants, ont permis l'évaluation qualitative et quantitative des résultats.--Résumé abrégé par UMI.
Resumo:
Dans le domaine des centres d’appels, l’affectation d’agents au service à la clientèle efficaces et satisfaits représente une activité cruciale pour toute direction dédiée aux ressources humaines de ces unités d’affaires. Or, pour parvenir à prendre de bonnes décisions d’embauche et de rejet, des instruments de mesure et d’évaluation des compétences sont souvent mis à contribution. À cet effet, les tests de jugement situationnel (TJS) sont de plus en plus utilisés pour la sélection du personnel. L’objet de cette thèse est donc de vérifier l’efficacité relative des différentes méthodes d’élaboration des grilles de correction des TJS. En effet, jusqu’à présent, trois méthodes ont été privilégiées par les concepteurs de tests (Weekley, Ployhart, & Holtz, 2006) : (1) l’approche rationnelle ou théorique (2) l’approche empirique et (3) le recours à des experts. La possibilité qu’une combinaison de ces différentes approches puisse conduire à de meilleurs résultats est également explorée. Pour y parvenir, le résultat total obtenu à un TJS a été mis en lien avec une évaluation du rendement global effectuée par un supérieur immédiat en y appliquant huit grilles de correction différentes. Au total, un échantillon de 312 employés œuvrant dans des emplois de téléopérateurs au sein d’une grande institution financière québécoise ont participé à cette recherche. Dans l’ensemble, les résultats indiquent qu’une approche empirique permet généralement d’obtenir de meilleures statistiques descriptives en termes de distribution et de dispersion des scores pour un processus de sélection. Cependant, des analyses corrélationnelles indiquent qu’une approche multiple ou méthode hybride, basée sur une intégration des informations fournies par différentes sources d’informations (empirique, théorique et basé sur les experts) pour l’élaboration d’une grille de correction d’un TJS, permet de mieux prédire le rendement des employés (r=0,247**) comparativement à l’utilisation de la théorie pour définir les attentes (r=0,162**), le recours à des experts de contenu œuvrant dans le domaine de pratique (r=0,164**) ou l’utilisation d’une approche empirique (r=0,154*). Mots clés : Test de jugement situationnel, grilles de correction, validité critériée, centre d’appels.
Resumo:
Methicillin resistant Staphylococcus aureus (MRSA) bacteria have emerged in the early 1980's in numerous health care institutions around the world. The main transmission mechanism within hospitals and healthcare facilities is through the hands of health care workers. Resistant to several antibiotics, the MRSA is one of the most feared pathogens in the hospital setting since it is very difficult to eradicate with the standard treatments. There are still a limited number of anti-MRSA antibiotics but the first cases of resistance to these compounds have already been reported and their frequency is likely to increase in the coming years. Every year, the MRSA infections result in major human and financial costs, due to the high associated mortality and expenses related to the required care. Measures towards a faster detection of resistant bacteria and establishment of appropriate antibiotic treatment parameters are fundamental. Also as part as infection prevention, diminution of bacteria present on the commonly touched surfaces could also limit the spread and selection of antibiotic resistant bacteria. During my thesis, projects were developed around MRSA and antibiotic resistance investigation using innovative technologies. The thesis was subdivided in three main parts with the use of atomic force microscopy AFM for antibiotic resistance detection in part 1, the importance of the bacterial inoculum size in the selection of antibiotic resistance in part 2 and the testing of antimicrobial surfaces creating by sputtering copper onto polyester in part 3. In part 1 the AFM was used two different ways, first for the measurement of stiffness (elasticity) of bacteria and second as a nanosensor for antibiotic susceptibility testing. The stiffness of MRSA with different susceptibility profiles to vancomycin was investigated using the stiffness tomography mode of the AFM and results have demonstrated and increased stiffness in the vancomycin resistant strains that also paralleled with increased thickness of the bacterial cell wall. Parts of the AFM were also used to build a new antibiotic susceptibility-testing device. This nano sensor was able to measure vibrations emitted from living bacteria that ceased definitively upon antibiotic exposure to which they were susceptible but restarted after antibiotic removal to which they were resistant, allowing in a matter of minute the assessment of antibiotic susceptibility determination. In part 2 the inoculum effect (IE) of vancomycin, daptomycin and linezolid and its importance in antibiotic resistance selection was investigated with MRSA during a 15 days of cycling experiment. Results indicated that a high bacterial inoculum and a prolonged antibiotic exposure were two key factors in the in vitro antibiotic resistance selection in MRSA and should be taken into consideration when choosing the drug treatment. Finally in part 3 bactericidal textile surfaces were investigated against MRSA. Polyesters coated after 160 seconds of copper sputtering have demonstrated a high bactericidal activity reducing the bacterial load of at least 3 logio after one hour of contact. -- Au cours des dernières décennies, des bactéries multirésistantes aux antibiotiques (BMR) ont émergé dans les hôpitaux du monde entier. Depuis lors, le nombre de BMR et la prévalence des infections liées aux soins (IAS) continuent de croître et sont associés à une augmentation des taux de morbidité et de mortalité ainsi qu'à des coûts élevés. De plus, le nombre de résistance à différentes classes d'antibiotiques a également augmenté parmi les BMR, limitant ainsi les options thérapeutiques disponibles lorsqu'elles ont liées a des infections. Des mesures visant une détection plus rapide des bactéries résistantes ainsi que l'établissement des paramètres de traitement antibiotiques adéquats sont primordiales lors d'infections déjà présentes. Dans une optique de prévention, la diminution des bactéries présentes sur les surfaces communément touchées pourrait aussi freiner la dissémination et l'évolution des bactéries résistantes. Durant ma thèse, différents projets incluant des nouvelles technologies et évoluant autour de la résistance antibiotique ont été traités. Des nouvelles technologies telles que le microscope à force atomique (AFM) et la pulvérisation cathodique de cuivre (PCC) ont été utilisées, et le Staphylococcus aureus résistant à la méticilline (SARM) a été la principale BMR étudiée. Deux grandes lignes de recherche ont été développées; la première visant à détecter la résistance antibiotique plus rapidement avec l'AFM et la seconde visant à prévenir la dissémination des BMR avec des surfaces crées grâce à la PCC. L'AFM a tout d'abord été utilisé en tant que microscope à sonde locale afin d'investiguer la résistance à la vancomycine chez les SARMs. Les résultats ont démontré que la rigidité de la paroi augmentait avec la résistance à la vancomycine et que celle-ci corrélait aussi avec une augmentation de l'épaisseur des parois, vérifiée grâce à la microscopie électronique. Des parties d'un AFM ont été ensuite utilisées afin de créer un nouveau dispositif de test de sensibilité aux antibiotiques, un nanocapteur. Ce nanocapteur mesure des vibrations produites par les bactéries vivantes. Après l'ajout d'antibiotique, les vibrations cessent définitivement chez les bactéries sensibles à l'antibiotique. En revanche pour les bactéries résistantes, les vibrations reprennent après le retrait de l'antibiotique dans le milieu permettant ainsi, en l'espace de minutes de détecter la sensibilité de la bactérie à un antibiotique. La PCC a été utilisée afin de créer des surfaces bactéricides pour la prévention de la viabilité des BMR sur des surfaces inertes. Des polyesters finement recouverts de cuivre (Cu), connu pour ses propriétés bactéricides, ont été produits et testés contre des SARMs. Une méthode de détection de viabilité des bactéries sur ces surfaces a été mise au point, et les polyesters obtenus après 160 secondes de pulvérisation au Cu ont démontré une excellente activité bactéricide, diminuant la charge bactérienne d'au moins 3 logio après une heure de contact. En conclusion, l'utilisation de nouvelles technologies nous a permis d'évoluer vers de méthodes de détection de la résistance antibiotique plus rapides ainsi que vers le développement d'un nouveau type de surface bactéricide, dans le but d'améliorer le diagnostic et la gestion des BMR.