13 resultados para Human-machine systems
em Université de Montréal, Canada
Resumo:
L’intérêt marqué porté actuellement aux recherches NBIC (nano-bio-info-cognitivo technologies) visant l’optimisation des capacités humaines augure d’un profond bouleversement dans nos représentations du corps humain et du rapport humain-machine. Tour à tour, des travaux issus des domaines du génie génétique, de la pharmacologie, des biotechnologies ou des nanotechnologies nous promettent un corps moins sujet à la maladie, mieux « adapté » et surtout plus malléable. Cette construction en laboratoire d’un corps amélioré fait amplement écho aux préoccupations contemporaines concernant la santé parfaite, le processus de vieillissement, l’inaptitude, l’apparence, la performance, etc. En vue d’analyser les transformations qu’induisent ces recherches sur les représentations du corps, nous avons construit un modèle théorique appuyé, d’une part, sur des travaux en sociologie du corps et, d’autre part, sur des travaux en épistémologie des sciences. Puis, en scrutant différents textes de vulgarisation scientifique produits par des chercheurs transhumanistes – militant ouvertement en faveur d’une optimisation radicale des capacités humaines par le biais des technosciences –, il a été observé que les représentations du corps s’organisent autour de trois principaux noyaux. Le corps humain est présenté, dans ce discours, comme étant à la fois informationnel, technologiquement perfectible et obsolète. Cette représentation tripartite du corps permet aux transhumanistes d’ériger leur modèle d’action (i.e. amélioration des capacités physiques, intellectuelles, sensitives, émotionnelles, etc.) à titre de nécessité anthropologique. À leurs yeux, l’amélioration des conditions humaines doit passer par une mutation contrôlée de la biologie (i.e. une hybridation avec la machine) du fait que le corps serait « inadapté » au monde contemporain. Ainsi, les promesses NBIC, une fois récupérées par les chercheurs transhumanistes, se voient exacerbées et prennent une tonalité péremptoire. Ceci contribue vivement à la promotion du posthumain ou du cyborg, soit d’un individu transformé dans l’optique d’être plus robuste et intelligent, de moduler sa sensitivité et ses états émotifs et de vivre plus longtemps, voire indéfiniment. Enfin, situé à mi-chemin entre la science et la science-fiction, ce projet est qualifié de techno-prophétie en ce qu’il produit d’innombrables prévisions basées sur les avancées technoscientifiques actuelles et potentielles. Afin d’accroître l’acceptabilité sociale de leur modèle d’action, les transhumanistes ne font pas uniquement appel à la (potentielle) faisabilité technique; ils s’appuient également sur des valeurs socialement partagées, telles que l’autodétermination, la perfectibilité humaine, l’égalité, la liberté ou la dignité. Néanmoins, la lecture qu’ils en font est parfois surprenante et rompt très souvent avec les conceptions issues de la modernité. À leur avis, le perfectionnement humain doit s’opérer par le biais des technosciences (non des institutions sociales), sur le corps même des individus (non sur l’environnement) et en vertu de leur « droit » à l’autodétermination compris comme un droit individuel d’optimiser ses capacités. De même, les technosciences doivent, disent-ils, être démocratisées afin d’en garantir l’accessibilité, de réduire les inégalités biologiques et de permettre à chacun de renforcer son sentiment d’identité et d’accomplissement. L’analyse du discours transhumaniste nous a donc permis d’observer leurs représentations du corps de même que la résonance culturelle du projet qu’ils proposent.
Resumo:
Cette recherche se propose d’étudier, d’un point de vue de la problématique et de la méthodologie relative à l’ergonomie humain-machine, la manière dont les e-portfolios de présentation peuvent s’insérer dans le milieu universitaire. Un e-portfolio est généralement défini comme étant une collection d’informations qui illustre la scolarité, l’apprentissage ou la vie professionnelle d’une personne à travers une sélection de résultats marquants au cours de formations ou d’études, mais aussi qui regroupe les réflexions personnelles de l’apprenant sur son apprentissage, son parcours, la planification d’une carrière ou la construction d’un CV. Tout au long de cette étude nous avons chercher à comprendre à travers une analyse ciblée des besoins comment l’apprenant peut mettre en avant une démarche réflexive tout au long de son parcours. Il s’agit aussi de comprendre comment les e-portfolios de présentation pourraient se démarquer et offrir un véritable outil de placement aux étudiants comme aux recruteurs. Pour tenter de répondre à ces questions, nous avons procédé à des entretiens avec les recruteurs et les étudiants en vue de comprendre leurs attentes. L’ensemble des informations recueillies on permis de créer une maquette fonctionnelle sur laquelle ils ont pu interagir. Les éléments d’analyse issus de ces rencontres et des tests d’utilisabilité de l’outil nous ont permis de mettre sur pied une maquette finale.
Resumo:
Le système de différenciation entre le « soi » et le « non-soi » des vertébrés permet la détection et le rejet de pathogènes et de cellules allogéniques. Il requiert la surveillance de petits peptides présentés à la surface cellulaire par les molécules du complexe majeur d’histocompatibilité de classe I (CMH I). Les molécules du CMH I sont des hétérodimères composés par une chaîne lourde encodée par des gènes du CMH et une chaîne légère encodée par le gène β2-microglobuline. L’ensemble des peptides est appelé l’immunopeptidome du CMH I. Nous avons utilisé des approches en biologie de systèmes pour définir la composition et l’origine cellulaire de l’immunopeptidome du CMH I présenté par des cellules B lymphoblastoïdes dérivés de deux pairs de fratries avec un CMH I identique. Nous avons découvert que l’immunopeptidome du CMH I est spécifique à l’individu et au type cellulaire, qu’il dérive préférentiellement de transcrits abondants, est enrichi en transcrits possédant d’éléments de reconnaissance par les petits ARNs, mais qu’il ne montre aucun biais ni vers les régions génétiques invariables ni vers les régions polymorphiques. Nous avons également développé une nouvelle méthode qui combine la spectrométrie de masse, le séquençage de nouvelle génération et la bioinformatique pour l’identification à grand échelle de peptides du CMH I, dont ceux résultants de polymorphismes nucléotidiques simples non-synonymes (PNS-ns), appelés antigènes mineurs d’histocompatibilité (AMHs), qui sont les cibles de réponses allo-immunitaires. La comparaison de l’origine génomique de l’immunopeptidome de soeurs avec un CMH I identique a révélé que 0,5% des PNS-ns étaient représentés dans l’immunopeptidome et que 0,3% des peptides du CMH I seraient immunogéniques envers une des deux soeurs. En résumé, nous avons découvert des nouveaux facteurs qui modèlent l’immunopeptidome du CMH I et nous présentons une nouvelle stratégie pour l’indentification de ces peptides, laquelle pourrait accélérer énormément le développement d’immunothérapies ciblant les AMHs.
Resumo:
We introduce a procedure to infer the repeated-game strategies that generate actions in experimental choice data. We apply the technique to set of experiments where human subjects play a repeated Prisoner's Dilemma. The technique suggests that two types of strategies underly the data.
Polysaccharide-based Polyion Complex Micelles as New Delivery Systems for Hydrophilic Cationic Drugs
Resumo:
Les micelles polyioniques ont émergé comme des systèmes prometteurs de relargage de médicaments hydrophiles ioniques. Le but de cette étude était le développement des micelles polyioniques à base de dextrane pour la relargage de médicaments hydrophiles cationiques utilisant une nouvelle famille de copolymères bloc carboxymethyldextran-poly(éthylène glycol) (CMD-PEG). Quatre copolymères CMD-PEG ont été préparés dont deux copolymères identiques en termes de longueurs des blocs de CMD et de PEG mais différent en termes de densité de charges du bloc CMD; et deux autres copolymères dans lesquels les blocs chargés sont les mêmes mais dont les blocs de PEG sont différents. Les propriétés d’encapsulation des micelles CMD-PEG ont été évaluées avec différentes molécules cationiques: le diminazène (DIM), un médicament cationique modèle, le chlorhydrate de minocycline (MH), un analogue semi-synthétique de la tétracycline avec des propriétés neuro-protectives prometteuses et différents antibiotiques aminoglycosidiques. La cytotoxicité des copolymères CMD-PEG a été évaluée sur différentes lignées cellulaires en utilisant le test MTT et le test du Bleu Alamar. La formation de micelles des copolymères de CMD-PEG a été caractérisée par différentes techniques telles que la spectroscopie RMN 1H, la diffusion de la lumière dynamique (DLS) et la titration calorimétrique isotherme (ITC). Le taux de relargage des médicaments et l’activité pharmacologique des micelles contenant des médicaments ont aussi été évalués. Les copolymères CMD-PEG n'ont induit aucune cytotoxicité dans les hépatocytes humains et dans les cellules microgliales murines (N9) après 24 h incubation pour des concentrations allant jusqu’à 15 mg/mL. Les interactions électrostatiques entre les copolymères de CMD-PEG et les différentes drogues cationiques ont amorcé la formation de micelles polyioniques avec un coeur composé du complexe CMD-médicaments cationiques et une couronne composée de PEG. Les propriétés des micelles DIM/CMDPEG ont été fortement dépendantes du degré de carboxyméthylation du bloc CMD. Les micelles de CMD-PEG de degré de carboxyméthylation du bloc CMD ≥ 60 %, ont incorporé jusqu'à 64 % en poids de DIM et ont résisté à la désintégration induite par les sels et ceci jusqu'à 400 mM NaCl. Par contre, les micelles de CMD-PEG de degré de carboxyméthylation ~ 30% avaient une plus faible teneur en médicament (~ 40 % en poids de DIM) et se désagrégeaient à des concentrations en sel inférieures (∼ 100 mM NaCl). Le copolymère de CMD-PEG qui a montré les propriétés micellaires les plus satisfaisantes a été sélectionné comme système de livraison potentiel de chlorhydrate de minocycline (MH) et d’antibiotiques aminoglycosidiques. Les micelles CMD-PEG encapsulantes de MH ou d’aminoglycosides ont une petite taille (< 200 nm de diamètre), une forte capacité de chargement (≥ 50% en poids de médicaments) et une plus longue période de relargage de médicament. Ces micelles furent stables en solution aqueuse pendant un mois; après lyophilisation et en présence d'albumine sérique bovine. De plus, les micelles ont protégé MH contre sa dégradation en solutions aqueuses. Les micelles encapsulant les drogues ont maintenu les activités pharmacologiques de ces dernières. En outre, les micelles MH réduisent l’inflammation induite par les lipopolysaccharides dans les cellules microgliales murines (N9). Les micelles aminoglycosides ont été quant à elles capable de tuer une culture bactérienne test. Toutefois les micelles aminoglycosides/CMDPEG furent instables dans les conditions physiologiques. Les propriétés des micelles ont été considérablement améliorées par des modifications hydrophobiques de CMD-PEG. Ainsi, les micelles aminoglycosides/dodecyl-CMD-PEG ont montré une taille plus petite et une meilleure stabilité aux conditions physiologiques. Les résultats obtenus dans le cadre de cette étude montrent que CMD-PEG copolymères sont des systèmes prometteurs de relargage de médicaments cationiques.
Resumo:
Lors de ces dix dernières années, le coût de la maintenance des systèmes orientés objets s'est accru jusqu' à compter pour plus de 70% du coût total des systèmes. Cette situation est due à plusieurs facteurs, parmi lesquels les plus importants sont: l'imprécision des spécifications des utilisateurs, l'environnement d'exécution changeant rapidement et la mauvaise qualité interne des systèmes. Parmi tous ces facteurs, le seul sur lequel nous ayons un réel contrôle est la qualité interne des systèmes. De nombreux modèles de qualité ont été proposés dans la littérature pour contribuer à contrôler la qualité. Cependant, la plupart de ces modèles utilisent des métriques de classes (nombre de méthodes d'une classe par exemple) ou des métriques de relations entre classes (couplage entre deux classes par exemple) pour mesurer les attributs internes des systèmes. Pourtant, la qualité des systèmes par objets ne dépend pas uniquement de la structure de leurs classes et que mesurent les métriques, mais aussi de la façon dont celles-ci sont organisées, c'est-à-dire de leur conception, qui se manifeste généralement à travers les patrons de conception et les anti-patrons. Dans cette thèse nous proposons la méthode DEQUALITE, qui permet de construire systématiquement des modèles de qualité prenant en compte non seulement les attributs internes des systèmes (grâce aux métriques), mais aussi leur conception (grâce aux patrons de conception et anti-patrons). Cette méthode utilise une approche par apprentissage basée sur les réseaux bayésiens et s'appuie sur les résultats d'une série d'expériences portant sur l'évaluation de l'impact des patrons de conception et des anti-patrons sur la qualité des systèmes. Ces expériences réalisées sur 9 grands systèmes libres orientés objet nous permettent de formuler les conclusions suivantes: • Contre l'intuition, les patrons de conception n'améliorent pas toujours la qualité des systèmes; les implantations très couplées de patrons de conception par exemple affectent la structure des classes et ont un impact négatif sur leur propension aux changements et aux fautes. • Les classes participantes dans des anti-atrons sont beaucoup plus susceptibles de changer et d'être impliquées dans des corrections de fautes que les autres classes d'un système. • Un pourcentage non négligeable de classes sont impliquées simultanément dans des patrons de conception et dans des anti-patrons. Les patrons de conception ont un effet positif en ce sens qu'ils atténuent les anti-patrons. Nous appliquons et validons notre méthode sur trois systèmes libres orientés objet afin de démontrer l'apport de la conception des systèmes dans l'évaluation de la qualité.
Resumo:
Dans ce travail, nous explorons la faisabilité de doter les machines de la capacité de prédire, dans un contexte d'interaction homme-machine (IHM), l'émotion d'un utilisateur, ainsi que son intensité, de manière instantanée pour une grande variété de situations. Plus spécifiquement, une application a été développée, appelée machine émotionnelle, capable de «comprendre» la signification d'une situation en se basant sur le modèle théorique d'évaluation de l'émotion Ortony, Clore et Collins (OCC). Cette machine est apte, également, à prédire les réactions émotionnelles des utilisateurs, en combinant des versions améliorées des k plus proches voisins et des réseaux de neurones. Une procédure empirique a été réalisée pour l'acquisition des données. Ces dernières ont fourni une connaissance consistante aux algorithmes d'apprentissage choisis et ont permis de tester la performance de la machine. Les résultats obtenus montrent que la machine émotionnelle proposée est capable de produire de bonnes prédictions. Une telle réalisation pourrait encourager son utilisation future dans des domaines exploitant la reconnaissance automatique de l'émotion.
Resumo:
La thèse examine les liens entre la vision pluraliste de la science et l’éthique de la médecine tibétaine et les nouvelles pratiques en médecine occidentale, soit la longévité et la recherche sur la génétique amélioratrice. Elle cherche à cerner l’apport que la médecine tibétaine peut apporter aux recherches occidentales sur la longévité et la génétique humaine amélioratrice. Elle traite donc d’un enjeu social clé et du débat qui s’y rattache. La découverte et la description sont centrales à la méthodologie et informent l’analyse. Nous avons examiné dans un premier temps, les travaux de recherche sur la longévité reliée à la génétique amélioratrice (mémoire et muscles). Nous nous sommes penchés également sur les fondements de la médecine tibétaine en tant que système intégré. Pour ce faire, nous avons traité des notions telles que la santé, l’identité, la perfection et l’immortalité. Notre cadre conceptuel repose sur la théorie bouddhiste de l’interdépendance qui se caractérise par la formulation de catégories qui ensuite sont synthétisées dans l’essence; les deux niveaux d’interprétation de la théorie sont décrits en détail avant de passer à une comparaison avec la notion de complexité occidentale. La médecine tibétaine de fait présente un système où l’éthique et la science sont intégrées et se prête bien à une comparaison avec la vision pluraliste de la science à partir d’une perspective éthique/bioéthique. Les commentaires recueillis auprès des experts nous ont permis de cerner comment la science, l’éthique et l’amélioration de la longévité sont définies au sein des deux paradigmes de l’Est et de l’Ouest. Nos résultats montrent six points qui se dégagent au terme de cette recherche permettent de jeter un pont sur la vision pluraliste de ces paradigmes. Ceux-ci transcendent les points de vue doctrinaux individuels de religions ainsi que du monde scientifique occidental. Plus que tout, ils laissent entrevoir un cadre de références novatrices qui contribuera à la prise de décision à l’égard de questionnements bioéthiques.
Resumo:
«Construire hors limite: collisions fantastiques entre corps et machines dans la littérature fin-de-siècle française et anglaise» explore un ensemble de textes qui ont surgi à la fin du dix-neuvième siècle en réponse et en réaction à la fulgurante évolution de l’environnement scientifique et technologique, et qui considèrent la relation entre l’homme et la machine en fantasmant sur la zone grise où ils s’intersectent. Les principaux textes étudiés comprennent L’Ève future de Villiers de l’Isle-Adam, Le Surmâle d’Alfred Jarry, Trilby de George Du Maurier, Le Château des Carpathes de Jules Verne, ainsi qu’une sélection de contes dont nous pouvons qualifier de «contes à appareils», notamment «La Machine à parler» de Marcel Schwob. Utilisant la théorie des systèmes comme base méthodologique, cette dissertation cherche à réinterpréter les textes de la fin du dix-neuvième siècle qui naviguent les limites de l’humain et du mécanique et les surfaces sensibles où ils se touchent et interagissent en les réinscrivant dans un projet plus vaste de construction d’identité qui défie le temps chronologique et les échelles mathématiques. Le lien entre la théorie des systèmes et l’architecture – comme méthode d’organisation d’espace blanc en espace habitable – est exploré dans le but de comprendre la manière dont nous façonnons et interprétons le néant à l’origine de l’identité individuelle, et par association collective, en pratiquant littéralement la schématisation et la construction du corps. Des auteurs tels Villiers et Jarry imaginent la construction du corps comme une entreprise scientifique nécessairement fondée et réalisée avec les matériaux et les technologies disponibles, pour ensuite démanteler cette proposition en condamnant le corps technologique à la destruction. La construction d’une identité amplifiée par la technologie prend donc des proportions prométhéennes perpétuellement redessinées dans des actes cycliques de rasage (destruction) et d’érection (édification), et reflétées dans l’écriture palimpsestique du texte. L’intégrité du corps organique étant mis en question, le noyau même de ce que signifie l’être (dans son sens de verbe infinitif) humain pourrait bien s’avérer, si l’on considère la correspondance entre perte de voix et état pathologique dans les textes de Du Maurier, Verne et Schwob, être une structure des plus précaires, distinctement hors sens (unsound).
Resumo:
De plus en plus de recherches sur les Interactions Humain-Machine (IHM) tentent d’effectuer des analyses fines de l’interaction afin de faire ressortir ce qui influence les comportements des utilisateurs. Tant au niveau de l’évaluation de la performance que de l’expérience des utilisateurs, on note qu’une attention particulière est maintenant portée aux réactions émotionnelles et cognitives lors de l’interaction. Les approches qualitatives standards sont limitées, car elles se fondent sur l’observation et des entrevues après l’interaction, limitant ainsi la précision du diagnostic. L’expérience utilisateur et les réactions émotionnelles étant de nature hautement dynamique et contextualisée, les approches d’évaluation doivent l’être de même afin de permettre un diagnostic précis de l’interaction. Cette thèse présente une approche d’évaluation quantitative et dynamique qui permet de contextualiser les réactions des utilisateurs afin d’en identifier les antécédents dans l’interaction avec un système. Pour ce faire, ce travail s’articule autour de trois axes. 1) La reconnaissance automatique des buts et de la structure de tâches de l’utilisateur, à l’aide de mesures oculométriques et d’activité dans l’environnement par apprentissage machine. 2) L’inférence de construits psychologiques (activation, valence émotionnelle et charge cognitive) via l’analyse des signaux physiologiques. 3) Le diagnostic de l‘interaction reposant sur le couplage dynamique des deux précédentes opérations. Les idées et le développement de notre approche sont illustrés par leur application dans deux contextes expérimentaux : le commerce électronique et l’apprentissage par simulation. Nous présentons aussi l’outil informatique complet qui a été implémenté afin de permettre à des professionnels en évaluation (ex. : ergonomes, concepteurs de jeux, formateurs) d’utiliser l’approche proposée pour l’évaluation d’IHM. Celui-ci est conçu de manière à faciliter la triangulation des appareils de mesure impliqués dans ce travail et à s’intégrer aux méthodes classiques d’évaluation de l’interaction (ex. : questionnaires et codage des observations).
Resumo:
Alors que l’Imagerie par résonance magnétique (IRM) permet d’obtenir un large éventail de données anatomiques et fonctionnelles, les scanneurs cliniques sont généralement restreints à l’utilisation du proton pour leurs images et leurs applications spectroscopiques. Le phosphore jouant un rôle prépondérant dans le métabolisme énergétique, l’utilisation de cet atome en spectroscopie RM présente un énorme avantage dans l’observation du corps humain. Cela représente un certain nombre de déEis techniques à relever dus à la faible concentration de phosphore et sa fréquence de résonance différente. L’objectif de ce projet a été de développer la capacité à réaliser des expériences de spectroscopie phosphore sur un scanneur IRM clinique de 3 Tesla. Nous présentons ici les différentes étapes nécessaires à la conception et la validation d’une antenne IRM syntonisée à la fréquence du phosphore. Nous présentons aussi l’information relative à réalisation de fantômes utilisés dans les tests de validation et la calibration. Finalement, nous présentons les résultats préliminaires d’acquisitions spectroscopiques sur un muscle humain permettant d’identiEier les différents métabolites phosphorylés à haute énergie. Ces résultats s’inscrivent dans un projet de plus grande envergure où les impacts des changements du métabolisme énergétique sont étudiés en relation avec l’âge et les pathologies.
Resumo:
La modélisation de l’expérience de l’utilisateur dans les Interactions Homme-Machine est un enjeu important pour la conception et le développement des systèmes adaptatifs intelligents. Dans ce contexte, une attention particulière est portée sur les réactions émotionnelles de l’utilisateur, car elles ont une influence capitale sur ses aptitudes cognitives, comme la perception et la prise de décision. La modélisation des émotions est particulièrement pertinente pour les Systèmes Tutoriels Émotionnellement Intelligents (STEI). Ces systèmes cherchent à identifier les émotions de l’apprenant lors des sessions d’apprentissage, et à optimiser son expérience d’interaction en recourant à diverses stratégies d’interventions. Cette thèse vise à améliorer les méthodes de modélisation des émotions et les stratégies émotionnelles utilisées actuellement par les STEI pour agir sur les émotions de l’apprenant. Plus précisément, notre premier objectif a été de proposer une nouvelle méthode pour détecter l’état émotionnel de l’apprenant, en utilisant différentes sources d’informations qui permettent de mesurer les émotions de façon précise, tout en tenant compte des variables individuelles qui peuvent avoir un impact sur la manifestation des émotions. Pour ce faire, nous avons développé une approche multimodale combinant plusieurs mesures physiologiques (activité cérébrale, réactions galvaniques et rythme cardiaque) avec des variables individuelles, pour détecter une émotion très fréquemment observée lors des sessions d’apprentissage, à savoir l’incertitude. Dans un premier lieu, nous avons identifié les indicateurs physiologiques clés qui sont associés à cet état, ainsi que les caractéristiques individuelles qui contribuent à sa manifestation. Puis, nous avons développé des modèles prédictifs permettant de détecter automatiquement cet état à partir des différentes variables analysées, à travers l’entrainement d’algorithmes d’apprentissage machine. Notre deuxième objectif a été de proposer une approche unifiée pour reconnaître simultanément une combinaison de plusieurs émotions, et évaluer explicitement l’impact de ces émotions sur l’expérience d’interaction de l’apprenant. Pour cela, nous avons développé une plateforme hiérarchique, probabiliste et dynamique permettant de suivre les changements émotionnels de l'apprenant au fil du temps, et d’inférer automatiquement la tendance générale qui caractérise son expérience d’interaction à savoir : l’immersion, le blocage ou le décrochage. L’immersion correspond à une expérience optimale : un état dans lequel l'apprenant est complètement concentré et impliqué dans l’activité d’apprentissage. L’état de blocage correspond à une tendance d’interaction non optimale où l'apprenant a de la difficulté à se concentrer. Finalement, le décrochage correspond à un état extrêmement défavorable où l’apprenant n’est plus du tout impliqué dans l’activité d’apprentissage. La plateforme proposée intègre trois modalités de variables diagnostiques permettant d’évaluer l’expérience de l’apprenant à savoir : des variables physiologiques, des variables comportementales, et des mesures de performance, en combinaison avec des variables prédictives qui représentent le contexte courant de l’interaction et les caractéristiques personnelles de l'apprenant. Une étude a été réalisée pour valider notre approche à travers un protocole expérimental permettant de provoquer délibérément les trois tendances ciblées durant l’interaction des apprenants avec différents environnements d’apprentissage. Enfin, notre troisième objectif a été de proposer de nouvelles stratégies pour influencer positivement l’état émotionnel de l’apprenant, sans interrompre la dynamique de la session d’apprentissage. Nous avons à cette fin introduit le concept de stratégies émotionnelles implicites : une nouvelle approche pour agir subtilement sur les émotions de l’apprenant, dans le but d’améliorer son expérience d’apprentissage. Ces stratégies utilisent la perception subliminale, et plus précisément une technique connue sous le nom d’amorçage affectif. Cette technique permet de solliciter inconsciemment les émotions de l’apprenant, à travers la projection d’amorces comportant certaines connotations affectives. Nous avons mis en œuvre une stratégie émotionnelle implicite utilisant une forme particulière d’amorçage affectif à savoir : le conditionnement évaluatif, qui est destiné à améliorer de façon inconsciente l’estime de soi. Une étude expérimentale a été réalisée afin d’évaluer l’impact de cette stratégie sur les réactions émotionnelles et les performances des apprenants.