31 resultados para spaced repetition
em Université de Montréal, Canada
Resumo:
Depuis l’introduction de la mécanique quantique, plusieurs mystères de la nature ont trouvé leurs explications. De plus en plus, les concepts de la mécanique quantique se sont entremêlés avec d’autres de la théorie de la complexité du calcul. De nouvelles idées et solutions ont été découvertes et élaborées dans le but de résoudre ces problèmes informatiques. En particulier, la mécanique quantique a secoué plusieurs preuves de sécurité de protocoles classiques. Dans ce m´emoire, nous faisons un étalage de résultats récents de l’implication de la mécanique quantique sur la complexité du calcul, et cela plus précisément dans le cas de classes avec interaction. Nous présentons ces travaux de recherches avec la nomenclature des jeux à information imparfaite avec coopération. Nous exposons les différences entre les théories classiques, quantiques et non-signalantes et les démontrons par l’exemple du jeu à cycle impair. Nous centralisons notre attention autour de deux grands thèmes : l’effet sur un jeu de l’ajout de joueurs et de la répétition parallèle. Nous observons que l’effet de ces modifications a des conséquences très différentes en fonction de la théorie physique considérée.
Resumo:
« La grande majorité des accidents demeure liée aux comportements dangereux des usagers de la route ». Cet énoncé, lapidaire, fait aujourd’hui figure d’évidence au sein de la communauté des intervenants en sécurité routière. Il repose pourtant sur des prémisses discutables. Le problème le plus fondamental réside dans le fait que la recherche des dernières décennies s’est presque toute entière vouée à l’analyse des seuls aspects défaillants de la conduite (l’accident, les infractions, les erreurs et les fautes de conduite, les conducteurs à risque ou dysfonctionnels, les attitudes et traits de caractère incitant à la conduite dangereuse, etc.). Ce faisant, on a fini par oublier qu’il nous restait encore beaucoup de choses à apprendre sur le fonctionnement usuel de la conduite automobile. Comment, en effet, peut-on escompter élucider tous les rouages de la dynamique accidentelle sans avoir au préalable cerné, et bien compris, les mécanismes de la conduite « ordinaire » ? Comment peut-on parvenir à approfondir notre compréhension des comportements de conduite si l’on fait totalement abstraction de toutes les activités courantes, « normales », auxquelles se livrent les conducteurs lorsqu’ils sont au volant de leur véhicule ? C’est dans la perspective de mieux comprendre les comportements de conduite, dans leur complexité et dans leur diversité, que la présente thèse a été réalisée. Y a plus spécifiquement été examinée la question des habitudes en raison de leur prédominance dans l’activité de la conduite, mais également en raison de leur résistance, des obstacles bien concrets qu’elles sont susceptibles d’opposer à tous ceux qui tentent de modifier les comportements individuels de conduite. Des entrevues en profondeur, menées auprès de trente conducteurs et conductrices âgé(e)s de 17 à 54 ans, devaient permettre de répondre, entre autres, aux questions suivantes : De quoi sont constituées les différentes habitudes en matière de conduite automobile ? Quelle place occupent-elles dans la conduite des individus ? En quoi constituent-elles un frein au changement, à la modification des pratiques adoptées ? Quelles sont les dimensions qui participent à leur installation ? Les résultats de l’analyse ont permis de jeter les bases d’un modèle des comportements de conduite où les sensations corporelles se voient conférer un rôle des plus centraux, et où l’habitude – bien davantage caractérisée par la notion de confort que par celles d’automatisme ou de répétition – concourt non seulement à la pérennité, mais également à la régulation des conduites adoptées sur la route.
Resumo:
Cette thèse porte sur le comportement des élites politiques durant les périodes de crise nationale et plus particulièrement sur leurs réactions aux attentats terroristes. Elle démontre que les crises terroristes sont tout comme les conflits militaires ou diplomatiques propices aux unions nationales et notamment aux ralliements des partis d’opposition auprès du gouvernement. L’analyse statistique d’actes terroristes s’étant produits dans cinq états démocratiques (Allemagne, Espagne, États-Unis d’Amérique, France et Royaume-Uni) entre 1990 et 2006 révèle que l’ampleur d’un attentat en termes de pertes humaines ainsi que la répétition de ces attentats influencent dans une large mesure la réaction des élites politiques. Ainsi plus l’ampleur d’un attentat est élevée, plus la probabilité d’un ralliement est grande. En revanche, la multiplication des attentats augmente la possibilité de dissension entre l’opposition et le gouvernement. Par ailleurs, l’opposition est plus susceptible de se rallier au gouvernement lorsque l’attentat est perpétré par des terroristes provenant de l’étranger. L’analyse quantitative indique également que l’existence d’un accord formel de coopération dans la lutte antiterroriste entre le gouvernement et l’opposition favorise l’union des élites. Enfin, les données analysées suggèrent que la proportion des ralliements dans les cinq pays est plus importante depuis les attentats du 11 septembre 2001. Une analyse qualitative portant exclusivement sur la France et couvrant la période 1980-2006 confirme la validité des variables identifiées dans la partie quantitative, mais suggère que les élites réagissent au nombre total de victimes (morts mais aussi blessés) et que la répétition des actes terroristes a moins d’impact lors des vagues d’attentats. Par ailleurs, les analyses de cas confirment que les élites politiques françaises sont plus susceptibles de se rallier quand un attentat vise un haut-fonctionnaire de l’État. Il apparaît également que les rivalités et rancœurs politiques propre à la France (notamment suite à l’arrivée de la gauche au pouvoir en 1981) ont parfois empêché le ralliement des élites. Enfin, cette analyse qualitative révèle que si l’extrême gauche française soutient généralement le gouvernement, qu’il soit de gauche ou de droite, en période de crise terroriste, l’extrême droite en revanche saisit quasi systématiquement l’opportunité offerte par l’acte terroriste pour critiquer le gouvernement ainsi que les partis de l’establishment. La thèse est divisée en sept chapitres. Le premier chapitre suggère que le comportement des élites politiques en période de crises internationales graves (guerres et conflits diplomatiques) est souvent influencé par la raison d’État et non par l’intérêt électoral qui prédomine lors des périodes plus paisibles. Le second chapitre discute du phénomène terroriste et de la littérature afférente. Le troisième chapitre analyse les causes du phénomène d’union nationale, soumet un cadre pour l’analyse de la réaction des élites aux actes terroristes, et présente une série d’hypothèses. Le quatrième chapitre détaille la méthodologie utilisée au cours de cette recherche. Les chapitres cinq et six présentent respectivement les résultats des analyses quantitatives et qualitatives. Enfin, le chapitre sept conclut cette thèse en résumant la contribution de l’auteur et en suggérant des pistes de recherche.
Resumo:
Le marquage protéique par fluorescence est une méthode de choix permettant d’étudier l’évolution des protéines depuis leur synthèse cellulaire jusqu’à leur dégradation, en plus de rendre possible leur localisation ainsi que la visualisation des interactions entre protéines. De cet intérêt certain ont découlé différentes techniques de marquage, dont celle présentement développée dans le groupe Keillor. Le principe de celle-ci repose sur la réaction entre deux maléimides portés par un fluorogène et une séquence peptidique cible, laquelle contient deux résidus cystéines séparés par une distance appropriée. Suite à cette double addition de thiols du peptide sur les maléimides du fluorogène, la fluorescence latente de ce dernier est régénérée, menant au marquage covalent de la protéine d’intérêt. Afin d’optimiser la spécificité et la sensibilité de cette méthode de marquage, la synthèse de nouveaux fluorogènes et l’étude de l’efficacité de quench de la fluorescence par les maléimides est présentement en cours dans les laboratoires du groupe Keillor.
Resumo:
Nous étudions la recombinaison radiative des porteurs de charges photogénérés dans les puits quantiques InGaN/GaN étroits (2 nm). Nous caractérisons le comportement de la photoluminescence face aux différentes conditions expérimentales telles la température, l'énergie et la puissance de l'excitation et la tension électrique appliquée. Ces mesures montrent que l'émission provient d'états localisés. De plus, les champs électriques, présents nativement dans ces matériaux, n'ont pas une influence dominante sur la recombinaison des porteurs. Nous avons montré que le spectre d'émission se modifie significativement et subitement lorsque la puissance de l'excitation passe sous un certain seuil. L'émission possède donc deux ``phases'' dont nous avons déterminé le diagramme. La phase adoptée dépend à la fois de la puissance, de la température et de la tension électrique appliquée. Nous proposons que la phase à basse puissance soit associée à un état électriquement chargé dans le matériau. Ensuite, nous avons caractérisé la dynamique temporelle de notre échantillon. Le taux de répétition de l'excitation a une influence importante sur la dynamique mesurée. Nous concluons qu'elle ne suit pas une exponentielle étirée comme on le pensait précédemment. Elle est exponentielle à court temps et suit une loi de puissance à grand temps. Ces deux régimes sont lié à un seul et même mécanisme de recombinaison. Nous avons développé un modèle de recombinaison à trois niveaux afin d'expliquer le comportement temporel de la luminescence. Ce modèle suppose l'existence de centres de localisation où les porteurs peuvent se piéger, indépendamment ou non. L'électron peut donc se trouver sur un même centre que le trou ou sur n'importe quel autre centre. En supposant le transfert des porteurs entre centres par saut tunnel on détermine, en fonction de la distribution spatiale des centres, la dynamique de recombinaison. Ce modèle indique que la recombinaison dans les puits InGaN/GaN minces est liée à des agglomérats de centre de localisation.
Resumo:
L’Éducation Pour Tous mobilise la communauté internationale et les gouvernements depuis 1990. Cet engagement global renouvelé en 2000 sous l’auspice de l’UNESCO puis des Nations-Unies, porte notamment sur un objectif de base : l’universalisation de la scolarisation primaire complète pour tous les enfants d’âge scolaire à l’horizon de 2015. Plusieurs études sur la réalisation de cet objectif montrent que les pays en développement sont les plus à risque et que les progrès accomplis dans la plupart de ces pays, pourraient être plus importants si la pratique du redoublement faisait davantage l’objet de régulation et de contrôle. Cela contribuerait à améliorer la réussite scolaire et accroître la rétention des élèves au sein des systèmes éducatifs. La pratique du redoublement est en effet une tradition dans plusieurs systèmes éducatifs. Elle est particulièrement prépondérante dans certains groupes de pays ou régions, notamment en Afrique francophone au sud du Sahara. Dans ces pays, le PASEC - Programme d’Analyse des Systèmes Éducatifs de la CONFEMEN (Conférence des Ministres de l’Éducation Nationale des pays ayant le français en partage) - œuvre à améliorer l’accès à une éducation de qualité pour tous, par exemple, en informant les politiques sur la situation nationale du redoublement. Cette recherche sur le redoublement, la réussite scolaire et l’objectif de la Scolarisation Primaire Universelle (SPU) privilégie la dimension pédagogique, l’analyse empirique et étudie le cas du Sénégal. Elle présente et discute les indicateurs internationaux de suivi de l’objectif de la SPU, fait le point de l’état des connaissances sur le redoublement et la réussite scolaire et montre le défi que représente la réalisation de l’objectif de la SPU notamment dans les pays francophones d’Afrique sub-Saharienne. Exploitant les données existantes de l’enquête longitudinale de suivi de cohorte du PASEC au Sénégal entre 1995 et 2000, cette recherche examine le parcours scolaire des élèves en vue de la réalisation de l’objectif de la SPU. L’examen effectué combine des approches d’analyse transversale et longitudinale du redoublement et des apprentissages par rapport aux caractéristiques personnelles, familiales et scolaires de l’élève. Les résultats d’analyse montrent des variabilités, notamment par rapport aux caractéristiques personnelles de l’élève et à celles de sa classe et de son milieu de scolarisation. L’analyse longitudinale du redoublement s’est appuyée sur le diagramme de flux scolaire et a permis de produire un ensemble d’indicateurs d’efficacité interne du système éducatif du Sénégal. Pour la cohorte étudiée, du fait de l’importance des redoublements et des abandons scolaires, il faut en moyenne 9,4 années de scolarité pour que l’élève progresse du deuxième au sixième (dernier) grade du primaire. Seulement 39% de l’effectif de la cohorte survivent au dernier grade ce qui suggère que si cette tendance se maintenait, le Sénégal serait à risque de ne pas réaliser l’objectif de la SPU. Une évaluation de la situation courante à partir de données plus récentes serait requise. Le diagramme de flux scolaire constitue un outil de planification de l’éducation et représente de ce fait un important levier aux mains des autorités politiques pour agir sur les paramètres du système éducatif (paramètres liés à la qualité de l’éducation, à l’efficacité interne, etc.) afin de répondre à des objectifs spécifiques ou d’étapes pouvant conduire, par exemple, à la réalisation de l’objectif de la SPU.
Resumo:
Cette recherche vise à décrire 1) les erreurs lexicales commises en production écrite par des élèves francophones de 3e secondaire et 2) le rapport à l’erreur lexicale d’enseignants de français (conception de l’erreur lexicale, pratiques d’évaluation du vocabulaire en production écrite, modes de rétroaction aux erreurs lexicales). Le premier volet de la recherche consiste en une analyse d’erreurs à trois niveaux : 1) une description linguistique des erreurs à l’aide d’une typologie, 2) une évaluation de la gravité des erreurs et 3) une explication de leurs sources possibles. Le corpus analysé est constitué de 300 textes rédigés en classe de français par des élèves de 3e secondaire. L’analyse a révélé 1144 erreurs lexicales. Les plus fréquentes sont les problèmes sémantiques (30%), les erreurs liées aux propriétés morphosyntaxiques des unités lexicales (21%) et l’utilisation de termes familiers (17%). Cette répartition démontre que la moitié des erreurs lexicales sont attribuables à une méconnaissance de propriétés des mots autres que le sens et la forme. L’évaluation de la gravité des erreurs repose sur trois critères : leur acceptation linguistique selon les dictionnaires, leur impact sur la compréhension et leur degré d’intégration à l’usage. Les problèmes liés aux registres de langue sont généralement ceux qui sont considérés comme les moins graves et les erreurs sémantiques représentent la quasi-totalité des erreurs graves. Le troisième axe d’analyse concerne la source des erreurs et fait ressortir trois sources principales : l’influence de la langue orale, la proximité sémantique et la parenté formelle entre le mot utilisé et celui visé. Le second volet de la thèse concerne le rapport des enseignants de français à l’erreur lexicale et repose sur l’analyse de 224 rédactions corrigées ainsi que sur une série de huit entrevues menées avec des enseignants de 3e secondaire. Lors de la correction, les enseignants relèvent surtout les erreurs orthographiques ainsi que celles relevant des propriétés morphosyntaxiques des mots (genre, invariabilité, régime), qu’ils classent parmi les erreurs de grammaire. Les erreurs plus purement lexicales, c’est-à-dire les erreurs sémantiques, l’emploi de termes familiers et les erreurs de collocation, demeurent peu relevées, et les annotations des enseignants concernant ces types d’erreurs sont vagues et peu systématiques, donnant peu de pistes aux élèves pour la correction. L’évaluation du vocabulaire en production écrite est toujours soumise à une appréciation qualitative, qui repose sur l’impression générale des enseignants plutôt que sur des critères précis, le seul indicateur clair étant la répétition. Les explications des enseignants concernant les erreurs lexicales reposent beaucoup sur l’intuition, ce qui témoigne de certaines lacunes dans leur formation en lien avec le vocabulaire. Les enseignants admettent enseigner très peu le vocabulaire en classe au secondaire et expliquent ce choix par le manque de temps et d’outils adéquats. L’enseignement du vocabulaire est toujours subordonné à des tâches d’écriture ou de lecture et vise davantage l’acquisition de mots précis que le développement d’une réelle compétence lexicale.
Resumo:
La thèse a été réalisée dans le cadre d'une cotutelle entre l'Université de Montréal et l'Université Stendhal - Grenoble 3.
Resumo:
La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (http://www.bib.umontreal.ca/MU).
Resumo:
L’asymétrie de mise en charge (MEC) lors du passage assis à debout (PAD) chez les personnes hémiparétiques est une observation clinique connue mais peu expliquée. Ce projet visait donc le développement de connaissances sur les facteurs explicatifs de l’asymétrie de MEC chez cette clientèle en s’intéressant plus spécifiquement au lien entre la distribution des efforts aux genoux lors du PAD et l’asymétrie de MEC observée ainsi qu’à la perception de ces deux éléments lors de cette tâche. Ainsi, les objectifs généraux étaient de : 1) déterminer si l’exécution spontanée asymétrique du PAD des sujets hémiparétiques est expliquée par une distribution des efforts symétriques aux genoux en quantifiant ces efforts par le Taux d’utilisation musculaire électromyographique (TUMEMG) et, 2) déterminer si les individus hémiparétiques sont conscients des stratégies motrices qu’ils utilisent en évaluant leurs perceptions de MEC et d’efforts aux genoux durant le PAD. La première étude a évalué la capacité des personnes hémiparétiques à percevoir leur distribution de MEC aux membres inférieurs lors du PAD. Par rapport aux participants sains, leur distribution de MEC fut davantage asymétrique et leurs erreurs de perception plus élevées. La deuxième étude a quantifié la distribution des efforts aux genoux chez les sujets sains et hémiparétiques lors du PAD spontané. Les deux groupes ont montré une association entre leur distribution de MEC et leur distribution d’effort. Toutefois, la relation était plus faible chez les patients. Le classement des participants hémiparétiques en sous-groupes selon leur degré d’asymétrie de force maximale des extenseurs des genoux (faible, modéré, sévère) a révélé une similarité des efforts aux genoux parétique et non parétique chez le groupe ayant une atteinte sévère. La troisième étude a déterminé si la perception de la distribution des efforts aux genoux des sujets hémiparétiques était reliée à leur distribution réelle d’effort mesurée lors de PAD exécutés dans différentes positions de pieds. En plus d’être incapables de percevoir les changements de distribution d’effort induits par les différentes positions de pieds, leurs erreurs de perception d’effort furent plus élevées que celles de MEC. Par le biais du test fonctionnel assis-debout de cinq répétitions, la dernière étude a déterminé l’influence du nombre de répétitions du PAD sur les distributions de MEC et d’efforts aux genoux chez les sujets sains et hémiparétiques. Contrairement aux contrôles, les distributions des sujets hémiparétiques furent plus asymétriques à la première répétition du test fonctionnel que lors de l’exécution spontanée unique du PAD. En somme, les résultats de cette thèse ont démontré que la distribution des efforts aux genoux doit être considérée parmi les facteurs explicatifs de l’asymétrie de MEC des individus hémiparétiques lors du PAD et qu’il y a un besoin de mieux documenter la perception des personnes hémiparétiques lorsqu’elles exécutent des tâches fonctionnelles.
Resumo:
Les contrevenants de la conduite avec capacités affaiblies (CCA) n’entrent pas tous dans les registres de la sécurité routière avec le même risque de récidive. Pour pallier cette hétérogénéité, cette thèse propose de modéliser les interrelations entre les traits de personnalité et les comportements à risque associés à la récidive et de détecter un sous-groupe de contrevenants au risque de récidive élevé à l’aide de l’axe hypothalamo-hypophyso-surrénalien (HHS). Plus particulièrement, les trois articles de cette thèse s’intéressent au cortisol, l’hormone du stress. Le premier article élabore un modèle théorique réconciliant les connaissances sur l’axe HHS issues du domaine de la CCA et de domaines connexes. Lors de précédentes études, le nombre de condamnations antérieures pour CCA a été associé négativement à la réactivité du cortisol à la suite d’une situation stressante. Chez les récidivistes, cette faible réactivité s’explique partiellement par la recherche d’expériences, une dimension de la recherche de sensations. Au-delà ce trait de personnalité désinhibiteur, une faible activité de l’axe HHS a été associée à d’autres traits (c.-à-d. impulsivité et tendances antisociales) et d’autres comportements à risque (c.-à-d. infractions routières, arrestations criminelles et consommation problématique de substances psychoactives). Ce modèle intégrant la réactivité du cortisol permet une conceptualisation approfondie des diverses caractéristiques des contrevenants de la CCA et explique hypothétiquement la répétition des comportements à risque. Les deux articles suivants se penchent sur l’intérêt empirique d’utiliser l’axe HHS pour déterminer un sous-groupe de contrevenants à risque élevé de récidive. Plus précisément, le deuxième article émet l’hypothèse que les récidivistes (n = 30) ayant une faible activité de leur cortisol (c.-à-d. médiane de la surface sous la courbe relative au niveau de base et relative à la réactivité) ont davantage de traits de personnalité désinhibiteurs et de comportements à risque que les récidivistes ayant une forte activité. L’hypothèse n’a pas été confirmée. Au contraire, les récidivistes présentant une faible réactivité commettent moins d’infractions routières et d’arrestations criminelles que ceux ayant une forte réactivité. Quant à lui, le troisième article investigue une hypothèse similaire auprès des contrevenants primaires (n = 139). Les contrevenants manifestant une faible réactivité du cortisol (c.-à-d. différence entre prélèvements post-stress et pré-stress) ont davantage d’impulsivité attentionnelle, de non-planification, d’arrestations criminelles et de cigarettes fumées par jour que les contrevenants ayant une forte réactivité. Lors d’analyses exploratoires, la présence d’une variété de traits de personnalité désinhibiteurs et de comportements à risque chez les contrevenants primaires présentant une faible réactivité lorsque comparé au groupe contrôle (n = 31) suggère encore une fois leur risque élevé de récidive. L’intérêt d’ajouter un mécanisme neurobiologique pour modéliser les interrelations entre les traits de personnalité désinhibiteurs et les comportements à risque des contrevenants de la CCA a été exploré dans cette thèse. La détermination d’un sous-groupe de contrevenants présentant un risque élevé de récidive, à l’aide de l’axe HHS, semble davantage profitable auprès de l’hétérogène population des contrevenants primaires. En contrepartie, l’axe HHS ne permet pas de déterminer un sous-groupe ayant une problématique sévère auprès des récidivistes à l’extrême du continuum du risque.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Les prothèses myoélectriques modernes peuvent être dotées de plusieurs degrés de liberté ce qui nécessite plusieurs signaux musculaires pour en exploiter pleinement les capacités. Pour obtenir plus de signaux, il nous a semblé prometteur d'expérimenter si les 6 compartiments du biceps brachial pouvaient être mis sous tension de façon volontaire et obtenir ainsi 6 signaux de contrôle au lieu d'un seul comme actuellement. Des expériences ont donc été réalisées avec 10 sujets normaux. Des matrices d'électrodes ont été placées en surface au-dessus du chef court et long du biceps pour recueillir les signaux électromyographiques (EMG) générés par le muscle lors de contractions effectuées alors que les sujets étaient soit assis, le coude droit fléchi ~ 100 ° ou debout avec le bras droit tendu à l'horizontale dans le plan coronal (sur le côté). Dans ces deux positions, la main était soit en supination, soit en position neutre, soit en pronation. L'amplitude des signaux captés au-dessus du chef court du muscle a été comparée à ceux obtenus à partir du chef long. Pour visualiser la forme du biceps sous les électrodes l'imagerie ultrasonore a été utilisée. En fonction de la tâche à accomplir, l'activité EMG a était plus importante soit dans un chef ou dans l'autre. Le fait de pouvoir activer préférentiellement l'un des 2 chefs du biceps, même si ce n'est pas encore de façon complètement indépendante, suggère que l'utilisation sélective des compartiments pourrait être une avenue possible pour faciliter le contrôle des prothèses myoélectriques du membre supérieur.
Resumo:
La reconnaissance d’objets est une tâche complexe au cours de laquelle le cerveau doit assembler de manière cohérente tous les éléments d’un objet accessible à l’œil afin de le reconnaître. La construction d’une représentation corticale de l’objet se fait selon un processus appelé « bottom-up », impliquant notamment les régions occipitales et temporales. Un mécanisme « top-down » au niveau des régions pariétales et frontales, facilite la reconnaissance en suggérant des identités potentielles de l’objet à reconnaître. Cependant, le mode de fonctionnement de ces mécanismes est peu connu. Plusieurs études ont démontré une activité gamma induite au moment de la perception cohérente de stimuli, lui conférant ainsi un rôle important dans la reconnaissance d’objets. Cependant, ces études ont utilisé des techniques d’enregistrement peu précises ainsi que des stimuli répétitifs. La première étude de cette thèse vise à décrire la dynamique spatio-temporelle de l’activité gamma induite à l’aide de l’électroencéphalographie intracrânienne, une technique qui possède des résolutions spatiales et temporelles des plus précises. Une tâche d’images fragmentées a été conçue dans le but de décrire l’activité gamma induite selon différents niveaux de reconnaissance, tout en évitant la répétition de stimuli déjà reconnus. Afin de mieux circonscrire les mécanismes « top-down », la tâche a été répétée après un délai de 24 heures. Les résultats démontrent une puissante activité gamma induite au moment de la reconnaissance dans les régions « bottom-up ». Quant aux mécanismes « top-down », l’activité était plus importante aux régions occipitopariétales. Après 24 heures, l’activité était davantage puissante aux régions frontales, suggérant une adaptation des procédés « top-down » selon les demandes de la tâche. Très peu d’études se sont intéressées au rythme alpha dans la reconnaissance d’objets, malgré qu’il soit bien reconnu pour son rôle dans l’attention, la mémoire et la communication des régions neuronales distantes. La seconde étude de cette thèse vise donc à décrire plus précisément l’implication du rythme alpha dans la reconnaissance d’objets en utilisant les techniques et tâches identiques à la première étude. Les analyses révèlent une puissante activité alpha se propageant des régions postérieures aux régions antérieures, non spécifique à la reconnaissance. Une synchronisation de la phase de l’alpha était, quant à elle, observable qu’au moment de la reconnaissance. Après 24 heures, un patron similaire était observable, mais l’amplitude de l’activité augmentait au niveau frontal et les synchronies de la phase étaient davantage distribuées. Le rythme alpha semble donc refléter des processus attentionnels et communicationnels dans la reconnaissance d’objets. En conclusion, cette thèse a permis de décrire avec précision la dynamique spatio-temporelle de l’activité gamma induite et du rythme alpha ainsi que d’en apprendre davantage sur les rôles potentiels que ces deux rythmes occupent dans la reconnaissance d’objets.
Resumo:
Le traitement visuel répété d’un visage inconnu entraîne une suppression de l’activité neuronale dans les régions préférentielles aux visages du cortex occipito-temporal. Cette «suppression neuronale» (SN) est un mécanisme primitif hautement impliqué dans l’apprentissage de visages, pouvant être détecté par une réduction de l’amplitude de la composante N170, un potentiel relié à l’événement (PRE), au-dessus du cortex occipito-temporal. Le cortex préfrontal dorsolatéral (CPDL) influence le traitement et l’encodage visuel, mais sa contribution à la SN de la N170 demeure inconnue. Nous avons utilisé la stimulation électrique transcrânienne à courant direct (SETCD) pour moduler l’excitabilité corticale du CPDL de 14 adultes sains lors de l’apprentissage de visages inconnus. Trois conditions de stimulation étaient utilisées: inhibition à droite, excitation à droite et placebo. Pendant l’apprentissage, l’EEG était enregistré afin d’évaluer la SN de la P100, la N170 et la P300. Trois jours suivant l’apprentissage, une tâche de reconnaissance était administrée où les performances en pourcentage de bonnes réponses et temps de réaction (TR) étaient enregistrées. Les résultats indiquent que la condition d’excitation à droite a facilité la SN de la N170 et a augmentée l’amplitude de la P300, entraînant une reconnaissance des visages plus rapide à long-terme. À l’inverse, la condition d’inhibition à droite a causé une augmentation de l’amplitude de la N170 et des TR plus lents, sans affecter la P300. Ces résultats sont les premiers à démontrer que la modulation d’excitabilité du CPDL puisse influencer l’encodage visuel de visages inconnus, soulignant l’importance du CPDL dans les mécanismes d’apprentissage de base.