119 resultados para erreurs
Resumo:
Ce mémoire examine les poétiques de trois poètes très différentes, mais dont les œuvres peuvent être qualifiées d'indéterminées et de radicales : Emily Dickinson (1830-1886), Gertrude Stein (1874-1946) et Caroline Bergvall (née en 1962). Dickinson et Stein sont anglo-américaines, tandis que Bergvall est d’origine franco-norvégienne, bien qu'elle choisisse d’écrire en anglais. Toutes les trois rompent la structure syntaxique conventionnelle de l’anglais par leurs poétiques, ce qui comporte des implications esthétiques et politiques. Dans ce qui suit, j’analyse l’indétermination de leurs poétiques à partir de la notion, décrite par Lyn Hejinian, de la description comme appréhension qui présente l’écriture comme un mode de connaissance plutôt qu'un moyen d’enregistrer ce que le poète sait déjà. La temporalité de cette activité épistémologique est donc celle du présent de l’écriture, elle lui est concomitante. J'affirme que c'est cette temporalité qui, en ouvrant l’écriture aux événements imprévus, aux vicissitudes, aux hésitations, aux erreurs et torsions de l’affect, cause l'indétermination de la poésie. Dans le premier chapitre, j'envisage l'appréhension chez Gertrude Stein à travers son engagement, tout au long de sa carrière, envers « le présent continu » de l’écriture. Le deuxième chapitre porte sur le sens angoissé de l’appréhension dans la poésie de Dickinson, où le malaise, en empêchant ou en refoulant une pensée, suspend la connaissance. Le langage, sollicité par une expérience qu'il ne peut lui-même exprimer, donne forme à l'indétermination. Un dernier chapitre considère l’indétermination linguistique du texte et de l’exposition Say Parsley, dans lesquels Bergvall met en scène l’appréhension du langage : une appréhension qui survient plutôt chez le lecteur ou spectateur que chez la poète.
Resumo:
Fansub consiste à traduire et à sous-titrer les produits médiatiques étrangers tels que des films, des feuilletons ou des animes par des internautes bénévoles. Ce phénomène est aujourd’hui très répandu en Chine. Les amateurs s’organisent en groupes de fansub pour accomplir ce travail en collaboration. Les groupes de fansub se caractérisent par la virtualisation du lieu de travail, l’hétérogénéité des membres, la liberté de participation, la collaboration et la non-commercialité. Leur processus de travail et organisation est aussi particulier. Dans ce mémoire, je me suis intéressée à l’apprentissage des fansubbers, un aspect peu étudié dans la littérature sur le fansub. Le fansub a été abordé sous l’angle d’une communauté de pratiques pour comprendre comment les fansubbers acquièrent de nouvelles connaissances et améliorent leur compétence linguistique en sous-titrant les films de langue étrangère. L’étude est basée sur l’observation participative dans un groupe de fansub chinois-français, Fansub Yueyue. J’ai fait de l’observation participante auprès de ce groupe de fansub pour recueillir des traces du travail et des interactions entre les membres. Dix fansubbers du groupe ont aussi été interrogés. Les analyses ont indiqué que le groupe de fansub démontre les trois caractéristiques essentielles d’une communauté de pratique : l’entreprise commune, l’engagement mutuel et un répertoire partagé. Cet ensemble favorise l’existence du groupe ainsi que l’apprentissage des membres. Aussi, par l’analyse des erreurs fréquentes des fansubbers et leur autoévaluation, nous concluons que les pratiques de fansub aident les membres à améliorer leur compétence linguistique. L’apprentissage a lieu pendant le processus de travail de sous-titrage ainsi qu’à travers les interactions entre les membres ou avec des personnes hors de ce groupe.
Resumo:
Dans ce mémoire, nous nous pencherons tout particulièrement sur une primitive cryptographique connue sous le nom de partage de secret. Nous explorerons autant le domaine classique que le domaine quantique de ces primitives, couronnant notre étude par la présentation d’un nouveau protocole de partage de secret quantique nécessitant un nombre minimal de parts quantiques c.-à-d. une seule part quantique par participant. L’ouverture de notre étude se fera par la présentation dans le chapitre préliminaire d’un survol des notions mathématiques sous-jacentes à la théorie de l’information quantique ayant pour but primaire d’établir la notation utilisée dans ce manuscrit, ainsi que la présentation d’un précis des propriétés mathématique de l’état de Greenberger-Horne-Zeilinger (GHZ) fréquemment utilisé dans les domaines quantiques de la cryptographie et des jeux de la communication. Mais, comme nous l’avons mentionné plus haut, c’est le domaine cryptographique qui restera le point focal de cette étude. Dans le second chapitre, nous nous intéresserons à la théorie des codes correcteurs d’erreurs classiques et quantiques qui seront à leur tour d’extrême importances lors de l’introduction de la théorie quantique du partage de secret dans le chapitre suivant. Dans la première partie du troisième chapitre, nous nous concentrerons sur le domaine classique du partage de secret en présentant un cadre théorique général portant sur la construction de ces primitives illustrant tout au long les concepts introduits par des exemples présentés pour leurs intérêts autant historiques que pédagogiques. Ceci préparera le chemin pour notre exposé sur la théorie quantique du partage de secret qui sera le focus de la seconde partie de ce même chapitre. Nous présenterons alors les théorèmes et définitions les plus généraux connus à date portant sur la construction de ces primitives en portant un intérêt particulier au partage quantique à seuil. Nous montrerons le lien étroit entre la théorie quantique des codes correcteurs d’erreurs et celle du partage de secret. Ce lien est si étroit que l’on considère les codes correcteurs d’erreurs quantiques étaient de plus proches analogues aux partages de secrets quantiques que ne leur étaient les codes de partage de secrets classiques. Finalement, nous présenterons un de nos trois résultats parus dans A. Broadbent, P.-R. Chouha, A. Tapp (2009); un protocole sécuritaire et minimal de partage de secret quantique a seuil (les deux autres résultats dont nous traiterons pas ici portent sur la complexité de la communication et sur la simulation classique de l’état de GHZ).
Resumo:
Objectifs: Les patients hospitalisés aux soins intensifs (SI) sont souvent victimes d’erreurs médicales. La nature interprofessionnelle des équipes de SI les rend vulnérables aux erreurs de communication. L’objectif primaire du projet est d’améliorer la communication dans une équipe interprofessionnelle de soins intensifs par une formation en simulation à haute fidélité. Méthodologie Une étude prospective randomisée contrôlée à double insu a été réalisée. Dix équipes de six professionnels de SI ont complété trois scénarios de simulations de réanimation. Le groupe intervention était débreffé sur des aspects de communication alors que le groupe contrôle était débreffé sur des aspects techniques de réanimation. Trois mois plus tard, les équipes réalisaient une quatrième simulation sans débreffage. Les simulations étaient toutes évaluées pour la qualité, l’efficacité de la communication et le partage des informations critiques par quatre évaluateurs. Résultats Pour l’issue primaire, il n’y a pas eu d’amélioration plus grande de la communication dans le groupe intervention en comparaison avec le groupe contrôle. Une amélioration de 16% de l’efficacité des communications a été notée dans les équipes de soins intensifs indépendamment du groupe étudié. Les infirmiers et les inhalothérapeutes ont amélioré significativement l’efficacité de la communication après trois sessions. L’effet observé ne s’est pas maintenu à trois mois. Conclusion Une formation sur simulateur à haute fidélité couplée à un débreffage peut améliorer à court terme l’efficacité des communications dans une équipe interprofessionnelle de SI.
Resumo:
La littérature contient une abondance d’information sur les approches de design impliquant les utilisateurs. Bien que les chercheurs soulèvent de nombreux avantages concernant ces approches, on en sait peu sur ce que les concepteurs des entreprises en pensent. Ce projet a pour but de connaître les perceptions des concepteurs de produits quant aux outils de design participatif puis, d’identifier les opportunités et limites qu’ils évoquent à ce sujet, et finalement, de faire des suggestions d’outils qui faciliteraient l’introduction du design participatif dans un processus de design existant. Après avoir fait un survol du domaine du design participatif et de ses outils, six cas sont étudiés au moyen d’entrevues semi-dirigées conduites auprès de concepteurs de produits. Les données sont analysées à l’aide de cartes cognitives. En ce qui concerne les outils de design participatif, les participants rencontrés perçoivent un accès direct aux besoins des utilisateurs et la possibilité de minimiser les erreurs en début de processus donc, d’éviter les modifications coûteuses qu’elles auraient entraînées. Les obstacles perçus par les concepteurs sont principalement liés à la résistance au changement, à la crainte de laisser créer ou décider les utilisateurs, ainsi qu’au manque de temps et de ressources de l’équipe. Finalement, sur la base des informations collectées, nous suggérons quatre outils de design participatif qui semblent plus intéressants : l’enquête contextuelle, les sondes, les tests de prototypes et l’approche « lead user ». Pour faire suite à ce travail, il serait intéressant d’élaborer un protocole de recherche plus exhaustif pour augmenter la portée des résultats, ou encore, d’appliquer le design participatif, dans une entreprise, afin d’explorer la satisfaction des gens quant aux produits conçus, les effets collatéraux sur les équipes impliquées, l’évolution des prototypes ou le déroulement des ateliers.
Resumo:
Le centromère est le site chromosomal où le kinetochore se forme, afin d’assurer une ségrégation fidèles des chromosomes et ainsi maintenir la ploïdie appropriée lors de la mitose. L’identité du centromere est héritée par un mécanisme épigénétique impliquant une variante de l’histone H3 nommée centromere protein-A (CENP-A), qui remplace l’histone H3 au niveau de la chromatine du centromère. Des erreurs de propagation de la chromatine du centromère peuvent mener à des problèmes de ségrégation des chromosomes, pouvant entraîner l’aneuploïdie, un phénomène fréquemment observé dans le cancer. De plus, une expression non-régulée de CENP-A a aussi été rapportée dans différentes tumeurs humaines. Ainsi, plusieurs études ont cherchées à élucider la structure et le rôle de la chromatine contenant CENP-A dans des cellules en prolifération. Toutefois, la nature moléculaire de CENP-A en tant que marqueur épigénétique ainsi que ces dynamiques à l'extérieur du cycle cellulaire demeurent des sujets débat. Dans cette thèse, une nouvelle méthode de comptage de molécules uniques à l'aide de la microscopie à réflexion totale interne de la fluorescence (TIRF) sera décrite, puis exploitée afin d'élucider la composition moléculaire des nucléosomes contenant CENP-A, extraits de cellules en prolifération. Nous démontrons que les nucléosomes contenant CENP-A marquent les centromères humains de façon épigénétique à travers le cycle cellulaire. De plus, nos données démontrent que la forme prénucléosomale de CENP-A, en association avec la protéine chaperon HJURP existe sous forme de monomère et de dimère, ce qui reflète une étape intermédiaire de l'assemblage de nucléosomes contenant CENP-A. Ensuite, des analyses quantitatives de centromères lors de différenciation myogénique, et dans différents tissus adultes révèlent des changements globaux qui maintiennent la marque épigénétique dans une forme inactive suite à la différentiation terminale. Ces changements incluent une réduction du nombre de points focaux de CENP-A, un réarrangement des points dans le noyau, ainsi qu'une réduction importante de la quantité de CENP-A. De plus, nous démontrons que lorsqu'une dédifférenciation cellulaire est induite puis le cycle cellulaire ré-entamé, le phénotype "différencié" décrit ci-haut est récupéré, et les centromères reprennent leur phénotype "prolifératif". En somme, cet oeuvre décrit la composition structurale sous-jacente à l'identité épigénétique des centromères de cellules humaines lors du cycle cellulaire, et met en lumière le rôle de CENP-A à l'extérieur du cycle cellulaire.
Resumo:
Le contenu de cette thèse est divisé de la façon suivante. Après un premier chapitre d’introduction, le Chapitre 2 est consacré à introduire aussi simplement que possible certaines des théories qui seront utilisées dans les deux premiers articles. Dans un premier temps, nous discuterons des points importants pour la construction de l’intégrale stochastique par rapport aux semimartingales avec paramètre spatial. Ensuite, nous décrirons les principaux résultats de la théorie de l’évaluation en monde neutre au risque et, finalement, nous donnerons une brève description d’une méthode d’optimisation connue sous le nom de dualité. Les Chapitres 3 et 4 traitent de la modélisation de l’illiquidité et font l’objet de deux articles. Le premier propose un modèle en temps continu pour la structure et le comportement du carnet d’ordres limites. Le comportement du portefeuille d’un investisseur utilisant des ordres de marché est déduit et des conditions permettant d’éliminer les possibilités d’arbitrages sont données. Grâce à la formule d’Itô généralisée il est aussi possible d’écrire la valeur du portefeuille comme une équation différentielle stochastique. Un exemple complet de modèle de marché est présenté de même qu’une méthode de calibrage. Dans le deuxième article, écrit en collaboration avec Bruno Rémillard, nous proposons un modèle similaire mais cette fois-ci en temps discret. La question de tarification des produits dérivés est étudiée et des solutions pour le prix des options européennes de vente et d’achat sont données sous forme explicite. Des conditions spécifiques à ce modèle qui permettent d’éliminer l’arbitrage sont aussi données. Grâce à la méthode duale, nous montrons qu’il est aussi possible d’écrire le prix des options européennes comme un problème d’optimisation d’une espérance sur en ensemble de mesures de probabilité. Le Chapitre 5 contient le troisième article de la thèse et porte sur un sujet différent. Dans cet article, aussi écrit en collaboration avec Bruno Rémillard, nous proposons une méthode de prévision des séries temporelles basée sur les copules multivariées. Afin de mieux comprendre le gain en performance que donne cette méthode, nous étudions à l’aide d’expériences numériques l’effet de la force et la structure de dépendance sur les prévisions. Puisque les copules permettent d’isoler la structure de dépendance et les distributions marginales, nous étudions l’impact de différentes distributions marginales sur la performance des prévisions. Finalement, nous étudions aussi l’effet des erreurs d’estimation sur la performance des prévisions. Dans tous les cas, nous comparons la performance des prévisions en utilisant des prévisions provenant d’une série bivariée et d’une série univariée, ce qui permet d’illustrer l’avantage de cette méthode. Dans un intérêt plus pratique, nous présentons une application complète sur des données financières.
Resumo:
La chimie est un sujet difficile étant donné ses concepts nombreux et souvent peu intuitifs. Mais au-delà de ces difficultés d’ordre épistémologique, l’apprentissage de la chimie peut être en péril lorsqu’il s’appuie sur des fondations instables, mêlées de conceptions alternatives. Les conceptions alternatives sont les représentations internes, tacites, des étudiants, qui sont en désaccord avec la théorie scientifiquement acceptée. Leur présence dans leur esprit peut nuire à la compréhension conceptuelle, et elle peut mener les étudiants à expliquer le comportement de la matière incorrectement et à faire des prédictions inexactes en chimie. Les conceptions alternatives sont réputées répandues et difficiles à repérer dans un cadre traditionnel d’enseignement. De nombreuses conceptions alternatives en chimie ont été mises en lumière par différents groupes de chercheurs internationaux, sans toutefois qu’une telle opération n’ait jamais été réalisée avec des étudiants collégiaux québécois. Le système d’éducation postsecondaire québécois représentant un contexte unique, une étude des difficultés particulières de ces étudiants était nécessaire pour tracer un portrait juste de la situation. De plus, des chercheurs proposent aujourd’hui de ne pas faire uniquement l’inventaire des conceptions, mais de s’attarder aussi à étudier comment, par quel processus, elles mènent à de mauvaises prédictions ou explications. En effet, ils soutiennent que les catalogues de conceptions ne peuvent pas être facilement utilisés par les enseignants, ce qui devrait pourtant être la raison pour les mettre en lumière : qu’elles soient prises en compte dans l’enseignement. Toutefois, aucune typologie satisfaisante des raisonnements et des conceptions alternatives en chimie, qui serait appuyée sur des résultats expérimentaux, n’existe actuellement dans les écrits de recherche. Plusieurs chercheurs en didactique de la chimie suggèrent qu’une telle typologie est nécessaire et devrait rendre explicites les modes de raisonnement qui mettent en jeu ces conceptions alternatives. L’explicitation du raisonnement employé par les étudiants serait ainsi la voie permettant de repérer la conception alternative sur laquelle ce raisonnement s’appuie. Le raisonnement est le passage des idées tacites aux réponses manifestes. Ce ne sont pas toutes les mauvaises réponses en chimie qui proviennent de conceptions alternatives : certaines proviennent d’un manque de connaissances, d’autres d’un agencement incorrect de concepts pourtant corrects. Comme toutes les sortes de mauvaises réponses d’étudiants sont problématiques lors de l’enseignement, il est pertinent de toutes les considérer. Ainsi, ces préoccupations ont inspiré la question de recherche suivante : Quelles conceptions alternatives et quels processus de raisonnement mènent les étudiants à faire de mauvaises prédictions en chimie ou à donner de mauvaises explications du comportement de la matière? C’est pour fournir une réponse à cette question que cette recherche doctorale a été menée. Au total, 2413 étudiants ont participé à la recherche, qui était divisée en trois phases : la phase préliminaire, la phase pilote et la phase principale. Des entrevues cliniques ont été menées à la phase préliminaire, pour explorer les conceptions alternatives des étudiants en chimie. Lors de la phase pilote, des questionnaires à choix multiples avec justification ouverte des réponses ont été utilisés pour délimiter le sujet, notamment à propos des notions de chimie les plus pertinentes sur lesquelles concentrer la recherche et pour mettre en lumière les façons de raisonner des étudiants à propos de ces notions. La phase principale, quant à elle, a utilisé le questionnaire à deux paliers à choix multiples « Molécules, polarité et phénomènes » (MPP) développé spécifiquement pour cette recherche. Ce questionnaire a été distribué aux étudiants via une adaptation de la plateforme Web ConSOL, développée durant la recherche par le groupe de recherche dont fait partie la chercheuse principale. Les résultats montrent que les étudiants de sciences de la nature ont de nombreuses conceptions alternatives et autres difficultés conceptuelles, certaines étant très répandues parmi leur population. En particulier, une forte proportion d’étudiants croient que l’évaporation d’un composé entraîne le bris des liaisons covalentes de ses molécules (61,1 %), que tout regroupement d’atomes est une molécule (78,9 %) et que les atomes ont des propriétés macroscopiques pareilles à celles de l’élément qu’ils constituent (66,0 %). D’un autre côté, ce ne sont pas toutes les mauvaises réponses au MPP qui montrent des conceptions alternatives. Certaines d’entre elles s’expliquent plutôt par une carence dans les connaissances antérieures (par exemple, lorsque les étudiants montrent une méconnaissance d’éléments chimiques communs, à 21,8 %) ou par un raisonnement logique incomplet (lorsqu’ils croient que le seul fait de posséder des liaisons polaires rend nécessairement une molécule polaire, ce qu’on observe chez 24,1 % d’entre eux). Les conceptions alternatives et les raisonnements qui mènent à des réponses incorrectes s’observent chez les étudiants de première année et chez ceux de deuxième année du programme de sciences, dans certains cas avec une fréquence diminuant entre les deux années, et dans d’autres, à la même fréquence chez les deux sous-populations. Ces résultats permettent de mitiger l’affirmation, généralement reconnue dans les écrits de recherche, selon laquelle les conceptions alternatives sont résistantes à l’enseignement traditionnel : selon les résultats de la présente recherche, certaines d’entre elles semblent en effet se résoudre à travers un tel contexte d’enseignement. Il demeure que plusieurs conceptions alternatives, carences dans les connaissances antérieures de base et erreurs de raisonnement ont été mises en lumière par cette recherche. Ces problèmes dans l’apprentissage mènent les étudiants collégiaux à faire des prédictions incorrectes du comportement de la matière, ou à expliquer ce comportement de façon incorrecte. Au regard de ces résultats, une réflexion sur l’enseignement de la chimie au niveau collégial, qui pourrait faire une plus grande place à la réflexion conceptuelle et à l’utilisation du raisonnement pour la prédiction et l’explication des phénomènes étudiés, serait pertinente à tenir.
Resumo:
Une variété de modèles sur le processus de prise de décision dans divers contextes présume que les sujets accumulent les évidences sensorielles, échantillonnent et intègrent constamment les signaux pour et contre des hypothèses alternatives. L'intégration continue jusqu'à ce que les évidences en faveur de l'une des hypothèses dépassent un seuil de critère de décision (niveau de preuve exigé pour prendre une décision). De nouveaux modèles suggèrent que ce processus de décision est plutôt dynamique; les différents paramètres peuvent varier entre les essais et même pendant l’essai plutôt que d’être un processus statique avec des paramètres qui ne changent qu’entre les blocs d’essais. Ce projet de doctorat a pour but de démontrer que les décisions concernant les mouvements d’atteinte impliquent un mécanisme d’accumulation temporelle des informations sensorielles menant à un seuil de décision. Pour ce faire, nous avons élaboré un paradigme de prise de décision basée sur un stimulus ambigu afin de voir si les neurones du cortex moteur primaire (M1), prémoteur dorsal (PMd) et préfrontal (DLPFc) démontrent des corrélats neuronaux de ce processus d’accumulation temporelle. Nous avons tout d’abord testé différentes versions de la tâche avec l’aide de sujets humains afin de développer une tâche où l’on observe le comportement idéal des sujets pour nous permettre de vérifier l’hypothèse de travail. Les données comportementales chez l’humain et les singes des temps de réaction et du pourcentage d'erreurs montrent une augmentation systématique avec l'augmentation de l'ambigüité du stimulus. Ces résultats sont cohérents avec les prédictions des modèles de diffusion, tel que confirmé par une modélisation computationnelle des données. Nous avons, par la suite, enregistré des cellules dans M1, PMd et DLPFc de 2 singes pendant qu'ils s'exécutaient à la tâche. Les neurones de M1 ne semblent pas être influencés par l'ambiguïté des stimuli mais déchargent plutôt en corrélation avec le mouvement exécuté. Les neurones du PMd codent la direction du mouvement choisi par les singes, assez rapidement après la présentation du stimulus. De plus, l’activation de plusieurs cellules du PMd est plus lente lorsque l'ambiguïté du stimulus augmente et prend plus de temps à signaler la direction de mouvement. L’activité des neurones du PMd reflète le choix de l’animal, peu importe si c’est une bonne réponse ou une erreur. Ceci supporte un rôle du PMd dans la prise de décision concernant les mouvements d’atteinte. Finalement, nous avons débuté des enregistrements dans le cortex préfrontal et les résultats présentés sont préliminaires. Les neurones du DLPFc semblent beaucoup plus influencés par les combinaisons des facteurs de couleur et de position spatiale que les neurones du PMd. Notre conclusion est que le cortex PMd est impliqué dans l'évaluation des évidences pour ou contre la position spatiale de différentes cibles potentielles mais assez indépendamment de la couleur de celles-ci. Le cortex DLPFc serait plutôt responsable du traitement des informations pour la combinaison de la couleur et de la position des cibles spatiales et du stimulus ambigu nécessaire pour faire le lien entre le stimulus ambigu et la cible correspondante.
Resumo:
La musique est universelle et le chant est le moyen d’expression musicale le plus accessible à tous. Les enfants chantent spontanément entre un an et un an et demi (Ostwald, 1973). Pourtant, le développement de cette habileté est très peu étudié en neuropsychologie et ce, malgré le fait qu’elle représente une immense source d’informations sur le traitement de la musique par le cerveau. Les études proposées ici visaient à mieux comprendre le développement normal et pathologique des fonctions perceptives et vocales. Dans un premier temps, une étude sur le chant normal chez les enfants de 6 à 11 ans est présentée. Le développement du chant de 79 enfants d’âge scolaire y est analysé de manière systématique et objective. Cette étude se penche plus particulièrement sur l’influence de l’âge ainsi que d’autres facteurs (le genre, la perception musicale, la présence de paroles et la présence d’un accompagnement vocal) sur la qualité du chant. Les jeunes participants ont chanté une chanson familière dans différentes conditions, soit avec et sans paroles, après un modèle ainsi qu’à l’unisson avec ce dernier. Suite à l’analyse acoustique des performances, différentes variables mélodiques et rythmiques telles que le nombre d’erreurs d’intervalles, le nombre d’erreurs de contours, la taille des déviations d’intervalles, le nombre d’erreurs rythmiques, la taille des déviations temporelles et le tempo, ont été calculés. Les résultats montrent que certaines habiletés de base liées au chant se développent toujours après 6 ans. Toutefois, le rythme est maîtrisé plus tôt, et les enfants d’âges scolaires réussissent parfois mieux que les adultes sur le plan rythmique. De plus, il est plus difficile pour les enfants de chanter avec des ii paroles que sur une syllabe et chanter à l’unisson représente un défi plus grand que chanter après un modèle. Par ailleurs, le nombre d’erreurs de contours, d’intervalles et de rythme, de même que la taille des erreurs rythmiques, sont liés à nos mesures de perception musicale. La seconde étude présente le premier cas documenté d’amusie congénitale chez l’enfant. Elle implique l’analyse de la perception musicale et du chant d’une fillette de 10 ans nous ayant été référée par son directeur de chorale. De sévères déficits ont été relevés chez elle et un diagnostic d’amusie congénitale fut posé. En effet, ses résultats aux tests visant à évaluer sa perception musicale indiquent d’importantes difficultés tant sur le plan de la discrimination des différences mélodiques et rythmiques, qu’au niveau de la mémoire des mélodies. La fillette présente des lacunes claires quant à la perception des fines différences de hauteurs. L’analyse des réponses cérébrales en potentiels évoqués suggère que l’enfant souffre de déficits situés tôt au cours des processus de traitement auditif, tel que démontré par l’absence de négativité de discordance (MMN). Le chant de la jeune fille est lui aussi déficitaire, particulièrement en ce qui concerne le nombre d’erreurs d’intervalles et leurs tailles. En conclusion, nos études montrent que les aptitudes pour le chant sont toujours en développement au cours des premières années de scolarisation. Ce développement peut être entravé par la présence d’un déficit lié spécifiquement à la perception musicale. Pour la première fois, l’amusie congénitale, sera décrite chez l’enfant.
Resumo:
Introduction et objectifs : Alors que l'effet moteur de la lévodopa (L-dopa) dans la maladie de Parkinson (MP) est clair et établi, son effet sur la cognition demeure incertain. Les troubles cognitifs ont un impact important sur la qualité de vie et les études évaluant l'effet cognitif de ce médicament donnent des résultats encore divergents. L’objectif primaire de cette étude pilote est d’observer l’impact des doses cliniques de lévodopa sur la cognition. Un second objectif sera d'établir une courbe dose-réponse pour observer les différences potentielles. Méthodes : Cinq patients avec MP ont été évalués à l’aide de 2 tests cognitifs (CPT-II et Stroop) et 2 tests moteurs (Finger Tapping et UPDRS-III) en OFF (sevrage minimal de 12 heures) et en ON avec des doses croissantes de lévodopa (commençant à 50mg avec une augmentation de dose de 50mg par visite) jusqu’à l'observation d'une performance cognitive optimale ou d'effets secondaires. Une administration répétée des tests cognitifs a été faite à la première visite pour limiter l’effet d’apprentissage. Résultats : Le temps de réaction (RT) mesuré en millisecondes au CPT-II a augmenté (médiane 3.03%) après la prise de médicament alors que les erreurs ont légèrement diminué (médiane -9.92%). Au Stroop, l’effet d’interférence évalué selon les changements au temps d’inhibition mesuré en secondes était légèrement moindre sans changement dans les erreurs. Avec les doses prescrites, le RT a augmenté de 3,50% et le nombre d’erreurs est resté stable alors que les doses inférieures ont eu une moindre augmentation du RT tout en diminuant les erreurs. Dans le Stroop, les doses faibles ont amélioré le temps de près de 19% alors que les doses prescrites ont quant à elles diminué les erreurs. Malgré une certaine variabilité, la courbe dose-réponse indique que les erreurs diminuaient aux doses faibles et fortes dans le CPT-II alors que le RT augmentait généralement, ce qui pourrait indiquer un style de performance plus prudent. L’effet de la lévodopa sur l’interférence dans le Stroop variait légèrement sans tendances fixes mis à part le bénéfice observé par les doses faibles. Une importante variabilité a été observée dans les évaluations motrices entre les sujets ainsi qu'au sein du même sujet. Conclusion : Ces résultats indiquent qu’en général, le médicament ne semble pas avoir d’effet néfaste important sur l’attention et les fonctions exécutives évaluées auprès de ce groupe de patients parkinsoniens. L'effet cognitif des doses plus faibles semble leur être bénéfique et meilleur que les doses cliniquement prescrites. La relation dose-réponse démontre un effet cognitif variable de la lévodopa entre les doses, n'indiquant toutefois pas de tendances claires.
L’intégration de la prise de décision visuo-motrice et d’action motrice dans des conditions ambiguës
Resumo:
La prise de décision est un mécanisme qui fait intervenir les structures neuronales supérieures afin d’effectuer un lien entre la perception du signal et l’action. Plusieurs travaux qui cherchent à comprendre les mécanismes de la prise de décision sont menés à divers ni- veaux allant de l’analyse comportementale cognitive jusqu'à la modélisation computationnelle. Le but de ce projet a été d’évaluer d’un instant à l’autre comment la variabilité du signal observé («bruit»), influence la capacité des sujets humains à détecter la direction du mouvement dans un stimulus visuel. Dans ces travaux, nous avons éliminé l’une des sources potentielles de variabilité, la variabilité d’une image à l’autre, dans le nombre de points qui portaient les trois signaux de mouvements cohérents (gauche, droite, et aléatoire) dans les stimuli de Kinématogramme de points aléatoires (KPA), c’est-à-dire la variabilité d’origine périphérique. Les stimuli KPA de type « V6 » étaient des stimuli KPA standard avec une variabilité instantanée du signal, et par contre les stimuli KPA de type « V8 », étaient modifiés pour éliminer la variabilité stochastique due à la variabilité du nombre de pixels d’un instant à l’autre qui portent le signal cohérent. Si la performance des sujets, qui correspond à leur temps de réaction et au nombre de bonnes réponses, diffère en réponse aux stimuli dont le nombre de points en mouvement cohérent varie (V6) ou ne varie pas (V8), ceci serait une preuve que la variabilité d’origine périphérique modulerait le processus décisionnel. Par contre, si la performance des sujets ne diffère pas entre ces deux types de stimuli, ceci serait une preuve que la source majeure de variabilité de performance est d’origine centrale. Dans nos résultats nous avons constaté que le temps de réaction et le nombre de bonnes réponses sont modulés par la preuve nette du mouvement cohérent. De plus on a pu établir qu’en éliminant la variabilité d’origine périphérique définit ci-dessus, on n’observe pas réellement de modification dans les enregistrements. Ce qui nous à amené à penser qu’il n y a pas de distinction claire entre la distribution des erreurs et les bonnes réponses effectuées pour chacun des essais entre les deux stimuli que nous avons utilisé : V6 et V8. C’est donc après avoir mesuré la « quantité d’énergie » que nous avons proposé que la variabilité observée dans les résultats serait probablement d’origine centrale.
Resumo:
Introduction : Bien que la pratique de l’usage de la warfarine se soit améliorée au cours de la dernière décennie, aucune recommandation claire basée sur le dosage de l’amiodarone n’a été jusqu’à maintenant standardisée, ce qui représente un grand obstacle pour les cliniciens. La warfarine a un index thérapeutique étroit nécessitant un suivi régulier et un ajustement individuel de la posologie, ceci afin de déterminer la dose thérapeutique, tout en prévenant les effets secondaires qui pourraient être fatals dans certains cas. La variabilité interindividuelle de la réponse à la warfarine dépend de plusieurs facteurs, dont l’âge, le sexe, le poids, l’alimentation et l’interaction médicamenteuse, mais ceux-ci n’expliquent que partiellement les différences de sensibilité à la warfarine. Les polymorphismes des gènes CYP2C9 et VKORC1 jouent un rôle important dans la réponse à la warfarine et expliquent jusqu’à 50% de la variabilité des doses. L’utilisation d’antiarythmiques telle l’amiodarone peut accentuer considérablement l’effet de la warfarine et nécessite généralement une diminution de 30 à 50% de la dose de la warfarine. Aucune étude à ce jour n’a tenté de déterminer l’utilité du génotypage des polymorphismes des gènes CYP2C9 et VKORC1 chez les patients sous traitement combiné de warfarine et amiodarone. Objectif : Notre étude a pour objectif tout d’abord de déterminer si des facteurs génétiques influencent la première dose de stabilisation de la warfarine chez les patients en FA après l’introduction de l’amiodarone. Nous allons également tenter de confirmer l’association préalablement rapportée entre les facteurs génétiques et la première dose de stabilisation de warfarine dans notre population à l’étude. Méthodes : Un devis de cohorte rétrospective de patients qui fréquentaient la clinique d'anticoagulothérapie de l’Institut de cardiologie de Montréal entre le 1er janvier 2007 et le 29 février 2008 pour l’ajustement de leur dose selon les mesures d'INR. Au total, 1615 patients ont été recrutés pour participer à cette étude de recherche. Les critères de sélection des patients étaient les patients avec fibrillation auriculaire ou flutter, ayant un ECG documenté avec l'un de ces deux diagnostics et âgé de moins de 67 ans, en raison d’une moindre comorbidité. Les patients souffrant d’insuffisance hépatique chronique ont été écartés de l’étude. Tous les patients devaient signer un consentement éclairé pour leur participation au projet et échantillon de sang a été pri pour les tests génétiques. La collecte des données a été effectuée à partir du dossier médical du patient de l’Institut de cardiologie de Montréal. Un formulaire de collecte de données a été conçu à cet effet et les données ont ensuite été saisies dans une base de données SQL programmée par un informaticien expert dans ce domaine. La validation des données a été effectuée en plusieurs étapes pour minimiser les erreurs. Les analyses statistiques utilisant des tests de régression ont été effectuées pour déterminer l’association des variants génétiques avec la première dose de warfarine. Résultats : Nous avons identifié une association entre les polymorphismes des gènes CYP2C9 et VKORC1 et la dose de la warfarine. Les polymorphismes génétiques expliquent jusqu’à 42% de la variabilité de dose de la warfarine. Nous avons également démontré que certains polymorphismes génétiques expliquent la réduction de la dose de warfarine lorsque l’amiodarone est ajoutée à la warfarine. Conclusion : Les travaux effectués dans le cadre de ce mémoire ont permis de démontrer l’implication des gènes CYP2C9 et VKORC1 dans la réponse au traitement avec la warfarine et l’amiodarone. Les résultats obtenus permettent d’établir un profil personnalisé pour réduire les risques de toxicité, en permettant un dosage plus précis de la warfarine pour assurer un meilleur suivi des patients. Dans le futur, d’autres polymorphismes génétiques dans ces gènes pourraient être évalués pour optimiser davantage la personnalisation du traitement.
Resumo:
Le suivi thérapeutique est recommandé pour l’ajustement de la dose des agents immunosuppresseurs. La pertinence de l’utilisation de la surface sous la courbe (SSC) comme biomarqueur dans l’exercice du suivi thérapeutique de la cyclosporine (CsA) dans la transplantation des cellules souches hématopoïétiques est soutenue par un nombre croissant d’études. Cependant, pour des raisons intrinsèques à la méthode de calcul de la SSC, son utilisation en milieu clinique n’est pas pratique. Les stratégies d’échantillonnage limitées, basées sur des approches de régression (R-LSS) ou des approches Bayésiennes (B-LSS), représentent des alternatives pratiques pour une estimation satisfaisante de la SSC. Cependant, pour une application efficace de ces méthodologies, leur conception doit accommoder la réalité clinique, notamment en requérant un nombre minimal de concentrations échelonnées sur une courte durée d’échantillonnage. De plus, une attention particulière devrait être accordée à assurer leur développement et validation adéquates. Il est aussi important de mentionner que l’irrégularité dans le temps de la collecte des échantillons sanguins peut avoir un impact non-négligeable sur la performance prédictive des R-LSS. Or, à ce jour, cet impact n’a fait l’objet d’aucune étude. Cette thèse de doctorat se penche sur ces problématiques afin de permettre une estimation précise et pratique de la SSC. Ces études ont été effectuées dans le cadre de l’utilisation de la CsA chez des patients pédiatriques ayant subi une greffe de cellules souches hématopoïétiques. D’abord, des approches de régression multiple ainsi que d’analyse pharmacocinétique de population (Pop-PK) ont été utilisées de façon constructive afin de développer et de valider adéquatement des LSS. Ensuite, plusieurs modèles Pop-PK ont été évalués, tout en gardant à l’esprit leur utilisation prévue dans le contexte de l’estimation de la SSC. Aussi, la performance des B-LSS ciblant différentes versions de SSC a également été étudiée. Enfin, l’impact des écarts entre les temps d’échantillonnage sanguins réels et les temps nominaux planifiés, sur la performance de prédiction des R-LSS a été quantifié en utilisant une approche de simulation qui considère des scénarios diversifiés et réalistes représentant des erreurs potentielles dans la cédule des échantillons sanguins. Ainsi, cette étude a d’abord conduit au développement de R-LSS et B-LSS ayant une performance clinique satisfaisante, et qui sont pratiques puisqu’elles impliquent 4 points d’échantillonnage ou moins obtenus dans les 4 heures post-dose. Une fois l’analyse Pop-PK effectuée, un modèle structural à deux compartiments avec un temps de délai a été retenu. Cependant, le modèle final - notamment avec covariables - n’a pas amélioré la performance des B-LSS comparativement aux modèles structuraux (sans covariables). En outre, nous avons démontré que les B-LSS exhibent une meilleure performance pour la SSC dérivée des concentrations simulées qui excluent les erreurs résiduelles, que nous avons nommée « underlying AUC », comparée à la SSC observée qui est directement calculée à partir des concentrations mesurées. Enfin, nos résultats ont prouvé que l’irrégularité des temps de la collecte des échantillons sanguins a un impact important sur la performance prédictive des R-LSS; cet impact est en fonction du nombre des échantillons requis, mais encore davantage en fonction de la durée du processus d’échantillonnage impliqué. Nous avons aussi mis en évidence que les erreurs d’échantillonnage commises aux moments où la concentration change rapidement sont celles qui affectent le plus le pouvoir prédictif des R-LSS. Plus intéressant, nous avons mis en exergue que même si différentes R-LSS peuvent avoir des performances similaires lorsque basées sur des temps nominaux, leurs tolérances aux erreurs des temps d’échantillonnage peuvent largement différer. En fait, une considération adéquate de l'impact de ces erreurs peut conduire à une sélection et une utilisation plus fiables des R-LSS. Par une investigation approfondie de différents aspects sous-jacents aux stratégies d’échantillonnages limités, cette thèse a pu fournir des améliorations méthodologiques notables, et proposer de nouvelles voies pour assurer leur utilisation de façon fiable et informée, tout en favorisant leur adéquation à la pratique clinique.
Resumo:
L’archive erronée dans l’œuvre d’Anne Carson enquête sur les effets que peuvent entraîner l’archive classique sur la poésie d’Anne Carson et révèle que le travail de cette dernière est issu de l’espace situé entre la critique et la créativité, ce qui génère ce qu’on appellera une « poétique de l’erreur ». La poésie de Carson se démarque par sa prédilection pour les accidents, les imperfections et les impondérables de la transmission. La présente dissertation émerge des attitudes critiques ambivalentes face à la dualité de l’identité de Carson, autant poète qu’universitaire, et leur offrira une réponse. Alors que l’objectif traditionnel du philologue classique est de reconstruire le sens du texte « original », l’approche poétique de Carson sape en douce les prétentions universitaires d’exactitude, de précision et de totalisation. La rencontre de Carson avec l’archive classique embrasse plutôt les bourdes, les mauvaises lectures et les erreurs de traduction inhérentes à la transmission et à la réception de traductions classiques. La poésie de Carson est ludique, sexuée et politique. Sa manière de jouer avec l’épave du passé classique torpille la patri-archive, telle que critiquée par Derrida dans Mal d’Archive ; c’est-à-dire cette archive considérée comme un point d’origine stable grâce auquel s’orienter. De plus, en remettant en question la notion de l’archive classique en tant qu’origine de la civilisation occidentale, Carson offre simultanément une critique de l’humanisme, en particulier au plan de la stabilité, du caractère mesurable et de l’autonomie de « l’homme ». L’archive, pour Carson, est ouverte, en cours et incomplète ; les manques linguistiques, chronologiques et affectifs de l’archive classique représentent ainsi des sources d’inspiration poétique. La présente dissertation étudie quatre dimensions de l’archive classique : la critique, la saphique, l’élégiaque et l’érotique. Grâce à ces coordonnées, on y établit le statut fragmentaire et fissuré du passé classique, tel que conçu par Carson. Si le fondement classique sur lequel la culture occidentale a été conçue est fissuré, qu’en est-il de la stabilité, des frontières et des catégories que sont le genre, la langue et le texte ? L’ouverture de l’archive critique de manière implicite les désirs de totalité associés au corps du texte, à la narration, à la traduction et à l’érotisme. En offrant une recension exhaustive de sa poétique, L’archive erronée dans l’œuvre d’Anne Carson tente d’analyser l’accueil hostile qu’elle a subi, contribue à renforcer la documentation sans cesse croissante dont elle fait l’objet et anticipe sa transmutation actuelle de médium et de genre, sa migration de la page à la scène.