265 resultados para Basses fréquences
Resumo:
Dans le cadre de cette thèse, nous investiguons la capacité de chaque hémisphère cérébral à utiliser l’information visuelle disponible lors de la reconnaissance de mots. Il est généralement convenu que l’hémisphère gauche (HG) est mieux outillé pour la lecture que l’hémisphère droit (HD). De fait, les mécanismes visuoperceptifs utilisés en reconnaissance de mots se situent principalement dans l’HG (Cohen, Martinaud, Lemer et al., 2003). Puisque les lecteurs normaux utilisent optimalement des fréquences spatiales moyennes (environ 2,5 - 3 cycles par degré d’angle visuel) pour reconnaître les lettres, il est possible que l’HG les traite mieux que l’HD (Fiset, Gosselin, Blais et Arguin, 2006). Par ailleurs, les études portant sur la latéralisation hémisphérique utilisent habituellement un paradigme de présentation en périphérie visuelle. Il a été proposé que l’effet de l’excentricité visuelle sur la reconnaissance de mots soit inégal entre les hémichamps. Notamment, la première lettre est celle qui porte habituellement le plus d’information pour l’identification d’un mot. C’est aussi la plus excentrique lorsque le mot est présenté à l’hémichamp visuel gauche (HVG), ce qui peut nuire à son identification indépendamment des capacités de lecture de l’HD. L’objectif de la première étude est de déterminer le spectre de fréquences spatiales utilisé par l’HG et l’HD en reconnaissance de mots. Celui de la deuxième étude est d’explorer les biais créés par l’excentricité et la valeur informative des lettres lors de présentation en champs divisés. Premièrement, nous découvrons que le spectre de fréquences spatiales utilisé par les deux hémisphères en reconnaissance de mots est globalement similaire, même si l’HG requière moins d’information visuelle que l’HD pour atteindre le même niveau de performance. Étonnament toutefois, l’HD utilise de plus hautes fréquences spatiales pour identifier des mots plus longs. Deuxièmement, lors de présentation à l’HVG, nous trouvons que la 1re lettre, c’est à dire la plus excentrique, est parmi les mieux identifiées même lorsqu’elle a une plus grande valeur informative. Ceci est à l’encontre de l’hypothèse voulant que l’excentricité des lettres exerce un biais négatif pour les mots présentés à l’HVG. De façon intéressante, nos résultats suggèrent la présence d’une stratégie de traitement spécifique au lexique.
Resumo:
Bien que la douleur soit une expérience subjective universelle, la façon de la percevoir et de l’interpréter est modulée par une multitude de facteurs. Plusieurs interventions cognitives se sont montrées efficaces pour réduire la douleur dans des conditions cliniques et expérimentales. Cette thèse s’intéressera particulièrement aux mécanismes psychophysiologiques impliqués dans les stratégies de modulation volontaire de la douleur. Ces stratégies sont intéressantes puisqu’elles encouragent une prise en charge par l’individu, lui permettant de jouer un rôle actif dans la régulation de sa douleur. La première étude s’intéresse à l’efficacité du biofeedback comme moyen de modulation volontaire de la douleur. Il s’agissait de déterminer si le fait de présenter une rétroaction de l’amplitude du réflex RIII (évoqué par une stimulation électrique du nerf sural) au cours d’un entraînement de plusieurs essais permettrait au participant d’adopter des stratégies de modulation de la douleur et d’activer volontairement des mécanismes de contrôle descendant de la douleur. De façon à évaluer spécifiquement les changements induits par le biofeedback, la modulation du réflexe RIII et de la douleur était comparée dans trois groupes (biofeedback valide, faux biofeedback et groupe contrôle sans rétroaction). Dans les trois groupes, il était suggéré aux participants d’utiliser des stratégies cognitives de modulation de la douleur (attention, modulation de la respiration, réévaluation cognitive et imagerie mentale) afin d’augmenter ou de diminuer leur réflexe RIII comparativement à leur niveau de base. Les résultats de notre étude indiquent que les participants des 3 groupes ont réussi à moduler leur réflexe RIII (p<0,001) ainsi que leurs évaluations de douleur (p<0,001) (intensité et désagrément). Les résultats de notre étude montrent que l’entraînement au biofeedback n’était pas nécessaire pour obtenir une modulation du réflexe RIII et de la douleur, ce qui suggère que l’utilisation de stratégies cognitives pourrait être suffisante pour déclencher des mécanismes de contrôle de la douleur. La deuxième étude découle de la première et s’intéressait à l’influence de la fréquence et de la phase respiratoire sur la nociception spinale, l’activité cérébrale et la perception de douleur. Le contrôle volontaire de la respiration est un moyen commun de régulation des émotions et est fréquemment utilisé en combinaison avec d’autres techniques (ex. : relaxation, méditation) dans le but de réguler la douleur. Les participants étaient invités à synchroniser leur respiration à des indices sonores indiquant le moment de l’inspiration et de l’expiration. Trois patrons de respiration étaient proposés (respiration à 0,1Hz avec une inspiration de 4 secondes, respiration à 0,1Hz avec une inspiration de 2 secondes et respiration à 0,2Hz avec une inspiration de 2 secondes. La moitié des stimulations étaient données durant l’inspiration et l’autre moitié durant l’expiration. Afin d’évaluer l’effet de ces manipulations, l’amplitude du RIII, l’évaluation subjective d’intensité de la douleur et de l’anxiété suscitée par le choc en plus des potentiels évoqués étaient mesurés. Les résultats de cette étude démontrent que les évaluations d’intensité de la douleur n’étaient pas affectées par le patron respiratoire (p=0,3), mais étaient statistiquement plus basses durant l’inspiration comparativement à l’expiration (p=0,02). Un effet de phase (p=0,03) était également observé sur les potentiels évoqués durant la condition de respiration à 0,1hHz avec une inspiration de 2 secondes comparativement au patron de respiration de 0,2Hz. Paradoxalement, l’amplitude du réflexe RIII était augmenté durant l’inspiration (p=0,02) comparativement à l’expiration. Ces résultats montrent que la manipulation de la fréquence et de la phase respiratoires (par une synchronisation imposée) a un effet marginal sur les évaluations de douleur et sur l’activité cérébrale et spinale évoquée par une stimulation électrique (douleur aigüe). Cela suggère que d’autres mécanismes contribuent aux effets analgésiques observés dans la relaxation et la méditation. Plus largement, nos résultats font état de la nécessité d’études plus approfondies avec une méthodologie plus rigoureuse afin de contrôler les effets non spécifiques aux traitements évalués. Une meilleure connaissance des mécanismes sous-tendant chaque stratégie permettrait de mieux cibler les clientèles susceptibles d’y répondre et de mieux considérer le ratio coût bénéfice de chaque traitement.
Resumo:
Introduction : La force d’adhésion à l'interface métal-céramique avec les résines auto-polymérisantes destinées au collage indirect des boîtiers orthodontiques n'a pas été évaluée à ce jour et un protocole clinique basé sur la littérature scientifique est inexistant. Objectifs : 1) Comparer la force de cisaillement maximale entre des boîtiers métalliques et des surfaces en porcelaine préparées selon différentes méthodes; 2) Suggérer un protocole clinique efficace et prévisible. Matériel et méthodes : Quatre-vingt-dix disques en leucite (6 groupes; n = 15/groupe) ont été préparés selon 6 combinaisons de traitements de surface : mécaniques (+ / - fraisage pour créer les rugosités) et chimiques (acide fluorhydrique, apprêt, silane). Des bases en résine composite Transbond XT (3M Unitek, Monrovia, California) faites sur mesure ont été collées avec le système de résine adhésive auto-polymérisante Sondhi A + B Rapid Set (3M Unitek, Monrovia, California). Les échantillons ont été préservés (H2O/24hrs), thermocyclés (500 cycles) et testés en cisaillement (Instron, Norwood, Massachusetts). Des mesures d’Index d’adhésif résiduel (IAR) ont été compilées. Des tests ANOVAs ont été réalisés sur les rangs étant donné que les données suivaient une distribution anormale et ont été ajustés selon Tukey. Un Kruskall-Wallis, U-Mann Whitney par comparaison pairée et une analyse de Weibull ont aussi été réalisés. Résultats : Les médianes des groupes varient entre 17.0 MPa (- fraisage + acide fluorhydrique) à 26.7 MPa (- fraisage + acide fluorhydrique + silane). Le fraisage en surface ne semble pas affecter l’adhésion. La combinaison chimique (- fraisage + silane + apprêt) a démontré des forces de cisaillement significativement plus élevées que le traitement avec (- fraisage + acide fluorhydrique), p<0,05, tout en possédant des forces similaires au protocole typiquement suggéré à l’acide fluorhydrique suivi d’une application de silane, l’équivalence de (- fraisage + acide fluorhydrique + silane). Les mesures d’IAR sont significativement plus basses dans le groupe (- fraisage + acide fluorhydrique) en comparaison avec celles des 5 autres groupes, avec p<0,05. Malheureusement, ces 5 groupes ont des taux de fracture élévés de 80 à 100% suite à la décimentation des boîtiers. Conclusion : Toutes les combinaisons de traitement de surface testées offrent une force d’adhésion cliniquement suffisante pour accomplir les mouvements dentaires en orthodontie. Une application de silane suivie d’un apprêt est forte intéressante, car elle est simple à appliquer cliniquement tout en permettant une excellente adhésion. Il faut cependant avertir les patients qu’il y a un risque de fracture des restorations en céramique lorsque vient le moment d’enlever les broches. Si la priorité est de diminuer le risque d’endommager la porcelaine, un mordançage seul à l’acide hydrofluorique sera suffisant.
Resumo:
Cette thèse avait pour objectif général d’approfondir nos connaissances sur les rêves dysphoriques (mauvais rêves et cauchemars), selon deux axes. Premièrement, nous avons voulu éclaircir les implications méthodologiques reliées aux différentes mesures de la fréquence de rappel de rêves (articles 1 et 2). Deuxièmement, nous avons voulu étudier un aspect encore peu exploré des rêves dysphoriques : leur contenu (article 3). Dans la première étude, nous avons comparé systématiquement différentes méthodes rétrospectives et prospectives utilisées pour mesurer la fréquence des cauchemars et des mauvais rêves chez 411 participants. En plus de reproduire les résultats d’études antérieures selon lesquelles les mesure rétrospectives sous-estiment la fréquence des rêves dysphoriques, nous avons démontré que ces fréquences n’étaient pas affectées de manière différentielle par le format de la mesure prospective (journaux de rêves narratifs ou à choix de réponse). Dans la deuxième étude, nous nous sommes intéressés à la fréquence de rappel onirique en général (i.e. de tous les rêves) auprès d'un échantillon de 358 participants pour approfondir les résultats relatifs à la comparaison entre les deux types de journaux de rêves obtenus dans la première étude. Nos résultats soulignent que la fréquence de rappel obtenue par un journal à choix de réponse est plus élevée que celle obtenue d’un journal narratif, et que le présumé effet d’augmentation de rappel attribué aux mesures prospectives est limité dans le temps. Ces résultats suggèrent que des facteurs motivationnels sont impliqués dans la tenue d’un journal de rêves, et que dans le cas des journaux narratifs, ces facteurs outrepasseraient les facteurs attentionnels favorisant le rappel onirique. Dans la troisième étude, nous avons comparé le contenu de 253 cauchemars et 431 mauvais rêves obtenus prospectivement auprès de 331 participants, offrant ainsi l’une des descriptions de ce type des plus détaillées à ce jour. Nos résultats démontrent que cauchemars et mauvais rêves partagent de nombreuses caractéristiques mais se différencient en plusieurs points : le contenu des cauchemars est davantage caractérisé par des menaces physiques, et celui des mauvais rêves par des menaces psychologiques. De plus, les cauchemars ont plus souvent la peur comme émotion principale, ont une intensité émotionnelle plus forte, se terminent plus souvent de façon négative et sont plus bizarres que les mauvais rêves. Ces différences de contenu entre mauvais rêves et cauchemars suggèrent que ces deux types de rêves sont des manifestations d’un même phénomène variant en termes d’intensité, et que cette intensité est multidimensionnelle. Les résultats de l’étude 3 sont discutés en lien avec différentes théories sur l’étiologie et la fonction des rêves.
Resumo:
Rapport d'analyse d'intervention présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en psychoéducation.
Resumo:
Nous développons dans cette thèse, des méthodes de bootstrap pour les données financières de hautes fréquences. Les deux premiers essais focalisent sur les méthodes de bootstrap appliquées à l’approche de "pré-moyennement" et robustes à la présence d’erreurs de microstructure. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. En se basant sur cette ap- proche d’estimation de la volatilité intégrée en présence d’erreurs de microstructure, nous développons plusieurs méthodes de bootstrap qui préservent la structure de dépendance et l’hétérogénéité dans la moyenne des données originelles. Le troisième essai développe une méthode de bootstrap sous l’hypothèse de Gaussianité locale des données financières de hautes fréquences. Le premier chapitre est intitulé: "Bootstrap inference for pre-averaged realized volatility based on non-overlapping returns". Nous proposons dans ce chapitre, des méthodes de bootstrap robustes à la présence d’erreurs de microstructure. Particulièrement nous nous sommes focalisés sur la volatilité réalisée utilisant des rendements "pré-moyennés" proposés par Podolskij et Vetter (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à hautes fréquences consécutifs qui ne se chevauchent pas. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. Le non-chevauchement des blocs fait que les rendements "pré-moyennés" sont asymptotiquement indépendants, mais possiblement hétéroscédastiques. Ce qui motive l’application du wild bootstrap dans ce contexte. Nous montrons la validité théorique du bootstrap pour construire des intervalles de type percentile et percentile-t. Les simulations Monte Carlo montrent que le bootstrap peut améliorer les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques, pourvu que le choix de la variable externe soit fait de façon appropriée. Nous illustrons ces méthodes en utilisant des données financières réelles. Le deuxième chapitre est intitulé : "Bootstrapping pre-averaged realized volatility under market microstructure noise". Nous développons dans ce chapitre une méthode de bootstrap par bloc basée sur l’approche "pré-moyennement" de Jacod et al. (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à haute fréquences consécutifs qui se chevauchent. Le chevauchement des blocs induit une forte dépendance dans la structure des rendements "pré-moyennés". En effet les rendements "pré-moyennés" sont m-dépendant avec m qui croît à une vitesse plus faible que la taille d’échantillon n. Ceci motive l’application d’un bootstrap par bloc spécifique. Nous montrons que le bloc bootstrap suggéré par Bühlmann et Künsch (1995) n’est valide que lorsque la volatilité est constante. Ceci est dû à l’hétérogénéité dans la moyenne des rendements "pré-moyennés" au carré lorsque la volatilité est stochastique. Nous proposons donc une nouvelle procédure de bootstrap qui combine le wild bootstrap et le bootstrap par bloc, de telle sorte que la dépendance sérielle des rendements "pré-moyennés" est préservée à l’intérieur des blocs et la condition d’homogénéité nécessaire pour la validité du bootstrap est respectée. Sous des conditions de taille de bloc, nous montrons que cette méthode est convergente. Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques. Nous illustrons cette méthode en utilisant des données financières réelles. Le troisième chapitre est intitulé: "Bootstrapping realized covolatility measures under local Gaussianity assumption". Dans ce chapitre nous montrons, comment et dans quelle mesure on peut approximer les distributions des estimateurs de mesures de co-volatilité sous l’hypothèse de Gaussianité locale des rendements. En particulier nous proposons une nouvelle méthode de bootstrap sous ces hypothèses. Nous nous sommes focalisés sur la volatilité réalisée et sur le beta réalisé. Nous montrons que la nouvelle méthode de bootstrap appliquée au beta réalisé était capable de répliquer les cummulants au deuxième ordre, tandis qu’il procurait une amélioration au troisième degré lorsqu’elle est appliquée à la volatilité réalisée. Ces résultats améliorent donc les résultats existants dans cette littérature, notamment ceux de Gonçalves et Meddahi (2009) et de Dovonon, Gonçalves et Meddahi (2013). Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques et les résultats de bootstrap existants. Nous illustrons cette méthode en utilisant des données financières réelles.
Resumo:
L’analyse des anomalies génomiques récurrentes est importante pour établir le diagnostic, le pronostic et pour orienter la thérapie des leucémies aiguës pédiatriques. L’objectif de notre étude est d’élaborer une stratégie optimale pour détecter les anomalies chromosomiques dans les leucémies aiguës lymphoblastiques (LAL) et myéloïdes (LAM) des enfants. Pour ce faire, nous avons caractérisé au caryotype, avec des panels d’hybridation in situ en fluorescence (FISH), par RT-PCR et par l’index d’ADN 253 leucémies de novo reçues au CHU Sainte-Justine entre 2005 et 2011 (186 LAL-B, 27 LAL-T et 40 LAM). Nous avons réussi à optimiser la détection des anomalies chromosomiques dans les trois types de leucémies, avec des fréquences de 93,5% dans les LAL-B (174/186), 66,7% dans les LAL-T (18/27) et 90% dans les LAM (36/40). Nos résultats suggèrent d’utiliser plusieurs tests génétiques concomitants afin d’optimiser la détection des anomalies génomiques dans les LAL et les LAM de novo pédiatriques.
Resumo:
Cette thèse traite de la structure électronique de supraconducteurs telle que déterminée par la théorie de la fonctionnelle de la densité. Une brève explication de cette théorie est faite dans l’introduction. Le modèle de Hubbard est présenté pour pallier à des problèmes de cette théorie face à certains matériaux, dont les cuprates. L’union de deux théories donne la DFT+U, une méthode permettant de bien représenter certains systèmes ayant des électrons fortement corrélés. Par la suite, un article traitant du couplage électron- phonon dans le supraconducteur NbC1−xNx est présenté. Les résultats illustrent bien le rôle de la surface de Fermi dans le mécanisme d’appariement électronique menant à la supraconductivité. Grâce à ces résultats, un modèle est développé qui permet d’expliquer comment la température de transition critique est influencée par le changement des fré- quences de vibration du cristal. Ensuite, des résultats de calcul d’oscillations quantiques obtenus par une analyse approfondie de surfaces de Fermi, permettant une comparaison directe avec des données expérimentales, sont présentés dans deux articles. Le premier traite d’un matériau dans la famille des pnictures de fer, le LaFe2P2. L’absence de su- praconductivité dans ce matériau s’explique par la différence entre sa surface de Fermi obtenue et celle du supraconducteur BaFe2As2. Le second article traite du matériau à fermions lourds, le YbCoIn5. Pour ce faire, une nouvelle méthode efficace de calcul des fréquences de Haas-van Alphen est développée. Finalement, un dernier article traitant du cuprate supraconducteur à haute température critique YBa2Cu3O6.5 est présenté. À l’aide de la DFT+U, le rôle de plusieurs ordres magnétiques sur la surface de Fermi est étudié. Ces résultats permettent de mieux comprendre les mesures d’oscillations quan- tiques mesurées dans ce matériau.
Resumo:
Ce travail est axé vers la compréhension détaillée des propriétés de luminescence de composés de certains métaux lourds. La première partie de ce mémoire décrit la caractérisation spectroscopique d'un radical de type nitronyle nitroxyde, 2-(2-pyridinyl)-4,4,5,5-tétraméthyl-4,5-dihydro-1H-imidazolyl-1-oxyl-3-oxyde, abrégé (NIT2-Py), et de ses complexes avec les cations Tb(III), [Tb(hfac)3NIT2-Py], et Y(III), [Y(hfac)3NIT2-Py]. La variation de la température affecte les spectres de luminescence qui montrent de la structure vibronique résolue. Les maxima de ces transitions vibroniques se rapprochent au fur et à mesure que la température augmente. Ces variations des maxima en fonction de la température ne correspondent pas à des variations de fréquences vibrationnelles et sont de l'ordre de 200 cm-1 entre 80 K et 240 K. La variation de la température n'a pas d'influence significative sur la structure moléculaire, comme atteste la variation mineure des maxima des spectres Raman entre 80 K et 300 K. La comparaison des spectres expérimentaux à des spectres calculés montre que ces variations peuvent être reproduites par l'utilisation d'une combinaison de fréquences vibrationnelles. Le paramètre dont la variation est très significative est la résolution du spectre de luminescence, représentée par la largeur à mi-hauteur des transitions vibroniques qui forment le spectre de luminescence. La deuxième partie de ce mémoire décrit les propriétés de luminescence d'une série de complexes d’or(I). Elles sont comparées aux changements structuraux à pression et température variable. Les interactions aurophiles ont une grande influence sur la luminescence. La variation de la température et de la pression est une approche efficace pour varier la luminescence. Les effets observés dans les spectres d'émission de ces complexes dépendent des changements de structure induits par variation de la température et de la pression. Ces petites variations structurales mènent à des changements importants, à titre d'exemple à un déplacement du maximum de la bande de luminescence de 60 cm-1/ kbar vers les faibles énergies pour un des complexes de l'or(I) étudiés au cours de ce projet.
Resumo:
Le virus de l’hépatite C (VHC) infecte ~185 millions d’individus dans le monde. Malgré le développement des nouvelles thérapies dirigées contre le VHC, on compte deux millions de nouvelles infections chaque année, en particulier dans les pays sous-développés et les populations marginalisées. Comme pour la plupart des virus à infection chronique, le développement d’un vaccin prophylactique efficace est limité par le manque de caractérisation des déterminants de la mémoire immunitaire protectrice lors des épisodes de réinfection naturelle chez les êtres humains. Le VHC représente un modèle unique au sein des virus à infection chronique pour étudier l’immunité protectrice. En effet ~30% des patients infectés par le VHC peuvent être guéris suite à un premier épisode d’infection spontanément. Dans cette thèse, nous avons étudié l’immunité protectrice contre le VHC dans une cohorte d’utilisateurs de drogues par injection qui sont à risque d’être infectés ou réinfectés. Notre hypothèse est que la majorité des patients qui ont résolu une première infection par le VHC sont protégés contre le développement d’une infection chronique s’ils sont réexposés. Cette immunité protectrice est associée à la présence des cellules T CD4 et CD8 polyfonctionnelles qui possèdent des fréquences, magnitudes et avidités élevées. La capacité protectrice des cellules T mémoire contre les séquences variables du VHC est dépendante de la diversité et flexibilité du répertoire de leurs récepteurs de cellules T (TCR), qui reconnaissent les séquences variables des épitopes ciblés. Notre premier objectif était de définir et détailler les déterminants de l’immunité protectrice conférée par les cellules T spécifiques du VHC. Nos résultats ont montré que la protection pendant l’épisode de réinfection était associée à une augmentation de la magnitude et du spectre des réponses spécifiques par les cellules T CD4 et CD8 polyfonctionnelles, ainsi que par l’apparition d’une population de cellules T tétramère+ CD8+ effectrices qui expriment faiblement le marqueur CD127 (CD127lo) lors du pic de la réponse. Chez les patients qui ont développé une infection chronique pendant l’épisode de réinfection, nous avons observé une expansion très limitée des cellules T CD4 et CD8. Le séquençage des épitopes ciblés par les cellules T CD8 chez ces patients qui sont non-protégés a montré que les séquences de ces épitopes sont différentes des séquences de référence qui étaient utilisées pour tous les essais immunologiques de cette étude. Le deuxième objectif était d’analyser la dynamique du répertoire des TCRs des cellules T CD8 spécifiques chez les patients protégés versus les patients non-protégés. Nos résultats ont montré que le répertoire des cellules T CD8 spécifiques est plus focalisé que chez les patients protégés. En plus, nous avons observé que les clonotypes qui forment le répertoire chez les patients protégés sont distincts de ceux chez les patients non-protégés. Ces clonotypes chez les patients protégés ont montré de plus grandes avidité et polyfonctionnalité que leurs homologues chez les patients non-protégés. En conclusion, nos résultats suggèrent que la protection contre le développement d’une infection chronique pendant l’épisode de réinfection par le VHC est associée à une augmentation de la magnitude, du spectre et de la fonctionnalité des réponses des cellules T spécifiques, ainsi qu’à un répertoire des TCRs plus focalisé composé des clonotypes distincts qui possèdent de plus grandes avidité et polyfonctionnalité que chez les patients non-protégés. L’homologie des séquences des souches virales entre les différents épisodes de l’infection est un déterminant majeur de l’établissement d’une protection efficace. Ces résultats ont donc des implications très importantes pour le développement d’un vaccin prophylactique contre le VHC et d’autres virus à infection chronique.
Resumo:
Le traitement de l’épilepsie chez le jeune enfant représente un enjeu majeur pour le développement de ce dernier. Chez la grande majorité des enfants atteints de spasmes infantiles et chez plusieurs atteints de crises partielles complexes réfractaires, le vigabatrin (VGB) représente un traitement incontournable. Cette médication, ayant démontré un haut taux d’efficacité chez cette population, semble toutefois mener à une atteinte du champ visuel périphérique souvent asymptomatique. L’évaluation clinique des champs visuels avec la périmétrie chez les patients de moins de neuf ans d’âge développemental est toutefois très difficile, voire impossible. Les études électrophysiologiques classiques menées auprès de la population épileptique pédiatrique suggèrent l’atteinte des structures liées aux cônes de la rétine. Les protocoles standards ne sont toutefois pas spécifiques aux champs visuels et les déficits soulignés ne concordent pas avec l’atteinte périphérique observée. Cette thèse vise donc à élaborer une tâche adaptée à l’évaluation des champs visuels chez les enfants en utilisant un protocole objectif, rapide et spécifique aux champs visuels à partir des potentiels évoqués visuels (PEVs) et à évaluer, à l’aide de cette méthode, les effets neurotoxiques à long terme du VGB chez des enfants épileptiques exposés en bas âge. La validation de la méthode est présentée dans le premier article. La stimulation est constituée de deux cercles concentriques faits de damiers à renversement de phase alternant à différentes fréquences temporelles. La passation de la tâche chez l’adulte permet de constater qu’une seule électrode corticale (Oz) est nécessaire à l’enregistrement simultané des réponses du champ visuel central et périphérique et qu’il est possible de recueillir les réponses électrophysiologiques très rapidement grâces l’utilisation de l’état-stationnaire (steady-state). La comparaison des données d’enfants et d’adultes normaux permet de constater que les réponses recueillies au sein des deux régions visuelles ne dépendent ni de l’âge ni du sexe. Les réponses centrales sont aussi corrélées à l’acuité visuelle. De plus, la validité de cette méthode est corroborée auprès d’adolescents ayant reçu un diagnostic clinique d’un déficit visuel central ou périphérique. En somme, la méthode validée permet d’évaluer adéquatement les champs visuels corticaux central et périphérique simultanément et rapidement, tant chez les adultes que chez les enfants. Le second article de cette thèse porte sur l’évaluation des champs visuels, grâce à la méthode préalablement validée, d’enfants épileptiques exposés au VGB en jeune âge en comparaison avec des enfants épileptiques exposés à d’autres antiépileptiques et à des enfants neurologiquement sains. La méthode a été bonifiée grâce à la variation du contraste et à l’enregistrement simultané de la réponse rétinienne. On trouve que la réponse corticale centrale est diminuée à haut et à moyen contrastes chez les enfants exposés au VGB et à haut contraste chez les enfants exposés à d’autres antiépileptiques. Le gain de contraste est altéré au sein des deux groupes d’enfants épileptiques. Par contre, l’absence de différences entre les deux groupes neurologiquement atteints ne permet pas de faire la distinction entre l’effet de la médication et celui de la maladie. De plus, la réponse rétinienne périphérique est atteinte chez les enfants épileptiques exposés au Sabril® en comparaison avec les enfants neurologiquement sains. La réponse rétinienne périphérique semble liée à la durée d’exposition à la médication. Ces résultats corroborent ceux rapportés dans la littérature. En somme, les résultats de cette thèse offrent une méthode complémentaire, rapide, fiable, objective à celles connues pour l’évaluation des champs visuels chez les enfants. Ils apportent aussi un éclairage nouveau sur les impacts à long terme possibles chez les enfants exposés au VGB dans la petite enfance.
Resumo:
Depuis la fin du XIXe siècle, des dynamiques sociales diverses – holocauste du caoutchouc, colonie pénale, missions catholiques, présence d’institutions gouvernementales et non gouvernementales — ont reconfiguré les formes d’organisation sociale des habitants du moyen fleuve Caquetá, dénommés Gens de centre. Nous nous arrêterons en particulier sur l’effet de ces changements sur leurs formes d’autonomie. Avec la reconnaissance par l’État, au cours des années 1980 et 1990, des peuples indigènes en tant que minorités ethniques, surgit une dichotomie entre ce qui est « traditionnel » autochtone, par opposition à ce qui est « moderne », étant donné les processus d’acculturation et inclusion de ces groupes dans la société majoritaire. Dans le présent travail, on établit une comparaison des figures « d’autorité traditionnelle » et de « leader », une différenciation faite dans la région du moyen fleuve Caquetá. Dans un premier temps, on donne un aperçu théorique de la figure de chef dans les terres basses de l’Amérique du Sud et sa validité et pertinence dans la situation du moyen fleuve Caquetá. Puis, l’on présente comment se forme l’autorité traditionnelle et ses champs d’action. On montre, de la même façon, les différents processus qui ont donné lieu à l’apparition de la figure de leader et les espaces où celle-ci évolue. La relation entre les deux figures est à la fois contradictoire et complémentaire. Finalement, on expose, avec des exemples concrets, les rapports entre les Gens de centre et les institutions gouvernementales et la remise en question de l’autonomie accordée aux groupes minoritaires dans la Constitution politique de la Colombie de 1991.
Resumo:
Objectif: Évaluer la relation entre la fonction cognitive chez les personnes âgées atteintes de dégénérescence maculaire reliée à l’âge (DMLA), de glaucome ou de dystrophie cornéenne de Fuchs et les comparer avec les personnes âgées n’ayant pas de maladie oculaire. Devis: Étude transversale de population hospitalière. Participants: 420 participants (113 avec la DMLA, 66 avec la dystrophie cornéenne de Fuchs, 130 avec le glaucome et 111 témoins). Méthodes: Nous avons recruté les patients à partir de la clinique d’ophtalmologie de l’Hôpital Maisonneuve-Rosemont (Montréal, Canada) de septembre 2009 à septembre 2013. Les patients atteints de la DMLA ou de la maladie de Fuchs ont une acuité visuelle inférieure à 20/40 dans les deux yeux, tandis que les patients avec du glaucome ont un champ visuel dans le pire œil inférieur ou égal à -4dB. Les patients contrôles, qui ont été recrutés à partir des mêmes cliniques, ont une acuité visuelle et un champ visuel normaux. Nous avons colligé des données concernant la fonction cognitive à partir du test Mini-Mental State Exam (MMSE)-version aveugle. Pour mesurer la fonction visuelle, nous avons mesuré l’acuité visuelle, la sensibilité au contraste et le champ visuel. Nous avons également révisé le dossier médical. Pour les analyses statistiques, nous avons utilisé la régression linéaire. Critère de jugement principal: MMSE-version aveugle. Résultats: Les trois maladies oculaires ont été associées à une limitation de la cognition. Le score de MMSE-version aveugle se situe de 0.7 à 0.8 unités plus basses par rapport au groupe contrôle. Comparativement aux contrôles, les patients avec maladies oculaires ont eu un score moyen diminué (P < 0.05). Le niveau d’éducation élevé est associé à une meilleure cognition (P < 0.001). Conclusions: Nos résultats suggèrent que les maladies oculaires sont associées à une diminution de la fonction cognitive chez les personnes âgées. De futures études sont nécessaires pour évaluer l’impact des maladies oculaires sur le déclin cognitif chez cette population pour pouvoir envisager des interventions ciblées qui pourraient les aider à maintenir leur indépendance le plus longtemps possible.
Resumo:
La présente thèse avait pour mandat d’examiner la question suivante : quels sont les indices visuels utilisés pour catégoriser le sexe d’un visage et comment sont-ils traités par le cerveau humain? La plupart des études examinant l’importance de certaines régions faciales pour la catégorisation du sexe des visages présentaient des limites quant à leur validité externe. L’article 1 visait à investiguer l’utilisation des indices achromatiques et chromatiques (sur l’axe xy) dans un contexte de plus grande validité externe. Pour ce faire, nous avons utilisé la technique Bubbles afin d’échantillonner l’espace xy de visages en couleurs n’ayant subi aucune transformation. Afin d’éviter les problèmes liés à la grande répétition des mêmes visages, nous avons utilisé un grand nombre de visages (c.-à-d. 300 visages caucasiens d’hommes et de femmes) et chaque visage n’a été présenté qu’une seule fois à chacun des 30 participants. Les résultats indiquent que la région des yeux et des sourcils—probablement dans le canal blanc-noir—est l’indice le plus important pour discriminer correctement le genre des visages; et que la région de la bouche—probablement dans le canal rouge-vert—est l’indice le plus important pour discriminer rapidement et correctement le genre des visages. Plusieurs études suggèrent qu’un indice facial que nous n’avons pas étudié dans l’article 1—les distances interattributs—est crucial à la catégorisation du sexe. L’étude de Taschereau et al. (2010) présente toutefois des données allant à l’encontre de cette hypothèse : les performances d’identification des visages étaient beaucoup plus faibles lorsque seules les distances interattributs réalistes étaient disponibles que lorsque toutes les autres informations faciales à l’exception des distances interattributs réalistes étaient disponibles. Quoi qu’il en soit, il est possible que la faible performance observée dans la condition où seules les distances interattributs étaient disponibles soit explicable non par une incapacité d’utiliser ces indices efficacement, mais plutôt par le peu d’information contenue dans ces indices. L’article 2 avait donc comme objectif principal d’évaluer l’efficacité—une mesure de performance qui compense pour la faiblesse de l’information disponible—des distances interattributs réalistes pour la catégorisation du sexe des visages chez 60 participants. Afin de maximiser la validité externe, les distances interattributs manipulées respectaient la distribution et la matrice de covariance observées dans un large échantillon de visages (N=515). Les résultats indiquent que les efficacités associées aux visages ne possédant que de l’information au niveau des distances interattributs sont un ordre de magnitude plus faibles que celles associées aux visages possédant toute l’information que possèdent normalement les visages sauf les distances interattributs et donnent le coup de grâce à l’hypothèse selon laquelle les distances interattributs seraient cuciale à la discrimination du sexe des visages. L’article 3 avait pour objectif principal de tester l’hypothèse formulée à la fin de l’article 1 suivant laquelle l’information chromatique dans la région de la bouche serait extraite très rapidement par le système visuel lors de la discrimination du sexe. Cent douze participants ont chacun complété 900 essais d’une tâche de discrimination du genre pendant laquelle l’information achromatique et chromatique des visages était échantillonnée spatiotemporellement avec la technique Bubbles. Les résultats d’une analyse présentée en Discussion seulement confirme l’utilisation rapide de l’information chromatique dans la région de la bouche. De plus, l’utilisation d’un échantillonnage spatiotemporel nous a permis de faire des analyses temps-fréquences desquelles a découlé une découverte intéressante quant aux mécanismes d’encodage des informations spatiales dans le temps. Il semblerait que l’information achromatique et chromatique à l’intérieur d’une même région faciale est échantillonnée à la même fréquence par le cerveau alors que les différentes parties du visage sont échantillonnées à des fréquences différentes (entre 6 et 10 Hz). Ce code fréquentiel est compatible avec certaines évidences électrophysiologiques récentes qui suggèrent que les parties de visages sont « multiplexées » par la fréquence d’oscillations transitoires synchronisées dans le cerveau.
Resumo:
La présente étude porte sur les effets de la familiarité dans l’identification d’individus en situation de parade vocale. La parade vocale est une technique inspirée d’une procédure paralégale d’identification visuelle d’individus. Elle consiste en la présentation de plusieurs voix avec des aspects acoustiques similaires définis selon des critères reconnus dans la littérature. L’objectif principal de la présente étude était de déterminer si la familiarité d’une voix dans une parade vocale peut donner un haut taux d’identification correcte (> 99 %) de locuteurs. Cette étude est la première à quantifier le critère de familiarité entre l’identificateur et une personne associée à « une voix-cible » selon quatre paramètres liés aux contacts (communications) entre les individus, soit la récence du contact (à quand remonte la dernière rencontre avec l’individu), la durée et la fréquence moyenne du contact et la période pendant laquelle avaient lieu les contacts. Trois différentes parades vocales ont été élaborées, chacune contenant 10 voix d’hommes incluant une voix-cible pouvant être très familière; ce degré de familiarité a été établi selon un questionnaire. Les participants (identificateurs, n = 44) ont été sélectionnés selon leur niveau de familiarité avec la voix-cible. Toutes les voix étaient celles de locuteurs natifs du franco-québécois et toutes avaient des fréquences fondamentales moyennes similaires à la voix-cible (à un semi-ton près). Aussi, chaque parade vocale contenait des énoncés variant en longueur selon un nombre donné de syllabes (1, 4, 10, 18 syll.). Les résultats démontrent qu’en contrôlant le degré de familiarité et avec un énoncé de 4 syllabes ou plus, on obtient un taux d’identification avec une probabilité exacte d’erreur de p < 1 x 10-12. Ces taux d’identification dépassent ceux obtenus actuellement avec des systèmes automatisés.