30 resultados para Long memory stochastic process

em Université de Montréal, Canada


Relevância:

100.00% 100.00%

Publicador:

Resumo:

La consolidation est le processus qui transforme une nouvelle trace mnésique labile en ‎une autre plus stable et plus solide. Une des tâches utilisées en laboratoire pour ‎l’exploration de la consolidation motrice dans ses dimensions comportementale et ‎cérébrale est la tâche d’apprentissage de séquences motrices. Celle-ci consiste à ‎reproduire une même série de mouvements des doigts, apprise de manière implicite ou ‎explicite, tout en mesurant l’amélioration dans l’exécution. Les études récentes ont ‎montré que, dans le cas de l’apprentissage explicite de cette tâche, la consolidation de la ‎trace mnésique associée à cette nouvelle habileté dépendrait du sommeil, et plus ‎particulièrement des fuseaux en sommeil lent. Et bien que deux types de fuseaux aient ‎été décrits (lents et rapides), le rôle de chacun d’eux dans la consolidation d’une ‎séquence motrice est encore mal exploré. En effet, seule une étude s’est intéressée à ce ‎rôle, montrant alors une implication des fuseaux rapides dans ce processus mnésique ‎suite à une nuit artificiellement altérée. D’autre part, les études utilisant l’imagerie ‎fonctionnelle (IRMf et PET scan) menées par différentes équipes dont la notre, ont ‎montré des changements au niveau de l’activité du système cortico-striatal suite à la ‎consolidation motrice. Cependant, aucune corrélation n’a été faite à ce jour entre ces ‎changements et les caractéristiques des fuseaux du sommeil survenant au cours de la nuit ‎suivant un apprentissage moteur. Les objectifs de cette thèse étaient donc: 1) de ‎déterminer, à travers des enregistrements polysomnographiques et des analyses ‎corrélationnelles, les caractéristiques des deux types de fuseaux (i.e. lents et rapides) ‎associées à la consolidation d’une séquence motrice suite à une nuit de sommeil non ‎altérée, et 2) d’explorer, à travers des analyses corrélationnelles entre les données ‎polysomnographiques et le signal BOLD (« Blood Oxygenated Level Dependent »), ‎acquis à l’aide de l’imagerie par résonance magnétique fonctionnelle (IRMf), ‎l’association entre les fuseaux du sommeil et les activations cérébrales suite à la ‎consolidation de la séquence motrice. Les résultats de notre première étude ont montré ‎une implication des fuseaux rapides, et non des fuseaux lents, dans la consolidation ‎d’une séquence motrice apprise de manière explicite après une nuit de sommeil non ‎altérée, corroborant ainsi les résultats des études antérieures utilisant des nuits de ‎sommeil altérées. En effet, les analyses statistiques ont mis en évidence une ‎augmentation significative de la densité des fuseaux rapides durant la nuit suivant ‎l’apprentissage moteur par comparaison à la nuit contrôle. De plus, cette augmentation ‎corrélait avec les gains spontanés de performance suivant la nuit. Par ailleurs, les ‎résultats de notre seconde étude ont mis en évidence des corrélations significatives entre ‎l’amplitude des fuseaux de la nuit expérimentale d’une part et les gains spontanés de ‎performance ainsi que les changements du signal BOLD au niveau du système cortico-‎striatal d’autre part. Nos résultats suggèrent donc un lien fonctionnel entre les fuseaux ‎du sommeil, les gains de performance ainsi que les changements neuronaux au niveau ‎du système cortico-striatal liés à la consolidation d’une séquence motrice explicite. Par ‎ailleurs, ils supportent l’implication des fuseaux rapides dans ce type de consolidation ; ‎ceux-ci aideraient à l’activation des circuits neuronaux impliqués dans ce processus ‎mnésique et amélioreraient par la même occasion la consolidation motrice liée au ‎sommeil.‎

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La régulation de la transcription est l‟un des processus cellulaires des plus fondamentaux et constitue la première étape menant à l‟expression protéique. Son altération a des effets sur l‟homéostasie cellulaire et est associée au développement de maladies telles que le cancer. Il est donc crucial de comprendre les règles fondamentales de la fonction cellulaire afin de mieux cibler les traitements pour les maladies. La transcription d‟un gène peut se produire selon l‟un des deux modes fondamentaux de transcription : en continu ou en burst. Le premier est décrit comme un processus aléatoire et stochastique qui suit une distribution de Poisson. À chaque initiation de la transcription, indépendante de la précédente, un seul transcrit est produit. L‟expression en burst se produit lorsque le promoteur est activé pour une courte période de temps pendant laquelle plusieurs transcrits naissants sont produits. Apportant la plus grande variabilité au sein d‟une population isogénique, il est représenté par une distribution bimodale, où une sous-population n‟exprime pas le gène en question, alors que le reste de la population l‟exprime fortement. Les gènes des eucaryotes inférieurs sont pour la plupart exprimés de manière continuelle, alors que les gènes des eucaryotes supérieurs le sont plutôt en burst. Le but de ce projet est d‟étudier comment l‟expression des gènes a évolué et si la transcription aléatoire, ou de Poisson, est une propriété des eucaryotes inférieurs et si ces patrons ont changé avec la complexité des organismes et des génomes. Par la technique de smFISH, nous avons étudié de manière systématique quatre gènes évolutivement conservés (mdn1+, PRP8/spp42+, pol1+ et cdc13+) qui sont continuellement transcrits dans la levure S. cerevisiae. Nous avons observé que le mode d‟expression est gène-et-organisme spécifique puisque prp8 est exprimé de manière continuelle dans la levure S. pombe, alors que les autres gènes seraient plutôt exprimés en légers burst.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les Acadiens du Nouveau-Brunswick ont un parcours identitaire collectif riche en rebondissements qui les a menés vers une identité singulière solide. Ils se trouvent désormais confrontés au contexte d’une nouvelle réalité qui est la mondialisation. Depuis les dernières décennies, les changements occasionnés par la mondialisation se répercutent dans la conception même que l’on se fait du parler acadien et des pratiques culturelles acadiennes. Le chiac par exemple, auparavant stigmatisé et dévalorisé, devient maintenant porteur de valeurs identitaires modernes rattachées au mélange des cultures et à l’ouverture à l’autre. Toutefois, les contours de l’identité acadienne demeurent flous et sujets aux débats épistémologiques. La situation particulière d’un groupe qui n’a plus de territoire officiellement reconnu a une forte incidence sur les critères d’appartenance que les acteurs peuvent mobiliser pour se définir. Comment expliquer les processus d’identifications et les stratégies identitaires qui définissent l’appartenance au groupe chez les Acadiens? Partagent-ils les mêmes processus identitaires présents dans la littérature sur le sujet? Une connaissance plus approfondie des processus généraux peut-elle aider à mieux saisir et expliquer la complexité d’un groupe sensiblement diasporique dont l’identité et ses contours sont incertains? L’anthropologie en milieu acadien est presque inexistante. D’autre part, l’identité culturelle est un sujet ayant été longuement étudié et débattu, mais qui demande toujours plus de précision. Cette recherche a permis de mieux cerner de quelle façon la représentation de l’acadianité évolue en milieu minoritaire.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il existe un lien étroit entre la structure tridimensionnelle et la fonction cellulaire de l’ARN. Il est donc essentiel d’effectuer des études structurales de molécules d’ARN telles que les riborégulateurs afin de mieux caractériser leurs mécanismes d’action. Une technique de choix, permettant d’obtenir de l’information structurale sur les molécules d’ARN est la spectroscopie RMN. Cette technique est toutefois limitée par deux difficultés majeures. Premièrement, la préparation d’une quantité d’ARN nécessaire à ce type d’étude est un processus long et ardu. Afin de résoudre ce problème, notre laboratoire a développé une technique rapide de purification des ARN par affinité, utilisant une étiquette ARiBo. La deuxième difficulté provient du grand recouvrement des signaux présents sur les spectres RMN de molécules d’ARN. Ce recouvrement est proportionnel à la taille de la molécule étudiée, rendant la détermination de structures d’ARN de plus de 15 kDa extrêmement complexe. La solution émergeante à ce problème est le marquage isotopique spécifique des ARN. Cependant, les protocoles élaborées jusqu’à maintenant sont très coûteux, requièrent plusieurs semaines de manipulation en laboratoire et procurent de faibles rendements. Ce mémoire présente une nouvelle stratégie de marquage isotopique spécifique d’ARN fonctionnels basée sur la purification par affinité ARiBo. Cette approche comprend la séparation et la purification de nucléotides marqués, une ligation enzymatique sur support solide, ainsi que la purification d’ARN par affinité sans restriction de séquence. La nouvelle stratégie développée permet un marquage isotopique rapide et efficace d’ARN fonctionnels et devrait faciliter la détermination de structures d’ARN de grandes tailles par spectroscopie RMN.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

We propose methods for testing hypotheses of non-causality at various horizons, as defined in Dufour and Renault (1998, Econometrica). We study in detail the case of VAR models and we propose linear methods based on running vector autoregressions at different horizons. While the hypotheses considered are nonlinear, the proposed methods only require linear regression techniques as well as standard Gaussian asymptotic distributional theory. Bootstrap procedures are also considered. For the case of integrated processes, we propose extended regression methods that avoid nonstandard asymptotics. The methods are applied to a VAR model of the U.S. economy.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Affiliation: Département de Biochimie, Université de Montréal

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le réseau neuronal de l’hippocampe joue un rôle central dans la mémoire en modifiant de façon durable l’efficacité de ses synapses. Dans les interneurones de la couche oriens/alveus (O/A), l’induction de la potentialisation à long terme (PLT) requiert les courants postsynaptiques excitateurs évoqués par les récepteurs métabotropes du glutamate de sous-type 1a (CPSEmGluR1a) et l’entrée subséquente de Ca2+ via des canaux de la famille des transient receptor potential (TRP). Le but de ce projet était d’identifier les canaux TRP responsables des CPSEmGluR1a et d’explorer les mécanismes moléculaires régulant leur ouverture. Nous avons déterminé par des enregistrements électrophysiologiques que les CPSEmGluR1a étaient spécifiques aux interneurones O/A et qu’ils étaient indépendants de la phospholipase C. Nous avons ensuite examiné l’expression des TRPC et leur interaction avec mGluR1a par les techniques de RT-PCR, d’immunofluorescence et de co-immunoprécipitation. Nos résultats montrent que TRPC1 et mGluR1a s’associent dans l’hippocampe et que ces deux protéines sont présentes dans les dendrites des interneurones O/A. En revanche, TRPC4 ne semble s’associer à mGluR1a qu’en système recombinant et leur colocalisation paraît limitée au corps cellulaire. Finalement, nous avons procédé à des enregistrements d’interneurones dans lesquels l’expression des TRPC a été sélectivement supprimée par la transfection d’ARN interférant et avons ainsi démontré que TRPC1, mais non TRPC4, est une sous-unité obligatoire du canal responsable des CPSEmGluR1a. Ces travaux ont permis de mieux comprendre les mécanismes moléculaires à la base de la transmission synaptique des interneurones O/A et de mettre en évidence un rôle potentiel de TRPC1 dans la PLT.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La mémoire et l’apprentissage sont des phénomènes complexes dont on ne comprend pas encore bien l’origine au niveau cellulaire et moléculaire. Cependant, il est largement admis que des changements plus simples au niveau synaptique, tels que la potentialisation à long-terme (long-term potentiation ou LTP) pourraient constituer la base cellulaire de la formation des nouveaux souvenirs. Ces mécanismes sont couramment étudiés au niveau de l’hippocampe, une région du lobe temporal reconnue comme étant nécessaire à la formation de la mémoire explicite chez les mammifères. La LTP est classiquement définie comme un renforcement durable de l’efficacité de connexions synaptiques ayant été stimulées de façon répétée et soutenue. De plus, on peut distinguer deux formes de LTP: une LTP précoce, qui repose sur la modification de protéines déjà formées, et une LTP tardive, qui requiert, elle, la synthèse de nouvelles protéines. Cependant, bien que de nombreuses études se soient intéressées au rôle de la traduction pour la maintenance de la LTP, les mécanismes couplant l’activité synaptique à la machinerie de synthèse protéique, de même que l’identité des protéines requises sont encore peu connus. Dans cette optique, cette thèse de doctorat s’est intéressée aux interactions entre l’activité synaptique et la régulation de la traduction. Il est par ailleurs reconnu que la régulation de la traduction des ARNm eukaryotiques se fait principalement au niveau de l’initiation. Nous avons donc étudié la modulation de deux voies majeures pour la régulation de la traduction au cours de la LTP : la voie GCN2/eIF2α et la voie mTOR. Ainsi, nos travaux ont tout d’abord démontré que la régulation de la voie GCN2/eIF2α et de la formation du complexe ternaire sont nécessaires à la maintenance de la plasticité synaptique et de la mémoire à long-terme. En effet, l’activité synaptique régule la phosphorylation de GCN2 et d’eIF2α, ce qui permet de moduler les niveaux du facteur de transcription ATF4. Celui-ci régule à son tour la transcription CREB-dépendante et permet ainsi de contrôler les niveaux d’expression génique et la synthèse de protéines nécessaires pour la stabilisation à long-terme des modifications synaptiques. De plus, la régulation de la voie mTOR et de la traduction spécifique des ARNm 5’TOP semble également jouer un rôle important pour la plasticité synaptique à long-terme. La modulation de cette cascade par l’activité synaptique augmente en effet spécifiquement la capacité de traduction des synapses activées, ce qui leur permet de traduire et d’incorporer les protéines nécessaires au renforcement durable des synapses. De telles recherches permettront sans doute de mieux comprendre la régulation des mécanismes traductionnels par l’activité synaptique, ainsi que leur importance pour la maintenance de la potentialisation à long-terme et de la mémoire à long-terme.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questions : Cette thèse visait à répondre à deux questions fondamentales : 1) Est-ce que les athlètes qui présentent un historique de commotions cérébrales du sport en conservent des effets délétères à long terme? ; et 2) Est-ce que les effets néfastes des commotions cérébrales récurrentes sur le fonctionnement tant cognitif que moteur sont cumulatifs? Devis expérimental : À l’aide d’un plan d’investigation double-cohorte réalisé avec un groupe d’athlètes évoluant au niveau universitaire et un autre formé d’anciens athlètes universitaires testés plus de trois décennies plus tard, les quatre études qui composent cette thèse ont employé des méthodes raffinées d’investigation des fonctions cognitives et motrices pour en déceler des atteintes persistantes. Méthodologie : Les potentiels évoqués cognitifs ainsi que les tests neuropsychologiques ont permis de sonder le fonctionnement cognitif de ces athlètes alors que la stimulation magnétique transcrânienne, une plateforme de force permettant de mesurer la stabilité posturale ainsi qu’un système d’enregistrement tridimensionnel des mouvements rapides alternatifs ont servi à l’évaluation de l’intégrité du système moteur. Résultats : Cette thèse a permis de déceler des altérations persistentes et cumulatives des fonctions cognitives et motrices. De plus, ces subtiles atteintes observées chez les jeunes athlètes, affectant essentiellement des marqueurs neurophysiologiques sous-cliniques du fonctionnement cognitif et moteur, s’étaient accentuées chez les anciens athlètes universitaires qui montraient un déclin quantifiable tant des fonctions cognitives que motrices. Discussion : Ces résultats suggèrent d’une part que les commotions cérébrales du sport entraînent des altérations cognitives et motrices chroniques qui s’accentuent en fonction du nombre de commotions cérébrales subies. D’autre part, les effets délétères des commotions cérébrales du sport sur le fonctionnement cognitif et moteur combinés à ceux associés au processus de vieillissement entraînent un déclin cognitif et moteur quantifiable en comparaison aux anciens athlètes n’ayant jamais subi de commotions cérébrales.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The attached file is created with Scientific Workplace Latex

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La voix humaine constitue la partie dominante de notre environnement auditif. Non seulement les humains utilisent-ils la voix pour la parole, mais ils sont tout aussi habiles pour en extraire une multitude d’informations pertinentes sur le locuteur. Cette expertise universelle pour la voix humaine se reflète dans la présence d’aires préférentielles à celle-ci le long des sillons temporaux supérieurs. À ce jour, peu de données nous informent sur la nature et le développement de cette réponse sélective à la voix. Dans le domaine visuel, une vaste littérature aborde une problématique semblable en ce qui a trait à la perception des visages. L’étude d’experts visuels a permis de dégager les processus et régions impliqués dans leur expertise et a démontré une forte ressemblance avec ceux utilisés pour les visages. Dans le domaine auditif, très peu d’études se sont penchées sur la comparaison entre l’expertise pour la voix et d’autres catégories auditives, alors que ces comparaisons pourraient contribuer à une meilleure compréhension de la perception vocale et auditive. La présente thèse a pour dessein de préciser la spécificité des processus et régions impliqués dans le traitement de la voix. Pour ce faire, le recrutement de différents types d’experts ainsi que l’utilisation de différentes méthodes expérimentales ont été préconisés. La première étude a évalué l’influence d’une expertise musicale sur le traitement de la voix humaine, à l’aide de tâches comportementales de discrimination de voix et d’instruments de musique. Les résultats ont démontré que les musiciens amateurs étaient meilleurs que les non-musiciens pour discriminer des timbres d’instruments de musique mais aussi les voix humaines, suggérant une généralisation des apprentissages perceptifs causés par la pratique musicale. La seconde étude avait pour but de comparer les potentiels évoqués auditifs liés aux chants d’oiseaux entre des ornithologues amateurs et des participants novices. L’observation d’une distribution topographique différente chez les ornithologues à la présentation des trois catégories sonores (voix, chants d’oiseaux, sons de l’environnement) a rendu les résultats difficiles à interpréter. Dans la troisième étude, il était question de préciser le rôle des aires temporales de la voix dans le traitement de catégories d’expertise chez deux groupes d’experts auditifs, soit des ornithologues amateurs et des luthiers. Les données comportementales ont démontré une interaction entre les deux groupes d’experts et leur catégorie d’expertise respective pour des tâches de discrimination et de mémorisation. Les résultats obtenus en imagerie par résonance magnétique fonctionnelle ont démontré une interaction du même type dans le sillon temporal supérieur gauche et le gyrus cingulaire postérieur gauche. Ainsi, les aires de la voix sont impliquées dans le traitement de stimuli d’expertise dans deux groupes d’experts auditifs différents. Ce résultat suggère que la sélectivité à la voix humaine, telle que retrouvée dans les sillons temporaux supérieurs, pourrait être expliquée par une exposition prolongée à ces stimuli. Les données présentées démontrent plusieurs similitudes comportementales et anatomo-fonctionnelles entre le traitement de la voix et d’autres catégories d’expertise. Ces aspects communs sont explicables par une organisation à la fois fonctionnelle et économique du cerveau. Par conséquent, le traitement de la voix et d’autres catégories sonores se baserait sur les mêmes réseaux neuronaux, sauf en cas de traitement plus poussé. Cette interprétation s’avère particulièrement importante pour proposer une approche intégrative quant à la spécificité du traitement de la voix.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’âge, le génotype et les traumatismes crâniens (TCC) sont trois facteurs de risque majeurs du développement de la maladie d’Alzheimer (MA). Avec une accumulation d’évidences démontrant la persistance d’anomalies cérébrales suite aux plus légers des TCC, qui affichent d’ailleurs la plus haute incidence, il devient impératif de tester l’hypothèse selon laquelle même les commotions cérébrales puissent interagir avec l’âge et les gènes afin de précipiter la neurodégénération. Trente ex-athlètes de haut niveau (âge M = 60 ans), dont la moitié a subi des commotions cérébrales il y a plus de 30 ans, ont été évalués en neuropsychologie, en neuroimagerie multimodale ainsi qu’en génétique. De nombreuses mesures neuroanatomiques, dont l’expansion du volume des ventricules latéraux, se trouvent à corréler avec divers déficits cognitifs (mémoire différée et de reconnaissance) détectés chez les participants commotionnés. D’un intérêt particulier, certains de ces résultats sont modulés par le polymorphisme nucléotidique simple du gène Apolipoprotéine E. Ces résultats appuient l’hypothèse selon laquelle la commotion cérébrale chez de jeunes athlètes serait un facteur de risque de neurodégénération dans le vieillissement normal.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’explosion du nombre de séquences permet à la phylogénomique, c’est-à-dire l’étude des liens de parenté entre espèces à partir de grands alignements multi-gènes, de prendre son essor. C’est incontestablement un moyen de pallier aux erreurs stochastiques des phylogénies simple gène, mais de nombreux problèmes demeurent malgré les progrès réalisés dans la modélisation du processus évolutif. Dans cette thèse, nous nous attachons à caractériser certains aspects du mauvais ajustement du modèle aux données, et à étudier leur impact sur l’exactitude de l’inférence. Contrairement à l’hétérotachie, la variation au cours du temps du processus de substitution en acides aminés a reçu peu d’attention jusqu’alors. Non seulement nous montrons que cette hétérogénéité est largement répandue chez les animaux, mais aussi que son existence peut nuire à la qualité de l’inférence phylogénomique. Ainsi en l’absence d’un modèle adéquat, la suppression des colonnes hétérogènes, mal gérées par le modèle, peut faire disparaître un artéfact de reconstruction. Dans un cadre phylogénomique, les techniques de séquençage utilisées impliquent souvent que tous les gènes ne sont pas présents pour toutes les espèces. La controverse sur l’impact de la quantité de cellules vides a récemment été réactualisée, mais la majorité des études sur les données manquantes sont faites sur de petits jeux de séquences simulées. Nous nous sommes donc intéressés à quantifier cet impact dans le cas d’un large alignement de données réelles. Pour un taux raisonnable de données manquantes, il appert que l’incomplétude de l’alignement affecte moins l’exactitude de l’inférence que le choix du modèle. Au contraire, l’ajout d’une séquence incomplète mais qui casse une longue branche peut restaurer, au moins partiellement, une phylogénie erronée. Comme les violations de modèle constituent toujours la limitation majeure dans l’exactitude de l’inférence phylogénétique, l’amélioration de l’échantillonnage des espèces et des gènes reste une alternative utile en l’absence d’un modèle adéquat. Nous avons donc développé un logiciel de sélection de séquences qui construit des jeux de données reproductibles, en se basant sur la quantité de données présentes, la vitesse d’évolution et les biais de composition. Lors de cette étude nous avons montré que l’expertise humaine apporte pour l’instant encore un savoir incontournable. Les différentes analyses réalisées pour cette thèse concluent à l’importance primordiale du modèle évolutif.