397 resultados para Fonctions cognitives
Resumo:
La thérapie de resynchronisation cardiaque (CRT) est un traitement qui vise à rétablir le synchronisme de contraction du ventricule gauche chez les patients souffrant d’insuffisance cardiaque. Aujourd’hui encore, plus de 30% de ces patients ne répondent pas au traitement de resynchronisation. Afin de mieux comprendre les effets de la CRT sur la fonction cardiaque, un resynchronisateur biventriculaire a été implanté chez des chiens sains et des chiens atteints d’insuffisance cardiaque. Les fonctions ventriculaires gauche et droite ont été étudiées selon différents modes de resynchronisation. Les résultats de cette étude confirment premièrement que la durée du complexe QRS n’est pas un marqueur approprié dans l’optimisation de la CRT. Les résultats démontrent également qu’une optimisation individualisée de la CRT est nécessaire afin de maximiser l’effet de la thérapie sur le ventricule gauche et que la modulation du délai de resynchronisation a un impact significatif sur la fonction ventriculaire droite. Plus précisément, la fonction systolique du ventricule droit est optimale lors d’une activation précoce de l’électrode gauche.
Resumo:
Le principal rôle du corps calleux est d’assurer le transfert de l’information entre les hémisphères cérébraux. Du support empirique pour cette fonction provient d’études investiguant la communication interhémisphérique chez les individus à cerveau divisé (ICD). Des paradigmes expérimentaux exigeant une intégration interhémisphérique de l’information permettent de documenter certains signes de déconnexion calleuse chez ces individus. La présente thèse a investigué le transfert de l’information sous-tendant les phénomènes de gain de redondance (GR), de différence croisé– non-croisé (DCNC) et d’asynchronie bimanuelle chez les ICD et les individus normaux, et a ainsi contribué à préciser le rôle du corps calleux. Une première étude a comparé le GR des individus normaux et des ICD ayant subi une section partielle ou totale du corps calleux. Dans une tâche de détection, le GR consiste en la réduction des temps de réaction (TR) lorsque deux stimuli sont présentés plutôt qu’un seul. Typiquement, les ICD présentent un GR beaucoup plus grand (supra-GR) que celui des individus normaux (Reuter-Lorenz, Nozawa, Gazzaniga, & Hughes, 1995). Afin d’investiguer les conditions d’occurrence du supra-GR, nous avons évalué le GR en présentation interhémisphérique, intrahémisphérique et sur le méridien vertical, ainsi qu’avec des stimuli requérant une contribution corticale différente (luminance, couleur équiluminante ou mouvement). La présence d’un supra-GR chez les ICD partiels et totaux en comparaison avec celui des individus normaux a été confirmée. Ceci suggère qu’une section antérieure du corps calleux, qui perturbe le transfert d’informations de nature motrice/décisionnelle, est suffisante pour produire un supra-GR chez les ICD. Nos données permettent aussi d’affirmer que, contrairement au GR des individus normaux, celui des ICD totaux est sensible aux manipulations sensorielles. Nous concluons donc que le supra-GR des ICD est à la fois attribuable à des contributions sensorielles et motrices/décisionnelles. Une deuxième étude a investigué la DCNC et l’asynchronie bimanuelle chez les ICD et les individus normaux. La DCNC réfère à la soustraction des TR empruntant une voie anatomique « non-croisée » aux TR empruntant une voie anatomique « croisée », fournissant ainsi une estimation du temps de transfert interhémisphérique. Dans le contexte de notre étude, l’asynchronie bimanuelle réfère à la différence de TR entre la main gauche et la main droite, sans égard à l’hémichamp de présentation. Les effets de manipulations sensorielles et attentionnelles ont été évalués pour les deux mesures. Cette étude a permis d’établir une dissociation entre la DCNC et l’asynchronie bimanuelle. Précisément, les ICD totaux, mais non les ICD partiels, ont montré une DCNC significativement plus grande que celle des individus normaux, alors que les deux groupes d’ICD se sont montrés plus asynchrones que les individus normaux. Nous postulons donc que des processus indépendants sous-tendent la DCNC et la synchronie bimanuelle. De plus, en raison de la modulation parallèle du GR et de l’asynchronie bimanuelle entre les groupes, nous suggérons qu’un processus conjoint sous-tend ces deux mesures.
Resumo:
Thèse réalisée en cotutelle avec l'Université Paris Diderot (Paris 7)
Resumo:
La navigation repose en majeure partie sur la vision puisque ce sens nous permet de rassembler des informations spatiales de façon simultanée et de mettre à jour notre position par rapport à notre environnement. Pour plusieurs aveugles qui se fient à l’audition, le toucher, la proprioception, l’odorat et l’écholocation pour naviguer, sortir à l’extérieur de chez soi peut représenter un défi considérable. Les recherches sur le circuit neuronal de la navigation chez cette population en particulier s’avèrent donc primordiales pour mieux adapter les ressources aux handicapés visuels et réussir à les sortir de leur isolement. Les aveugles de naissance constituent aussi une population d’intérêt pour l’étude de la neuroplasticité. Comme leur cerveau s’est construit en absence d’intrant visuel, la plupart des structures reliées au sens de la vue sont réduites en volume par rapport à ceux de sujets voyants. De plus, leur cortex occipital, une région normalement dédiée à la vision, possède une activité supramétabolique au repos, ce qui peut représenter un territoire vierge pouvant être recruté par les autres modalités pour exécuter diverses tâches sensorielles. Plusieurs chercheurs ont déjà démontré l’implication de cette région dans des tâches sensorielles comme la discrimination tactile et la localisation auditive. D’autres changements plastiques de nature intramodale ont aussi été observés dans le circuit neuronal de la navigation chez ces aveugles. Par exemple, la partie postérieure de l’hippocampe, impliquée dans l’utilisation de cartes mentales, est réduite en volume alors que la section antérieure est élargie chez ces sujets. Bien que ces changements plastiques anatomiques aient bel et bien été observés chez les aveugles de naissance, il reste toutefois à les relier avec leur aspect fonctionnel. Le but de la présente étude était d’investiguer les corrélats neuronaux de la navigation chez l’aveugle de naissance tout en les reliant avec leurs habiletés spatio-cognitives. La première étude comportementale a permis d’identifier chez les aveugles congénitaux une difficulté d’apprentissage de routes tactiles construites dans des labyrinthes de petite échelle. La seconde étude, employant la technique d’imagerie par résonance magnétique fonctionnelle, a relié ces faiblesses au recrutement de régions cérébrales impliquées dans le traitement d’une perspective égocentrique, comme le lobule pariétal supérieur droit. Alors que des sujets voyants aux yeux bandés excellaient dans la tâche des labyrinthes, ces derniers recrutaient des structures impliquées dans un traitement allocentrique, comme l’hippocampe et le parahippocampe. Par ailleurs, la deuxième étude a confirmé le recrutement du cortex occipital dans une tâche de navigation chez les aveugles seulement. Ceci confirme l’implication de la plasticité intermodale dans des tâches cognitives de plus haut niveau, comme la navigation.
Resumo:
L’évolution technologique et l'accroissement de la population vieillissante sont deux tendances majeures de la dernière décennie. Durant cette période, la prolifération ubiquitaire de la téléphonie mobile a changé les habitudes de communication des gens. Le changement constant des appareils téléphoniques portatifs, l'augmentation des fonctions, la diversité iconographique, la variété des interfaces et la complexité de navigation exigent aujourd’hui non seulement plus de temps d'adaptation et d’apprentissage, mais représentent aussi un effort cognitif important. Les technologies d'information et de communication (TIC) sont devenues des outils incontournables de la vie moderne. Pour les personnes âgées, cet univers en perpétuelle mutation avec ces nouveaux appareils représente un obstacle à l’accès à l’information et contribue ainsi au gap générationnel. Le manque de référence et de soutien et les déficiences physiques ou cognitives, que certaines personnes développent en vieillissant, rendent l'usage de ce type d’objet souvent impossible. Pourtant, les produits intelligents plus accessibles, tant au niveau physique que cognitif sont une réelle nécessité au sein de notre société moderne permettant aux personnes âgées de vivre de manière plus autonome et « connectée ». Cette recherche a pour but d'exposer les défis d'usage des téléphones portables existants et d'identifier en particulier les problèmes d’usage que les personnes âgées manifestent. L’étude vise la tranche de population qui est peu habituée aux technologies de communications qui ne ciblent le plus souvent que les plus jeunes et les professionnels. C’est en regardant les habitudes d’usage, que la recherche qualitative nous permettra d’établir un profil des personnes âgées par rapport au TIC et de mieux comprendre les défis liés à la perception, compréhension et l’usage des interfaces de téléphones portables.
Resumo:
Grâce à un grand nombre d’études biochimiques, génétiques et structurales effectuées dans les dernières années, des avancements considérables ont été réalisés et une nouvelle vision du processus par lequel la machinerie transcriptionnelle de l’ARN polymérase II (Pol II) décode l’information génétique a émergé. De nouveaux indices ont été apportés sur la diversité des mécanismes de régulation de la transcription, ainsi que sur le rôle des facteurs généraux de transcription (GTFs) dans cette diversification. Les travaux présentés dans cette thèse amènent de nouvelles connaissances sur le rôle des GTFs humains dans la régulation des différentes étapes de la transcription. Dans la première partie de la thèse, nous avons analysé la fonction de la Pol II et des GTFs humains, en examinant de façon systématique leur localisation génomique. Les patrons obtenus par immunoprécipitation de la chromatine (ChIP) des versions de GTFs portant une étiquette TAP (Tandem-Affinity Purification) indiquent de nouvelles fonctions in vivo pour certains composants de cette machinerie et pour des éléments structuraux de la Pol II. Nos résultats suggèrent que TFIIF et l’hétérodimère Rpb4–Rpb7 ont une fonction spécifique pendant l’étape d’élongation transcriptionnelle in vivo. De plus, notre étude amène une première image globale de la fonction des GTFs pendant la réaction transcriptionnelle dans des cellules mammifères vivantes. Deuxièmement, nous avons identifié une nouvelle fonction de TFIIS dans la régulation de CDK9, la sous-unité kinase du facteur P-TEFb (Positive Transcription Elongation Factor b). Nous avons identifié deux nouveaux partenaires d’interaction pour TFIIS, soit CDK9 et la E3 ubiquitine ligase UBR5. Nous montrons que UBR5 catalyse l’ubiquitination de CDK9 in vitro. De plus, la polyubiquitination de CDK9 dans des cellules humaines est dépendante de UBR5 et TFIIS. Nous montrons aussi que UBR5, CDK9 and TFIIS co-localisent le long du gène fibrinogen (FBG) et que la surexpression de TFIIS augmente les niveaux d’occupation par CDK9 de régions spécifiques de ce gène, de façon dépendante de UBR5. Nous proposons que TFIIS a une nouvelle fonction dans la transition entre les étapes d’initiation et d’élongation transcriptionnelle, en régulant la stabilité des complexes CDK9-Pol II pendant les étapes précoces de la transcription.
Resumo:
Nous entendons, dans ce mémoire, préciser le sens d'actus essendi par l’analyse de l’emploi du terme par Thomas d’Aquin. Bien que la notion d’acte d’être soit sousjacente à nombre de développements philosophiques et théologiques de l’Aquinate, elle n’est considérée pour elle-même dans aucun texte du corpus thomasien. En exposant le cadre théorique des onze unités textuelles dans lesquelles on retrouve nommément l’expression, nous explicitons les distinctions qu’opère Thomas entre l’acte d’être et les notions ontologiques corrélatives (étant, quiddité, être du jugement prédicatif et être commun). Si « actus essendi » désigne en premier lieu un principe constitutif de l’étant, il peut encore désigner le terme abstrait correspondant à cette perfection de l’étant. L’acte d’être est ainsi ce par quoi l’étant est étant; il est cependant, au plan ontologique, propre à chaque étant singulier tandis que, au plan conceptuel, le même terme exprime ce qui est commun à tous les étants. Une traduction des extraits du Scriptum super Sententiis, des Quæstiones de quolibet, de la Summa Theologiæ, des Quæstiones disputatæ De potentia, de l’Expositio libri De hebdomadibus et de la Expositio libri Metaphysicæ a été produite pour les fins de cette étude.
Resumo:
Cette thèse examine en profondeur la nature et l’application du concept de genre en jeu vidéo. Elle se divise en trois parties. La première fait l’inventaire des théories des genres en littérature et en études cinématographiques. Les propriétés essentielles du genre comme concept sont identifiées : il s’agit d’une catégorisation intuitive et irraisonnée, de nature discursive, qui découle d’un consensus culturel commun plutôt que de systèmes théoriques, et qui repose sur les notions de tradition, d’innovation et d’hybridité. Dans la deuxième partie, ces constats sont appliqués au cas du genre vidéoludique. Quelques typologies sont décortiquées pour montrer l’impossibilité d’une classification autoritaire. Un modèle du développement des genres est avancé, lequel s’appuie sur trois modalités : l’imitation, la réitération et l’innovation. Par l’examen de l’histoire du genre du first-person shooter, la conception traditionnelle du genre vidéoludique basée sur des mécanismes formels est remplacée par une nouvelle définition centrée sur l’expérience du joueur. La troisième partie développe l’expérience comme concept théorique et la place au centre d’une nouvelle conception du genre, la pragmatique des effets génériques. Dans cette optique, tout objet est une suite d’amorces génériques, d’effets en puissance qui peuvent se réaliser pourvu que le joueur dispose des compétences génériques nécessaires pour les reconnaître. Cette nouvelle approche est démontrée à travers une étude approfondie d’un genre vidéoludique : le survival horror. Cette étude de cas témoigne de l’applicabilité plus large de la pragmatique des effets génériques, et de la récursivité des questions de genre entre le jeu vidéo, la littérature et le cinéma.
Resumo:
Ce mémoire a pour but d'étudier les propriétés des solutions à l'équation aux valeurs propres de l'opérateur de Laplace sur le disque lorsque les valeurs propres tendent vers l'in ni. En particulier, on s'intéresse au taux de croissance des normes ponctuelle et L1. Soit D le disque unitaire et @D sa frontière (le cercle unitaire). On s'inté- resse aux solutions de l'équation aux valeurs propres f = f avec soit des conditions frontières de Dirichlet (fj@D = 0), soit des conditions frontières de Neumann ( @f @nj@D = 0 ; notons que sur le disque, la dérivée normale est simplement la dérivée par rapport à la variable radiale : @ @n = @ @r ). Les fonctions propres correspondantes sont données par : f (r; ) = fn;m(r; ) = Jn(kn;mr)(Acos(n ) + B sin(n )) (Dirichlet) fN (r; ) = fN n;m(r; ) = Jn(k0 n;mr)(Acos(n ) + B sin(n )) (Neumann) où Jn est la fonction de Bessel de premier type d'ordre n, kn;m est son m- ième zéro et k0 n;m est le m-ième zéro de sa dérivée (ici on dénote les fonctions propres pour le problème de Dirichlet par f et celles pour le problème de Neumann par fN). Dans ce cas, on obtient que le spectre SpD( ) du laplacien sur D, c'est-à-dire l'ensemble de ses valeurs propres, est donné par : SpD( ) = f : f = fg = fk2 n;m : n = 0; 1; 2; : : :m = 1; 2; : : :g (Dirichlet) SpN D( ) = f : fN = fNg = fk0 n;m 2 : n = 0; 1; 2; : : :m = 1; 2; : : :g (Neumann) En n, on impose que nos fonctions propres soient normalisées par rapport à la norme L2 sur D, c'est-à-dire : R D F2 da = 1 (à partir de maintenant on utilise F pour noter les fonctions propres normalisées et f pour les fonctions propres quelconques). Sous ces conditions, on s'intéresse à déterminer le taux de croissance de la norme L1 des fonctions propres normalisées, notée jjF jj1, selon . Il est vi important de mentionner que la norme L1 d'une fonction sur un domaine correspond au maximum de sa valeur absolue sur le domaine. Notons que dépend de deux paramètres, m et n et que la dépendance entre et la norme L1 dépendra du rapport entre leurs taux de croissance. L'étude du comportement de la norme L1 est étroitement liée à l'étude de l'ensemble E(D) qui est l'ensemble des points d'accumulation de log(jjF jj1)= log : Notre principal résultat sera de montrer que [7=36; 1=4] E(B2) [1=18; 1=4]: Le mémoire est organisé comme suit. L'introdution et les résultats principaux sont présentés au chapitre 1. Au chapitre 2, on rappelle quelques faits biens connus concernant les fonctions propres du laplacien sur le disque et sur les fonctions de Bessel. Au chapitre 3, on prouve des résultats concernant la croissance de la norme ponctuelle des fonctions propres. On montre notamment que, si m=n ! 0, alors pour tout point donné (r; ) du disque, la valeur de F (r; ) décroit exponentiellement lorsque ! 1. Au chapitre 4, on montre plusieurs résultats sur la croissance de la norme L1. Le probl ème avec conditions frontières de Neumann est discuté au chapitre 5 et on présente quelques résultats numériques au chapitre 6. Une brève discussion et un sommaire de notre travail se trouve au chapitre 7.
Resumo:
La réaction du greffon contre l’hôte (GvH) est responsable d’un grand taux de morbidité et de mortalité chez les patients recevant des greffes de cellules souches (GCSH) allogéniques. Dans ce contexte, les cellules T régulatrices sont largement étudiées et semblent avoir un grand potentiel d’utilisation dans le domaine de la thérapie cellulaire de la GvH. Parmi les populations cellulaires T régulatrices, les lymphocytes T CD4-CD8- TCRαβ+ « Doubles-Négatifs » (DN), qui ne représentent que 1-3% des lymphocytes T, ont été décrits. Ces cellules ont des propriétés inhibitrices de la réponse immunitaire qui s’avèrent spécifiques aux antigènes auxquels elles ont préalablement été exposées. La répression de la réponse immunitaire par les cellules T DN régulatrices semble être un mécanisme important impliqué dans l’induction de la tolérance aux allo-antigènes. De plus, ces cellules confèrent une tolérance immunitaire dans des modèles de greffes allogéniques et xénogéniques. En effet, ces cellules ont la capacité d’inhiber la réaction contre un allo-antigène auquel elles ont été exposées, sans inhiber la réaction contre un allo-antigène inconnu. Les cellules T DN ont été isolées et caractérisées chez l’homme où elles ont la capacité d’interagir avec des cellules présentatrices d’antigènes (APCs) par un contact cellulaire, comme chez la souris. Cependant, leur capacité immunomodulatrice reste inconnue chez l’humain. Notre objectif consistait donc principalement à étudier le rôle et le mécanisme d’action des cellules T DN régulatrices humaines in vitro, en étudiant leur capacité à inhiber une réaction lymphocytaire mixte (MLR). Nous avons montré que les cellules T DN stimulées par un allo-antigène donné inhibent des cellules syngéniques effectrices dirigées contre ce même alloantigène mais n’inhibent pas des cellules syngéniques effectrices dirigées contre un autre alloantigène, démontrant ainsi la spécificité aux antigènes de ces cellules. De plus, les T DN non stimulées par un allo-antigène n’ont pas de rôle inhibiteur. Cependant, durant cette inhibition, nous n’observons pas de modulation de l’expression des marqueurs d’activation et d’induction de l’apoptose. Afin d’étudier le mécanisme d’action des cellules T DN, nous avons mesuré l’expression intracellulaire de la granzyme B. Les résultats démontrent que les cellules T DN stimulées expriment un niveau significativement plus élevé de granzyme B que les cellules T DN non-stimulées par l’allo-antigène. Ceci suggère que l’immunosuppression induite par les cellules T DN stimulées pourrait passer par la voie granzyme B. Le mécanisme utilisé par ces cellules reste à être confirmé par nos futures expériences.
Resumo:
Cette étude aborde le thème de l’utilisation des modèles de mélange de lois pour analyser des données de comportements et d’habiletés cognitives mesurées à plusieurs moments au cours du développement des enfants. L’estimation des mélanges de lois multinormales en utilisant l’algorithme EM est expliquée en détail. Cet algorithme simplifie beaucoup les calculs, car il permet d’estimer les paramètres de chaque groupe séparément, permettant ainsi de modéliser plus facilement la covariance des observations à travers le temps. Ce dernier point est souvent mis de côté dans les analyses de mélanges. Cette étude porte sur les conséquences d’une mauvaise spécification de la covariance sur l’estimation du nombre de groupes formant un mélange. La conséquence principale est la surestimation du nombre de groupes, c’est-à-dire qu’on estime des groupes qui n’existent pas. En particulier, l’hypothèse d’indépendance des observations à travers le temps lorsque ces dernières étaient corrélées résultait en l’estimation de plusieurs groupes qui n’existaient pas. Cette surestimation du nombre de groupes entraîne aussi une surparamétrisation, c’est-à-dire qu’on utilise plus de paramètres qu’il n’est nécessaire pour modéliser les données. Finalement, des modèles de mélanges ont été estimés sur des données de comportements et d’habiletés cognitives. Nous avons estimé les mélanges en supposant d’abord une structure de covariance puis l’indépendance. On se rend compte que dans la plupart des cas l’ajout d’une structure de covariance a pour conséquence d’estimer moins de groupes et les résultats sont plus simples et plus clairs à interpréter.
Resumo:
Dans ce mémoire, nous traiterons du théorème de Lebesgue, un des plus frappants et des plus importants de l'analyse mathématique ; à savoir qu'une fonction à variation bornée est dérivable presque partout. Le but de ce travail est de fournir, à part la démonstration souvent proposée dans les cours de la théorie de la mesure, d'autres démonstrations élaborées avec des outils mathématiques plus simples. Ma contribution a consisté essentiellement à détailler et à compléter ces démonstrations, puis à inclure la plupart des figures pour une meilleure lisibilité. Nous allons maintenant, pour ce théorème qui se présente sous d'autres variantes, en proposer l'historique et trois démonstrations différentes.
Resumo:
La maladie d’Alzheimer (MA) est de loin le type de démence le plus répandu chez les personnes âgées. Il est maintenant possible de proposer un certain nombre d’interventions ou de stratégies préventives aux personnes portant un diagnostic de MA ou à risque de développer la maladie. Il est donc important de diagnostiquer cette maladie le plus tôt possible. Les personnes avec un trouble cognitif léger (TCL) représentent une population d’intérêt puisqu’elles sont à haut risque d’évoluer vers une démence et plusieurs d’entres elles seraient ainsi dans une phase prodromale de la MA. Les travaux de cette thèse visent à explorer les activations fonctionnelles associées à la mémoire épisodique et à la mémoire de travail dans le TCL ainsi qu’aux effets de la sévérité de la maladie et des caractéristiques de la tâche sur ces activations. Dans un premier temps, nous exposerons les connaissances relatives au niveau des atteintes cognitives, du patron d’activation fonctionnelle et des plus récents modèles élaborés pour expliquer les changements d’activation dans le vieillissement normal et pathologique (Chapitre 1). Par la suite, les études réalisées dans le cadre de cette thèse seront présentées. Nous avons d’abord étudié la fiabilité du signal d’activation chez les TCL et chez les personnes âgées saines (PA) à l’aide de tâches d’encodage et de récupération de mots (Chapitre 2). Nous avons ensuite comparé le patron d’activation cérébral des PA et des personnes TCL alors qu’elles réalisaient une tâche d’encodage et de récupération de mots. L’effet de la sévérité a été évalué en corrélant les activations des personnes TCL à leurs scores obtenu à une échelle évaluant leur cognition globale (Chapitre 3). L’effet de sévérité a ensuite été étudié de manière plus approfondie chez un plus grand nombre de TCL en utilisant la médiane du groupe à cette même échelle pour déterminer un groupe de TCL plus atteints et un groupe de TCL moins atteints. Ces deux groupes ont ensuite été comparés à un groupe de PA lors d’une tâche d’encodage de paires de mots reliés sémantiquement ou non-reliés (Chapitre 4), une tâche de reconnaissance de paires de mots mesurant principalement la familiarité ou principalement la recollection (Chapitre 5), ainsi que deux tâches impliquant des composantes différentes de la mémoire de travail et des fonctions exécutives, soit la manipulation de l’information et l’attention divisée (Chapitre 6). Les résultats présentés dans cette thèse ont mis en évidence une distinction entre le patron d’activation des TCL et des PA qui semble caractérisée par une interaction entre le niveau de sévérité de la maladie et les processus cognitifs impliqués dans la tâche. L’effet de sévérité a été observé lors de plusieurs tâches impliquant des processus cognitifs différents où les MCI moins atteints ont montré principalement des hyperactivations sous-tendant des mécanismes compensatoires et les MCI plus atteints ont montré principalement des hypoactivations soulignant la dégradation de ces mécanismes. Par ailleurs, les résultats de nos études ont aussi montré que cet effet de sévérité est modulé par le moment d’altération du processus cognitif impliqué dans la tâche: les processus altérés précocément dans le TCL sont caractériséees par des hyperactivations chez les TCL moins atteints tandis que les processus altérés plus tardivement ont plutôt élicité des hyperactivations chez les TCL plus atteints. Les implications de ces résultats, ainsi que les limites des études, sont discutés (Chapitre 7).
Resumo:
Le théorème ergodique de Birkhoff nous renseigne sur la convergence de suites de fonctions. Nous nous intéressons alors à étudier la convergence en moyenne et presque partout de ces suites, mais dans le cas où la suite est une suite strictement croissante de nombres entiers positifs. C’est alors que nous définirons les suites uniformes et étudierons la convergence presque partout pour ces suites. Nous regarderons également s’il existe certaines suites pour lesquelles la convergence n’a pas lieu. Nous présenterons alors un résultat dû en partie à Alexandra Bellow qui dit que de telles suites existent. Finalement, nous démontrerons une équivalence entre la notion de transformatiuon fortement mélangeante et la convergence d'une certaine suite qui utilise des “poids” qui satisfont certaines propriétés.
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal