965 resultados para système de connaissances
Resumo:
Ce mémoire consiste en l’étude du comportement dynamique de deux oscillateurs FitzHugh-Nagumo identiques couplés. Les paramètres considérés sont l’intensité du courant injecté et la force du couplage. Juqu’à cinq solutions stationnaires, dont on analyse la stabilité asymptotique, peuvent co-exister selon les valeurs de ces paramètres. Une analyse de bifurcation, effectuée grâce à des méthodes tant analytiques que numériques, a permis de détecter différents types de bifurcations (point de selle, Hopf, doublement de période, hétéroclinique) émergeant surtout de la variation du paramètre de couplage. Une attention particulière est portée aux conséquences de la symétrie présente dans le système.
Resumo:
Article publié dans le journal « Journal of Information Security Research ». March 2012.
Resumo:
La recherche sur l’utilisation des connaissances issues de la recherche (CIR) est en pleine expansion. Plusieurs études ont montré que l’utilisation des CIR contribue à améliorer la réussite scolaire des élèves. Toutefois, il semble que les enseignants les utilisent très peu. Pour améliorer cette utilisation, il est nécessaire de développer un modèle explicatif de l’utilisation des connaissances issues de la recherche. Ce modèle permet de rendre compte des mécanismes menant à l’utilisation des connaissances issues de la recherche en milieu de pratique. Il permet également de mettre en évidence les facteurs les plus influents et l’agencement de ces différents facteurs dans le but de favoriser une meilleure utilisation des connaissances issues de la recherche. Ce dernier aspect constitue l’objectif principal de cette thèse pour le domaine spécifique de l’éducation. Pour ce faire, un questionnaire sur l’utilisation des connaissances issues de la recherche (QUC) est validé et un modèle est proposé. Le premier article de la thèse examine la fiabilité, la validité et la structure factorielle du QUC avec un échantillon francophone et anglophone d’un milieu défavorisé. Le QUC, composé de 43 items, mesure six dimensions, soit : l’utilisation des connaissances issues de la recherche, le contexte organisationnel, la stratégie de soutien, l’opinion des utilisateurs et leur expertise ainsi que la fréquence d’accès aux sources des connaissances issues de la recherche. Au total, 2270 enseignants ont complété le questionnaire. Les résultats des différentes analyses montrent que le QUC doit être réduit à 20 items regroupés en cinq facteurs : l’utilisation des connaissances issues de la recherche, l’opinion des utilisateurs, la stratégie de soutien, l’expertise des utilisateurs et les facteurs organisationnels. Le second article de cette thèse examine quel modèle permet de mieux expliquer l’utilisation des CIR. Pour ce faire, deux modèles sont testés avec le même échantillon que dans le premier article, soit un modèle de liens directs et un modèle avec médiation. Pour le premier modèle, un lien direct entre l’utilisation des connaissances issues de la recherche et les facteurs qui favorisent cette utilisation est postulé : l’expertise, l’opinion, la stratégie de soutien et le facteur organisationnel auront des liens directs avec l’utilisation des connaissances issues de la recherche. Le second modèle (modèle avec médiation) se base quant à lui sur les théories de l’action raisonnée et du comportement planifié et postule que le lien entre les facteurs et l’utilisation n’est pas direct; certains facteurs ont des effets directs et d’autres des effets indirects. Concrètement, ce second modèle postule que l’expertise et l’opinion agissent comme médiateurs entre, d’une part, les deux variables indépendantes (le facteur organisationnel et la stratégie de soutien), et, d’autre part, la variable dépendante (l’utilisation des connaissances issues de la recherche). Les résultats des analyses montrent que le modèle avec médiation permet de mieux comprendre l’utilisation des connaissances issues de la recherche. Cette étude a permis de valider un questionnaire sur l’utilisation des connaissances issues de la recherche et aboutit à la proposition d’un modèle qui permet d’expliquer l’utilisation des connaissances issues de la recherche spécialement conçu pour le domaine de l’éducation. Elle fournit des outils (un questionnaire validé et un modèle) qui permettent de mieux cerner le paradigme de l’utilisation des connaissances issues de la recherche, ce qui pourrait favoriser une plus grande utilisation des CIR par les intervenants scolaires. En effet, les résultats de cette recherche peuvent guider les décideurs dans l’implantation des programmes menant à l’utilisation des connaissances issues de la recherche qui s’adressent aux enseignants. Ces résultats indiquent sur quels facteurs agir en premier lieu afin d’améliorer l’utilisation des CIR chez les enseignants du secondaire dans les milieux défavorisés. Le présent modèle pourrait être utilisé dans d’autres milieux scolaires (par exemple les milieux non défavorisés ou les milieux scolaires primaires) après validation.
Resumo:
Travail d'intégration réalisé dans le cadre du cours PHT-6113.
Resumo:
Travail d'intégration réalisé dans le cadre du cours PHT-6113.
Resumo:
Un objectif principal du génie logiciel est de pouvoir produire des logiciels complexes, de grande taille et fiables en un temps raisonnable. La technologie orientée objet (OO) a fourni de bons concepts et des techniques de modélisation et de programmation qui ont permis de développer des applications complexes tant dans le monde académique que dans le monde industriel. Cette expérience a cependant permis de découvrir les faiblesses du paradigme objet (par exemples, la dispersion de code et le problème de traçabilité). La programmation orientée aspect (OA) apporte une solution simple aux limitations de la programmation OO, telle que le problème des préoccupations transversales. Ces préoccupations transversales se traduisent par la dispersion du même code dans plusieurs modules du système ou l’emmêlement de plusieurs morceaux de code dans un même module. Cette nouvelle méthode de programmer permet d’implémenter chaque problématique indépendamment des autres, puis de les assembler selon des règles bien définies. La programmation OA promet donc une meilleure productivité, une meilleure réutilisation du code et une meilleure adaptation du code aux changements. Très vite, cette nouvelle façon de faire s’est vue s’étendre sur tout le processus de développement de logiciel en ayant pour but de préserver la modularité et la traçabilité, qui sont deux propriétés importantes des logiciels de bonne qualité. Cependant, la technologie OA présente de nombreux défis. Le raisonnement, la spécification, et la vérification des programmes OA présentent des difficultés d’autant plus que ces programmes évoluent dans le temps. Par conséquent, le raisonnement modulaire de ces programmes est requis sinon ils nécessiteraient d’être réexaminés au complet chaque fois qu’un composant est changé ou ajouté. Il est cependant bien connu dans la littérature que le raisonnement modulaire sur les programmes OA est difficile vu que les aspects appliqués changent souvent le comportement de leurs composantes de base [47]. Ces mêmes difficultés sont présentes au niveau des phases de spécification et de vérification du processus de développement des logiciels. Au meilleur de nos connaissances, la spécification modulaire et la vérification modulaire sont faiblement couvertes et constituent un champ de recherche très intéressant. De même, les interactions entre aspects est un sérieux problème dans la communauté des aspects. Pour faire face à ces problèmes, nous avons choisi d’utiliser la théorie des catégories et les techniques des spécifications algébriques. Pour apporter une solution aux problèmes ci-dessus cités, nous avons utilisé les travaux de Wiels [110] et d’autres contributions telles que celles décrites dans le livre [25]. Nous supposons que le système en développement est déjà décomposé en aspects et classes. La première contribution de notre thèse est l’extension des techniques des spécifications algébriques à la notion d’aspect. Deuxièmement, nous avons défini une logique, LA , qui est utilisée dans le corps des spécifications pour décrire le comportement de ces composantes. La troisième contribution consiste en la définition de l’opérateur de tissage qui correspond à la relation d’interconnexion entre les modules d’aspect et les modules de classe. La quatrième contribution concerne le développement d’un mécanisme de prévention qui permet de prévenir les interactions indésirables dans les systèmes orientés aspect.
Resumo:
Pendant la dernière décennie nous avons vu une transformation incroyable du monde de la musique qui est passé des cassettes et disques compacts à la musique numérique en ligne. Avec l'explosion de la musique numérique, nous avons besoin de systèmes de recommandation de musique pour choisir les chansons susceptibles d’être appréciés à partir de ces énormes bases de données en ligne ou personnelles. Actuellement, la plupart des systèmes de recommandation de musique utilisent l’algorithme de filtrage collaboratif ou celui du filtrage à base de contenu. Dans ce mémoire, nous proposons un algorithme hybride et original qui combine le filtrage collaboratif avec le filtrage basé sur étiquetage, amélioré par la technique de filtrage basée sur le contexte d’utilisation afin de produire de meilleures recommandations. Notre approche suppose que les préférences de l'utilisateur changent selon le contexte d'utilisation. Par exemple, un utilisateur écoute un genre de musique en conduisant vers son travail, un autre type en voyageant avec la famille en vacances, un autre pendant une soirée romantique ou aux fêtes. De plus, si la sélection a été générée pour plus d'un utilisateur (voyage en famille, fête) le système proposera des chansons en fonction des préférences de tous ces utilisateurs. L'objectif principal de notre système est de recommander à l'utilisateur de la musique à partir de sa collection personnelle ou à partir de la collection du système, les nouveautés et les prochains concerts. Un autre objectif de notre système sera de collecter des données provenant de sources extérieures, en s'appuyant sur des techniques de crawling et sur les flux RSS pour offrir des informations reliées à la musique tels que: les nouveautés, les prochains concerts, les paroles et les artistes similaires. Nous essayerons d’unifier des ensembles de données disponibles gratuitement sur le Web tels que les habitudes d’écoute de Last.fm, la base de données de la musique de MusicBrainz et les étiquettes des MusicStrands afin d'obtenir des identificateurs uniques pour les chansons, les albums et les artistes.
Resumo:
Les cellules souches somatiques présentent habituellement un comportement très différent des cellules souches pluripotentes. Les bases moléculaires de l’auto-renouvellement des cellules souches embryonnaires ont été récemment déchiffrées grâce à la facilité avec laquelle nous pouvons maintenant les purifier et les maintenir en culture durant de longues périodes de temps. Par contre, il en va tout autrement pour les cellules souches hématopoïétiques. Dans le but d’en apprendre davantage sur le fonctionnement moléculaire de l’auto-renouvellement des cellules souches hématopoïétiques, j’ai d’abord conçu une nouvelle méthode de criblage gain-de-fonction qui répond aux caprices particuliers de ces cellules. Partant d’une liste de plus de 700 facteurs nucléaires et facteurs de division asymétrique candidats, j’ai identifié 24 nouveaux facteurs qui augmentent l’activité des cellules souches hématopoïétiques lorsqu’ils sont surexprimés. J’ai par la suite démontré que neuf de ces facteurs agissent de manière extrinsèque aux cellules souches hématopoïétiques, c’est-à-dire que l’effet provient des cellules nourricières modifiées en co-culture. J’ai également mis à jour un nouveau réseau de régulation de transcription qui implique cinq des facteurs identifiés, c’est-à-dire PRDM16, SPI1, KLF10, FOS et TFEC. Ce réseau ressemble étrangement à celui soutenant l’ostéoclastogénèse. Ces résultats soulèvent l’hypothèse selon laquelle les ostéoclastes pourraient aussi faire partie de la niche fonctionnelle des cellules souches hématopoïétiques dans la moelle osseuse. De plus, j’ai identifié un second réseau de régulation impliquant SOX4, SMARCC1 et plusieurs facteurs identifiés précédemment dans le laboratoire, c’est-à-dire BMI1, MSI2 et KDM5B. D’autre part, plusieurs indices accumulés tendent à démontrer qu’il existe des différences fondamentales entre le fonctionnement des cellules souches hématopoïétiques murines et humaines.
Resumo:
Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues dans le code. Lorsque ces logiciels évoluent, leurs architectures ont tendance à se dégrader avec le temps et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. Elles deviennent plus complexes et plus difficiles à maintenir. Dans certains cas, les développeurs préfèrent refaire la conception de ces architectures à partir du zéro plutôt que de prolonger la durée de leurs vies, ce qui engendre une augmentation importante des coûts de développement et de maintenance. Par conséquent, les développeurs doivent comprendre les facteurs qui conduisent à la dégradation des architectures, pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent leur dégradation. La dégradation des architectures se produit lorsque des développeurs qui ne comprennent pas la conception originale du logiciel apportent des changements au logiciel. D'une part, faire des changements sans comprendre leurs impacts peut conduire à l'introduction de bogues et à la retraite prématurée du logiciel. D'autre part, les développeurs qui manquent de connaissances et–ou d'expérience dans la résolution d'un problème de conception peuvent introduire des défauts de conception. Ces défauts ont pour conséquence de rendre les logiciels plus difficiles à maintenir et évoluer. Par conséquent, les développeurs ont besoin de mécanismes pour comprendre l'impact d'un changement sur le reste du logiciel et d'outils pour détecter les défauts de conception afin de les corriger. Dans le cadre de cette thèse, nous proposons trois principales contributions. La première contribution concerne l'évaluation de la dégradation des architectures logicielles. Cette évaluation consiste à utiliser une technique d’appariement de diagrammes, tels que les diagrammes de classes, pour identifier les changements structurels entre plusieurs versions d'une architecture logicielle. Cette étape nécessite l'identification des renommages de classes. Par conséquent, la première étape de notre approche consiste à identifier les renommages de classes durant l'évolution de l'architecture logicielle. Ensuite, la deuxième étape consiste à faire l'appariement de plusieurs versions d'une architecture pour identifier ses parties stables et celles qui sont en dégradation. Nous proposons des algorithmes de bit-vecteur et de clustering pour analyser la correspondance entre plusieurs versions d'une architecture. La troisième étape consiste à mesurer la dégradation de l'architecture durant l'évolution du logiciel. Nous proposons un ensemble de m´etriques sur les parties stables du logiciel, pour évaluer cette dégradation. La deuxième contribution est liée à l'analyse de l'impact des changements dans un logiciel. Dans ce contexte, nous présentons une nouvelle métaphore inspirée de la séismologie pour identifier l'impact des changements. Notre approche considère un changement à une classe comme un tremblement de terre qui se propage dans le logiciel à travers une longue chaîne de classes intermédiaires. Notre approche combine l'analyse de dépendances structurelles des classes et l'analyse de leur historique (les relations de co-changement) afin de mesurer l'ampleur de la propagation du changement dans le logiciel, i.e., comment un changement se propage à partir de la classe modifiée è d'autres classes du logiciel. La troisième contribution concerne la détection des défauts de conception. Nous proposons une métaphore inspirée du système immunitaire naturel. Comme toute créature vivante, la conception de systèmes est exposée aux maladies, qui sont des défauts de conception. Les approches de détection sont des mécanismes de défense pour les conception des systèmes. Un système immunitaire naturel peut détecter des pathogènes similaires avec une bonne précision. Cette bonne précision a inspiré une famille d'algorithmes de classification, appelés systèmes immunitaires artificiels (AIS), que nous utilisions pour détecter les défauts de conception. Les différentes contributions ont été évaluées sur des logiciels libres orientés objets et les résultats obtenus nous permettent de formuler les conclusions suivantes: • Les métriques Tunnel Triplets Metric (TTM) et Common Triplets Metric (CTM), fournissent aux développeurs de bons indices sur la dégradation de l'architecture. La d´ecroissance de TTM indique que la conception originale de l'architecture s’est dégradée. La stabilité de TTM indique la stabilité de la conception originale, ce qui signifie que le système est adapté aux nouvelles spécifications des utilisateurs. • La séismologie est une métaphore intéressante pour l'analyse de l'impact des changements. En effet, les changements se propagent dans les systèmes comme les tremblements de terre. L'impact d'un changement est plus important autour de la classe qui change et diminue progressivement avec la distance à cette classe. Notre approche aide les développeurs à identifier l'impact d'un changement. • Le système immunitaire est une métaphore intéressante pour la détection des défauts de conception. Les résultats des expériences ont montré que la précision et le rappel de notre approche sont comparables ou supérieurs à ceux des approches existantes.
Resumo:
Dans l’espoir d'améliorer l'efficacité, l’efficience, la qualité et la sécurité des soins de santé, la plupart des pays investissent dans l’informatisation de leur système de santé. Malgré l’octroi de ressources substantielles, les projets d'implantation d’un Dossier médical électronique (DME) font parfois l’objet d’une résistance importante de la part des utilisateurs au moment de leur implantation sur le terrain. Pour expliquer l’adoption d’un DME par les professionnels de la santé, plusieurs modèles théoriques ont été développés et appliqués. Une diversité de facteurs agissant à différents niveaux (individuel, organisationnel et liés à la technologie elle-même) a ainsi été identifiée. L’objectif de cette recherche est d’approfondir les connaissances empiriques quant aux facteurs influençant l’utilisation du DME chez les professionnels de la santé. Le devis de recherche repose sur une étude de cas unique avec douze entrevues et une observation non participante réalisées un an suite au lancement du processus d’implantation d’un DME auprès d’un groupe de médecine famille (GMF) au sein du Centre de santé et de services sociaux du Sud-Ouest-Verdun (Montréal, Canada). Dans le cadre de cette étude, l’analyse a permis l’identification de facilitateurs et de barrières influençant l’adoption du DME. Les facilitateurs étaient l’utilité perçue, la décision du GMF d’implanter le DME, le support de la direction ainsi que la présence de champions et de superutilisateurs. Les barrières les plus importantes étaient l’impact négatif sur le travail clinique, la fragmentation de l’information dans le DME ainsi que les problèmes liés à l’infrastructure technique. Cette connaissance permettra d’alimenter des stratégies visant à mieux répondre aux défis suscités par l’implantation du dossier médical électronique.
Resumo:
Traduction du titre en anglais: Making sense of governance in non-formal education : A critical analysis of the Senegalese faire faire strategy
Resumo:
La quantité de données générée dans le cadre d'étude à grande échelle du réseau d'interaction protéine-protéine dépasse notre capacité à les analyser et à comprendre leur sens; d'une part, par leur complexité et leur volume, et d'un autre part, par la qualité du jeu de donnée produit qui semble bondé de faux positifs et de faux négatifs. Cette dissertation décrit une nouvelle méthode de criblage des interactions physique entre protéines à haut débit chez Saccharomyces cerevisiae, la complémentation de fragments protéiques (PCA). Cette approche est accomplie dans des cellules intactes dans les conditions natives des protéines; sous leur promoteur endogène et dans le respect des contextes de modifications post-traductionnelles et de localisations subcellulaires. Une application biologique de cette méthode a permis de démontrer la capacité de ce système rapporteur à répondre aux questions d'adaptation cellulaire à des stress, comme la famine en nutriments et un traitement à une drogue. Dans le premier chapitre de cette dissertation, nous avons présenté un criblage des paires d'interactions entre les protéines résultant des quelques 6000 cadres de lecture de Saccharomyces cerevisiae. Nous avons identifié 2770 interactions entre 1124 protéines. Nous avons estimé la qualité de notre criblage en le comparant à d'autres banques d'interaction. Nous avons réalisé que la majorité de nos interactions sont nouvelles, alors que le chevauchement avec les données des autres méthodes est large. Nous avons pris cette opportunité pour caractériser les facteurs déterminants dans la détection d'une interaction par PCA. Nous avons remarqué que notre approche est sous une contrainte stérique provenant de la nécessité des fragments rapporteurs à pouvoir se rejoindre dans l'espace cellulaire afin de récupérer l'activité observable de la sonde d'interaction. L'intégration de nos résultats aux connaissances des dynamiques de régulations génétiques et des modifications protéiques nous dirigera vers une meilleure compréhension des processus cellulaires complexes orchestrés aux niveaux moléculaires et structuraux dans les cellules vivantes. Nous avons appliqué notre méthode aux réarrangements dynamiques opérant durant l'adaptation de la cellule à des stress, comme la famine en nutriments et le traitement à une drogue. Cette investigation fait le détail de notre second chapitre. Nous avons déterminé de cette manière que l'équilibre entre les formes phosphorylées et déphosphorylées de l'arginine méthyltransférase de Saccharomyces cerevisiae, Hmt1, régulait du même coup sont assemblage en hexamère et son activité enzymatique. L'activité d'Hmt1 a directement un impact dans la progression du cycle cellulaire durant un stress, stabilisant les transcrits de CLB2 et permettant la synthèse de Cln3p. Nous avons utilisé notre criblage afin de déterminer les régulateurs de la phosphorylation d'Hmt1 dans un contexte de traitement à la rapamycin, un inhibiteur de la kinase cible de la rapamycin (TOR). Nous avons identifié la sous-unité catalytique de la phosphatase PP2a, Pph22, activé par l'inhibition de la kinase TOR et la kinase Dbf2, activé durant l'entrée en mitose de la cellule, comme la phosphatase et la kinase responsable de la modification d'Hmt1 et de ses fonctions de régulations dans le cycle cellulaire. Cette approche peut être généralisée afin d'identifier et de lier mécanistiquement les gènes, incluant ceux n'ayant aucune fonction connue, à tout processus cellulaire, comme les mécanismes régulant l'ARNm.
Resumo:
Selon la théorie de la double hérédité, les processus de transmission sociale des connaissances permettraient aux cultures humaines d'évoluer de manière darwinienne. On parvient à cette conclusion en inférant que, étant donné qu'une analogie profonde peut être établie entre les mécanismes de transmission génétique et ceux de transmission sociale, on devrait non seulement concevoir que les processus cognitifs d'apprentissage social constituent bel et bien un système d'hérédité distinct du système d'hérédité génétique, mais qu’il est aussi légitime, sur la base de cette même analogie, de transférer les concepts explicatifs et outils formels issus de la biologie évolutionnaire et de les adapter à l'étude des cultures humaines en vue de constituer une théorie darwinienne de l'évolution culturelle. Cette analogie de l’hérédité culturelle fait depuis longtemps l'objet de controverses tant au sein de la littérature scientifique que dans les discussions philosophiques. On ne semble pas s'entendre sur la nature même de cette analogie ni non plus sur la force de justification épistémique qu'une telle analogie donnerait à la mise en place d'une théorie darwinienne de l'évolution culturelle. Néanmoins, à travers plus de quarante années de débats, la structure de cette analogie n'a jamais été examinée en détail et on a rarement examiné l'épistémologie des inférences par analogie dans un tel contexte. L'objectif principal de la présente thèse consistera à offrir une première analyse systématique de la nature, de la structure, de la fonction et de la justification épistémique de l'analogie de l'hérédité culturelle, fondement conceptuel de la théorie de la double hérédité. En portant ici une attention particulière à la structure logique de cette analogie, on pourra constater l'ampleur de sa complexité, complexité passant souvent inaperçue dans les critiques de la théorie de la double hérédité. On défendra ici la thèse selon laquelle l'analogie de l'hérédité culturelle est en fait composée de deux analogies constitutives qui, conjointement, ouvrent la voie à la mise en place et à l’organisation d’un programme de recherche visant à mettre au point une théorie darwinienne de l’évolution culturelle.
Resumo:
La perception de mouvements est associée à une augmentation de l’excitabilité du cortex moteur humain. Ce système appelé « miroir » sous-tendrait notre habileté à comprendre les gestes posés par une tierce personne puisqu’il est impliqué dans la reconnaissance, la compréhension et l’imitation de ces gestes. Dans cette étude, nous examinons de quelle façon ce système miroir s’implique et se latéralise dans la perception du chant et de la parole. Une stimulation magnétique transcrânienne (TMS) à impulsion unique a été appliquée sur la représentation de la bouche du cortex moteur de 11 participants. La réponse motrice engendrée a été mesurée sous la forme de potentiels évoqués moteurs (PÉMs), enregistrés à partir du muscle de la bouche. Ceux-ci ont été comparés lors de la perception de chant et de parole, dans chaque hémisphère cérébral. Afin d’examiner l’activation de ce système moteur dans le temps, les impulsions de la TMS ont été envoyées aléatoirement à l’intérieur de 7 fenêtres temporelles (500-3500 ms). Les stimuli pour la tâche de perception du chant correspondaient à des vidéos de 4 secondes dans lesquelles une chanteuse produisait un intervalle ascendant de deux notes que les participants devaient juger comme correspondant ou non à un intervalle écrit. Pour la tâche de perception de la parole, les participants regardaient des vidéos de 4 secondes montrant une personne expliquant un proverbe et devaient juger si cette explication correspondait bien à un proverbe écrit. Les résultats de cette étude montrent que les amplitudes des PÉMs recueillis dans la tâche de perception de chant étaient plus grandes après stimulation de l’hémisphère droit que de l’hémisphère gauche, surtout lorsque l’impulsion était envoyée entre 1000 et 1500 ms. Aucun effet significatif n’est ressorti de la condition de perception de la parole. Ces résultats suggèrent que le système miroir de l’hémisphère droit s’active davantage après une présentation motrice audio-visuelle, en comparaison de l’hémisphère gauche.
Resumo:
La dopamine (DA) est un neurotransmetteur impliqué dans la modulation de fonctions essentielles du cerveau telles que le contrôle des mouvements volontaires, le système de récompense et certains aspects de la cognition. Depuis sa découverte, la DA a attiré énormément d'attention scientifique en partie à cause des pathologies majeures associées aux dysfonctions du système DAergique, comme la maladie de Parkinson, la schizophrénie et la toxicomanie. On retrouve la majorité des neurones qui synthétisent la DA au niveau du mésencéphale ventral, dans les noyaux de la substance noire compacte (SNc) et de l'aire tegmentaire ventrale (ATV). Ces neurones projettent leurs axones dans un très dense réseau de fibres qui s'organisent en trois voies DAergiques classiques: la voie nigrostriée, la voie mésolimbique et la voie mésocorticale. La transmission DAergique s'effectue par l'activation de récepteurs de la DA qui font partie de la grande famille des récepteurs couplés aux protéines G (RCPGs). Les récepteurs de la DA sont abondamment exprimés aussi bien par les neurones DAergiques que par les neurones des régions cibles, ce qui implique que la compréhension de la signalisation et des fonctions particulières des récepteurs de la DA pré- et postsynaptiques représente un enjeu crucial dans l'étude du système DAergique. Cette thèse de doctorat se sépare donc en deux volets distincts: le premier s'intéresse à la régulation du récepteur D2 présynaptique par la neurotensine (NT), un neuropeptide intimement lié à la modulation du système DAergique; le deuxième s'intéresse au côté postsynaptique du système DAergique, plus particulièrement à la ségrégation de l'expression des récepteurs de la DA dans le striatum et aux fonctions de ces récepteurs dans l'établissement des circuits neuronaux excitateurs prenant place dans cette région. Dans la première partie de cette thèse, nous démontrons que l'activation du récepteur à haute affinité de la NT, le NTR1, provoque une internalisation hétérologue du récepteur D2, avec une amplitude et une cinétique différente selon l'isoforme D2 observé. Cette internalisation hétérologue dépend de la protéine kinase C (PKC), et nous montrons que la surexpression d'un récepteur D2 muté sur des sites de phosphorylation par la PKC ii ainsi que l'inhibition de l'expression de β-arrestine1 par ARNs interférents dans des neurones DAergiques bloquent complètement l'interaction fonctionnelle entre le NTR1 et le D2. Dans la deuxième partie de cette thèse, nous démontrons d'abord que la ségrégation de l'expression des récepteurs D1 et D2 dans le striatum est déjà bien établie dès le 18e jour embryonnaire, bien qu'elle progresse encore significativement aux jours 0 et 14 postnataux. Nos résultats témoignent aussi d'un maintien complet de cette ségrégation lorsque les neurones striataux sont mis en culture aussi bien en présence ou en absence de neurones corticaux et/ou mésencéphaliques. Ensuite, nous montrons que la présence de neurones mésencéphaliques stimule la formation d’épines et de synapses excitatrices sur les neurones striataux épineux exprimant le récepteur D2 (MSN-D2). Le co-phénotype glutamatergique des neurones dopaminergiques semble nécessaire à une grande partie de cet effet. Par ailleurs, le nombre total de terminaisons excitatrices formées sur les MSN-D2 par les neurones corticaux et mésencéphaliques apparaît être régit par un équilibre dynamique. Finalement, nous démontrons que le blocage de la signalisation des récepteurs D1 et D2 de la DA n'est pas nécessaire pour la formation des synapses excitatrices des MSN-D2, alors que l'antagonisme des récepteurs glutamatergiques ionotropes diminue la densité d'épines dendritiques et contrôle de façon opposée le nombre de terminaisons excitatrices corticales et mésencéphaliques. Globalement, ce travail représente une contribution significative pour une meilleure compréhension du fonctionnement normal du système DAergique. Ces découvertes sont susceptibles d’être utiles pour mieux comprendre les dysfonctions de ce système dans le cadre de pathologies du cerveau comme la maladie de Parkinson.