652 resultados para potentiels évoqués cognitifs
Resumo:
Les théories implicites (TIs) sont des croyances sous-jacentes et interconnectées qui influencent les pensées conscientes et le comportement (Ward, 2000). Elles ont été étudiées chez les délinquants et les délinquantes sexuels, ainsi que chez les délinquants violents, mais pas chez les délinquantes violentes. La recherche montre que les cognitions des délinquants violents peuvent être organisées en quatre TIs: 1) Battre ou être battu, 2) Je suis la loi, 3) La violence est normale, et 4) Je perds le contrôle (Polaschek, Calvert & Gannon , 2008). L’objectif de la présente étude était de déterminer quelles sont les TIs des délinquantes violentes afin de mieux comprendre leur comportement. Des entrevues semi structurées ont été menées avec 21 femmes violentes incarcérées. Dans l'analyse, les cognitions des participantes ont été extraites en utilisant l’analyse du discours (Angers, 2005). Ces cognitions ont ensuite été plus profondément analysées pour en ressortir les TIs en suivant la méthode de la théorisation ancrée (Strauss & Corbin, 1990). Les résultats suggèrent qu’il existe six théories implicites liées au comportement violent des femmes. Deux d'entre elles sont neutres, car aussi retrouvées chez les hommes: 1) la violence est normale et 2) je perds le contrôle. Les quatre autres sont sexo-spécifiques: 3) ceux qui agissent injustement méritent d'être battus, 4) j'ai besoin de me protéger et protéger les autres, 5) je ne suis pas violente, et 6) ma vie est trop difficile. En outre, les résultats suggèrent qu'il existe deux groupes distincts d’agresseures en ce qui concerne les cognitions: les « antisociales » et les « classiques ». Les implications et explications théoriques de nos résultats seront discutées.
Resumo:
Le Ministère des Ressources Naturelles et de la Faune (MRNF) a mandaté la compagnie de géomatique SYNETIX inc. de Montréal et le laboratoire de télédétection de l’Université de Montréal dans le but de développer une application dédiée à la détection automatique et la mise à jour du réseau routier des cartes topographiques à l’échelle 1 : 20 000 à partir de l’imagerie optique à haute résolution spatiale. À cette fin, les mandataires ont entrepris l’adaptation du progiciel SIGMA0 qu’ils avaient conjointement développé pour la mise à jour cartographique à partir d’images satellitales de résolution d’environ 5 mètres. Le produit dérivé de SIGMA0 fut un module nommé SIGMA-ROUTES dont le principe de détection des routes repose sur le balayage d’un filtre le long des vecteurs routiers de la cartographie existante. Les réponses du filtre sur des images couleurs à très haute résolution d’une grande complexité radiométrique (photographies aériennes) conduisent à l’assignation d’étiquettes selon l’état intact, suspect, disparu ou nouveau aux segments routiers repérés. L’objectif général de ce projet est d’évaluer la justesse de l’assignation des statuts ou états en quantifiant le rendement sur la base des distances totales détectées en conformité avec la référence ainsi qu’en procédant à une analyse spatiale des incohérences. La séquence des essais cible d’abord l’effet de la résolution sur le taux de conformité et dans un second temps, les gains escomptés par une succession de traitements de rehaussement destinée à rendre ces images plus propices à l’extraction du réseau routier. La démarche globale implique d’abord la caractérisation d’un site d’essai dans la région de Sherbrooke comportant 40 km de routes de diverses catégories allant du sentier boisé au large collecteur sur une superficie de 2,8 km2. Une carte de vérité terrain des voies de communication nous a permis d’établir des données de référence issues d’une détection visuelle à laquelle sont confrontés les résultats de détection de SIGMA-ROUTES. Nos résultats confirment que la complexité radiométrique des images à haute résolution en milieu urbain bénéficie des prétraitements telles que la segmentation et la compensation d’histogramme uniformisant les surfaces routières. On constate aussi que les performances présentent une hypersensibilité aux variations de résolution alors que le passage entre nos trois résolutions (84, 168 et 210 cm) altère le taux de détection de pratiquement 15% sur les distances totales en concordance avec la référence et segmente spatialement de longs vecteurs intacts en plusieurs portions alternant entre les statuts intact, suspect et disparu. La détection des routes existantes en conformité avec la référence a atteint 78% avec notre plus efficace combinaison de résolution et de prétraitements d’images. Des problèmes chroniques de détection ont été repérés dont la présence de plusieurs segments sans assignation et ignorés du processus. Il y a aussi une surestimation de fausses détections assignées suspectes alors qu’elles devraient être identifiées intactes. Nous estimons, sur la base des mesures linéaires et des analyses spatiales des détections que l’assignation du statut intact devrait atteindre 90% de conformité avec la référence après divers ajustements à l’algorithme. La détection des nouvelles routes fut un échec sans égard à la résolution ou au rehaussement d’image. La recherche des nouveaux segments qui s’appuie sur le repérage de points potentiels de début de nouvelles routes en connexion avec les routes existantes génère un emballement de fausses détections navigant entre les entités non-routières. En lien avec ces incohérences, nous avons isolé de nombreuses fausses détections de nouvelles routes générées parallèlement aux routes préalablement assignées intactes. Finalement, nous suggérons une procédure mettant à profit certaines images rehaussées tout en intégrant l’intervention humaine à quelques phases charnières du processus.
Resumo:
La politique québécoise de l’adaptation scolaire confirme que le plan d’intervention (PI) constitue l’outil privilégié pour répondre aux besoins des élèves handicapés ou en difficulté d’adaptation ou d’apprentissage. Toutefois, la recension des écrits nous informe que le plan d’intervention est encore loin d’être efficace. Le Ministère de l’Éducation, des Loisirs et des Sports du Québec (MELS, 2004) ainsi que l’Office of Special Education and Rehabilitative Services des U.S. department of Education (dans Eichler, 1999) ont bien identifié et présenté explicitement cinq à six fonctions du PI mais, aucun des deux organismes ne définit ce qu’est une fonction, à quoi elle sert, son importance relative et ce qu’elle implique. De plus, on retrouve, explicitement ou implicitement, soit dans le cadre de référence pour l’établissement des PI (MELS, 2004), soit dans la revue de la littérature, soit dans les milieux de pratique plusieurs autres fonctions que le PI remplit ou devrait remplir. Ce flou entourant le concept de fonction entraîne un manque de rigueur dans la conception des PI, car « lorsque la totalité des fonctions a été identifiée, elle permet le développement d’un produit répondant à l’usage attendu » (Langevin et coll., 1998). Il y a d’emblée une somme de fonctions qu’un PI remplit déjà et d’autres sûrement à remplir. Or, cela n’a pas été élucidé, précisé et validé. Le but de la présente recherche a été de définir les rôles du PI au regard des besoins de ses différents utilisateurs. Les objectifs spécifiques ont été les suivants, 1) Identifier les différents utilisateurs d’un PI, 2) Identifier les besoins des différents utilisateurs d’un PI, 3) Identifier les fonctions qu’un PI doit remplir afin de satisfaire les besoins de ses utilisateurs, 4) Créer un cahier des charges fonctionnel pour la conception et l’évaluation d’un PI, 5) Identifier certains coûts reliés à la conception d’un PI. Afin d’atteindre les objectifs précités, nous avons eu recours à la méthode de l’analyse de la valeur pédagogique (AVP) (Langevin, Rocque et Riopel, 2008). La méthode d’AVP comportait une analyse des besoins des différents utilisateurs potentiels, une analyse de la recension des écrits, une analyse des encadrements légaux, une analyse de produits types et une analyse écosystémique. En conclusion, nous avons identifié les différents utilisateurs potentiels d’un PI, identifié les différents besoins de ces utilisateurs, identifié les fonctions qu’un PI doit remplir pour satisfaire leurs besoins, crée un cahier des charges fonctionnel (CdCF) pour la conception et l’évaluation des PI et identifié certains coûts liés à la conception d’un PI. Le CdCF pourra servir à concevoir des PI et à évaluer leur efficience. Une partie du CdCF pourra aussi remplir un rôle prescriptif pour la conception d’outil de soutien à l’élaboration du PI. Enfin, le CdCF pourra servir à la formation et à la recherche en éducation.
Resumo:
La maladie d’Alzheimer (MA) est de loin le type de démence le plus répandu chez les personnes âgées. Il est maintenant possible de proposer un certain nombre d’interventions ou de stratégies préventives aux personnes portant un diagnostic de MA ou à risque de développer la maladie. Il est donc important de diagnostiquer cette maladie le plus tôt possible. Les personnes avec un trouble cognitif léger (TCL) représentent une population d’intérêt puisqu’elles sont à haut risque d’évoluer vers une démence et plusieurs d’entres elles seraient ainsi dans une phase prodromale de la MA. Les travaux de cette thèse visent à explorer les activations fonctionnelles associées à la mémoire épisodique et à la mémoire de travail dans le TCL ainsi qu’aux effets de la sévérité de la maladie et des caractéristiques de la tâche sur ces activations. Dans un premier temps, nous exposerons les connaissances relatives au niveau des atteintes cognitives, du patron d’activation fonctionnelle et des plus récents modèles élaborés pour expliquer les changements d’activation dans le vieillissement normal et pathologique (Chapitre 1). Par la suite, les études réalisées dans le cadre de cette thèse seront présentées. Nous avons d’abord étudié la fiabilité du signal d’activation chez les TCL et chez les personnes âgées saines (PA) à l’aide de tâches d’encodage et de récupération de mots (Chapitre 2). Nous avons ensuite comparé le patron d’activation cérébral des PA et des personnes TCL alors qu’elles réalisaient une tâche d’encodage et de récupération de mots. L’effet de la sévérité a été évalué en corrélant les activations des personnes TCL à leurs scores obtenu à une échelle évaluant leur cognition globale (Chapitre 3). L’effet de sévérité a ensuite été étudié de manière plus approfondie chez un plus grand nombre de TCL en utilisant la médiane du groupe à cette même échelle pour déterminer un groupe de TCL plus atteints et un groupe de TCL moins atteints. Ces deux groupes ont ensuite été comparés à un groupe de PA lors d’une tâche d’encodage de paires de mots reliés sémantiquement ou non-reliés (Chapitre 4), une tâche de reconnaissance de paires de mots mesurant principalement la familiarité ou principalement la recollection (Chapitre 5), ainsi que deux tâches impliquant des composantes différentes de la mémoire de travail et des fonctions exécutives, soit la manipulation de l’information et l’attention divisée (Chapitre 6). Les résultats présentés dans cette thèse ont mis en évidence une distinction entre le patron d’activation des TCL et des PA qui semble caractérisée par une interaction entre le niveau de sévérité de la maladie et les processus cognitifs impliqués dans la tâche. L’effet de sévérité a été observé lors de plusieurs tâches impliquant des processus cognitifs différents où les MCI moins atteints ont montré principalement des hyperactivations sous-tendant des mécanismes compensatoires et les MCI plus atteints ont montré principalement des hypoactivations soulignant la dégradation de ces mécanismes. Par ailleurs, les résultats de nos études ont aussi montré que cet effet de sévérité est modulé par le moment d’altération du processus cognitif impliqué dans la tâche: les processus altérés précocément dans le TCL sont caractériséees par des hyperactivations chez les TCL moins atteints tandis que les processus altérés plus tardivement ont plutôt élicité des hyperactivations chez les TCL plus atteints. Les implications de ces résultats, ainsi que les limites des études, sont discutés (Chapitre 7).
Resumo:
L’activité catalytique du cytochrome P450 dépend de la disponibilité d’électrons produits par la NADPH P450 réductase (NPR). Notre étude a pour but de déterminer comment l’expression de la NPR est modulée chez le lapin. Afin de comprendre comment l’expression de la NPR est modulée, des hépatocytes de lapins témoins ont été incubés pendant 2, 4, 24 et 48 heures en présence de plusieurs activateurs de facteurs de transcription connus du cytochrome P450. De plus, des lapins ayant reçu une injection sous-cutanée de térébenthine afin de produire une réaction inflammatoire aseptique sont sacrifiés 48 heures plus tard dans le but d’étudier les effets de l’inflammation sur l’expression de la NPR. La rosiglitazone, le fénofibrate, l’acétate de plomb et le chlorure de cobalt (des inducteurs des PPAR, PPAR, AP-1 et HIF-1), après 48 heures d’incubation, n’ont provoqué aucun changement d’expression ou d’activité de la NPR. Après 48 heures d’incubation, la dexaméthasone (Dexa) a augmenté la quantité d’ARNm (QT-PCR), l’expression et l’activité de la NPR (p<0,05), en plus d’augmenter l’ARNm des récepteurs nucléaires CAR (récepteur constitutif à l’androstane) et PXR (récepteur X prégnane) (p<0.05). Le phénobarbital (PB) a augmenté seulement l’activité de la NPR (p<0.05). Par contre, après 48 heures d’incubation, la combinaison PB et Dexa a augmenté la quantité d’ARNm, ainsi que l’expression et l’activité de la NPR (p<0.05). La combinaison de PB et Dexa a induit une augmentation d’ARNm des récepteurs nucléaires CAR, PXR et RXR (récepteur X du rétinoïde) plus précocement, soit après 2 heures d’incubation (p<0.05). Le PD098059 (PD), un bloqueur de l’activation de MAPK1 (mitogen-activated protein kinase), et l’acide okadaïque (OA), un inhibiteur de la protéine phosphatase 2A (PP2A), ont bloqué l'augmentation d'expression et d'activité de la NPR induite par le PB après 48 heures d’incubation. La réaction inflammatoire aseptique a diminué l’expression et l’activité de la NPR après 48 heures d’incubation (p<0.05). On conclue que la dexaméthasone et le phénobarbital sont des inducteurs potentiels de la NPR et que les voies de signalisation de CAR, PXR et RXR semblent être impliquées dans le contrôle de cette induction. Des études supplémentaires devront être complétées afin de confirmer ces résultats préliminaires.
Resumo:
Les gènes TDP-43 (TAR DNA Binding Protein 43) et FUS/TLS (Fused in Sarcoma/Translocated in Liposarcoma) sont actuellement à l’étude quant à leurs rôles biologiques dans le développement de diverses neuropathies telles que la Sclérose Latérale Amyotrophique (SLA). Étant donné que TDP-43 et FUS sont conservés au cours de l’évolution, nous avons utilisé l’organisme modèle C. elegans afin d’étudier leurs fonctions biologiques. Dans ce mémoire, nous démontrons que TDP-1 fonctionne dans la voie de signalisation Insuline/IGF pour réguler la longévité et la réponse au stress oxydatif. Nous avons développé des lignées C. elegans transgéniques mutantes TDP-43 et FUS qui présentent certains aspects de la SLA tels que la dégénérescence des motoneurones et la paralysie adulte. La protéotoxicité causée par ces mutations de TDP- 43 et FUS associées à la SLA, induit l’expression de TDP-1. À l’inverse, la délétion de tdp-1 endogène protège contre la protéotoxicité des mutants TDP-43 et FUS chez C. elegans. Ces résultats suggèrent qu’une induction chronique de TDP-1/TDP-43 sauvage propagerait la protéotoxicité liée à la protéine mutante. Nous avons aussi entrepris un criblage moléculaire pilote afin d’isoler des suppresseurs de toxicité neuronale des modèles transgéniques mutants TDP-43 et FUS. Nous avons ainsi identifié le bleu de méthylène et le salubrinal comme suppresseurs potentiels de toxicité liée à TDP-43 et FUS via réduction de la réponse au stress du réticulum endoplasmique (RE). Nos résultats indiquent que l’homéostasie de repliement des protéines dans le RE représente une cible pour le développement de thérapies pour les maladies neurodégénératives.
Resumo:
La collaboration constitue une stratégie efficace pour aider les organisations et les individus à évoluer dans des environnements dynamiques et complexes, et génère de nombreux avantages cognitifs, affectifs et pécuniaires. De plus en plus, les équipes de travail sont impliquées dans des collaborations complexes, lesquelles requièrent de transiger à travers les frontières nationales, organisationnelles et disciplinaires. Bien que les collaborations complexes soient de plus en plus courantes en milieux organisationnels et étudiées par les scientifiques, peu d’études empiriques ont été réalisées sur le sujet et la documentation inhérente est disséminée dans divers silos parallèles de connaissances, donnant lieu à des modèles conceptuels divergents et incomplets. L’importance croissante de ces formes de collaboration crée l’impératif scientifique et pratique d’en acquérir une meilleure compréhension ainsi que d’identifier et d’évaluer les conditions et les facteurs qui favorisent leur succès et leur efficacité. Cette thèse vise à combler les lacunes susmentionnées et permettre un avancement des connaissances sur le sujet par l’entremise de deux articles répondant à divers objectifs de recherche. Le premier article avance une définition claire des collaborations complexes, en vue de réduire la confusion entourant ce construit. Il présente également la première revue de documentation sur les facteurs favorisant le succès des collaborations complexes, unifiant les résultats issus de divers contextes et disciplines scientifiques. Cette démarche a permis d’identifier 14 variables clés provenant de 26 études empiriques. À partir de ces données, un modèle conceptuel fondé sur des assises théoriques solides et reconnues en psychologie du travail et des organisations est proposé, offrant ainsi un canevas systémique et dynamique du phénomène ainsi qu’une orientation détaillée des pistes de recherches pertinentes. Le deuxième article part des résultats obtenus dans le premier article afin d’évaluer empiriquement les relations entre certains facteurs clés ayant un impact sur des extrants importants de collaborations complexes. L’étude multiphasique est réalisée auprès de 16 équipes de projets (N=93) interdisciplinaires et interorganisationnelles prenant part à des sessions de travail intensives visant la production de concepts novateurs en design intégré lié au développement durable. Les analyses corrélationnelles montrent des liens positifs entre l’ouverture à la diversité, les processus collaboratifs, la viabilité, la performance d’équipe et la performance de projet, ainsi que des liens négatifs entre les conflits et ces mêmes extrants. De plus, les analyses de médiation multiple révèlent qu’une plus grande ouverture à la diversité influence positivement la viabilité, la performance d’équipe et la performance de projet en favorisant les processus collaboratifs efficaces et en réduisant les conflits. Les implications théoriques et pratiques découlant de ces résultats sont discutées.
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Dans les dernières décennies, le présumé déclin de la compétence scripturale des élèves québécois a soulevé les passions. Force est d’admettre que leurs compétences sont lacunaires : tant les rapports du ministère de l’Éducation (Jalbert, 2006; Ouellet, 1984) que les études scientifiques ou gouvernementales (Bureau, 1985; Groupe DIEPE, 1995; Roberge, 1984) révèlent leur incapacité à s’approprier l’écriture. Les TIC pourraient bien faire partie de la solution : on sait pertinemment qu’elles favorisent la réussite scolaire dans certains contextes (Barayktar, 2001; Christmann & Badgett, 2003; Waxman, Lin, & Michko, 2003). Toutefois, modifient-elles le processus scriptural au point d’en faciliter l’apprentissage? Cette question constitue le cœur de l’actuel projet de recherche. Les modèles du processus d’écriture comme celui de Hayes et Flower (Flower & Hayes, 1981; Hayes, 1995; Hayes & Flower, 1980) rappellent que les TIC font partie du contexte de production; à ce titre, elles influencent autant la qualité des textes que les processus cognitifs et la motivation. Elles libèrent notamment des ressources cognitives, puisqu’elles prennent en charge certaines opérations, comme la calligraphie (Daiute, 1983). Partant, le scripteur peut se concentrer davantage sur des tâches plus complexes. Des méta-analyses (Bangert-Drowns, 1993; Goldberg, Russell, & Cook, 2003) attestent que le traitement de texte exerce un effet minime, mais statistiquement significatif sur la qualité de l’écriture. Toutefois, il est associé à des révisions en surface (Faigley & Witte, 1981; Figueredo & Varnhagen, 2006). Rares sont les projets de recherche qui explorent simultanément l’impact du traitement de texte sur plusieurs dimensions du processus scriptural; plus rares encore sont les travaux qui se sont intéressés à ce sujet depuis les années 1990. Pour pallier ce manque, cette thèse de doctorat vise à 1) mesurer l’effet des TIC sur la qualité de l’écriture; 2) décrire l’impact des TIC sur les processus cognitifs de révision et de traduction; 3) mesurer l’impact des TIC sur la motivation à écrire. Pour y arriver, nous recourons à une méthodologie mixte. D’une part, un devis de recherche quasi expérimental nous permet de comparer les scripteurs technologiques aux scripteurs traditionnels; d’autre part, une approche qualitative nous laisse accéder aux pensées et aux perceptions des utilisateurs de l’ordinateur. Les trois articles qui constituent le cœur de cette thèse rapportent les résultats relatifs à chacun des objectifs spécifiques de recherche. Dans le premier texte, nous avons mesuré les effets du traitement de texte sur la compétence scripturale. L’analyse statistique des données colligées nous a permis de dégager une amélioration des performances, strictement en orthographe d’usage. En comparaison, les élèves du groupe témoin se sont améliorés davantage en cohérence textuelle et ont mieux performé en orthographe grammaticale. Le deuxième article propose de faire la lumière sur ces résultats. Nous y étudions donc l’impact des TIC sur le processus cognitif de révision. Ce volet, basé sur une approche qualitative, recourt largement à l’observation vidéographiée. Nous y mettons d’abord en évidence le grand nombre d’erreurs commises lors des séances d’écriture technologiques; nous faisons également ressortir la sous-utilisation du vérificateur linguistique, qui pose peu de diagnostics appropriés ou qui est souvent ignoré des scripteurs. Toutefois, malgré cette sous-utilisation du traitement de texte, des entrevues de groupe font état de perceptions positives à l’égard des TIC; on leur prête des vertus certaines et elles sont jugées motivantes. Ce phénomène constitue le cœur du dernier article, au cours duquel nous tâchons de mesurer l’impact du mode d’écriture sur la motivation à écrire. Nous menons ce volet dans une perspective quantitative. La motivation des participants a été mesurée avec une échelle de motivation. L’analyse statistique des données montre que les élèves technologiques sont motivés intrinsèquement par les technologies, tandis que leurs pairs du groupe témoin sont amotivés. Lors du chapitre conclusif, nous mettons ces résultats en relation, tentant d’expliquer globalement l’impact des TIC dans le processus scriptural. Au terme de notre thèse, nous formulons des recommandations destinées aux praticiens et aux décideurs engagés dans le système éducatif.
Resumo:
De récents travaux ont mis en évidence que des dysfonctionnements dans l’expression de gènes impliqués dans la plasticité synaptique contribuent aux déclins cognitifs qu’on observe chez les gens âgés et à la progression de la maladie d’Alzheimer. Notre étude avait comme objectif d’étudier le profil d’expression d’ARNm spécifiques impliqués dans la plasticité synaptique chez des rats jeunes et âgés et chez des souris transgéniques 3xTg et WT. Des expériences en qRT-PCR ont été effectuées dans des extraits de cortex et d’hippocampe de rats jeunes et âgés et de souris 3xTg et WT, respectivement. Les résultats ont démontré une augmentation significative de l’expression d’ARNm MAP1B, Stau2, BDNF, CREB et AGO2 principalement dans l’hippocampe (régions CA1-CA3) des souris 3xTg comparé aux souris WT. Une diminution significative a également été observée pour l’ARNm αCaMKII dans le cortex des souris 3xTg comparé aux souris WT. Contrairement à ces observations, aucun changement n’a été observé pour l’expression de gènes impliqués dans la plasticité synaptique chez les rats âgés comparé aux rats jeunes. Ces résultats démontrent qu’un dysfonctionnement existe réellement au début de la maladie d’Alzheimer dans l’expression de gènes spécifiques impliqués dans la plasticité synaptique et contribue potentiellement à la progression de la maladie en engendrant un déséquilibre entre la LTP et la LTD. De plus, les différences d’expressions sont particulièrement observées dans l’hippocampe (régions CA1-CA3) ce qui est consistant avec les études sur la progression de la maladie d’Alzheimer puisqu’il est connu que la région CA1 de l’hippocampe est la plus vulnérable à l’apparition de la maladie. Ces résultats permettent une meilleure compréhension des événements moléculaires qui deviennent dérégulés à l’apparition de la maladie d’Alzheimer.
Resumo:
La phosphorylation est une modification post-traductionnelle omniprésente des protéines Cette modification est ajoutée et enlevée par l’activité enzymatique respective des protéines kinases et phosphatases. Les kinases Erk1/2 sont au cœur d’une voie de signalisation importante qui régule l’activité de protéines impliquées dans la traduction, le cycle cellulaire, le réarrangement du cytosquelette et la transcription. Ces kinases sont aussi impliquées dans le développement de l’organisme, le métabolisme du glucose, la réponse immunitaire et la mémoire. Différentes pathologies humaines comme le diabète, les maladies cardiovasculaires et principalement le cancer, sont associées à une perturbation de la phosphorylation sur les différents acteurs de cette voie. Considérant l’importance biologique et clinique de ces deux kinases, connaître l’étendue de leur activité enzymatique pourrait mener au développement de nouvelles thérapies pharmacologiques. Dans ce contexte, l’objectif principal de cette thèse était de mesurer l’influence de cette voie sur le phosphoprotéome et de découvrir de nouveaux substrats des kinases Erk1/2. Une étude phosphoprotéomique de cinétique d’inhibition pharmacologique de la voie de signalisation Erk1/2 a alors été entreprise. Le succès de cette étude était basé sur trois technologies clés, soit l’enrichissement des phosphopeptides avec le dioxyde de titane, la spectrométrie de masse haut débit et haute résolution, et le développement d’une plateforme bio-informatique nommée ProteoConnections. Cette plateforme permet d’organiser les données de protéomique, évaluer leur qualité, indiquer les changements d’abondance et accélérer l’interprétation des données. Une fonctionnalité distinctive de ProteoConnections est l’annotation des sites phosphorylés identifiés (kinases, domaines, structures, conservation, interactions protéiques phospho-dépendantes). Ces informations ont été essentielles à l’analyse des 9615 sites phosphorylés sur les 2108 protéines identifiées dans cette étude, soit le plus large ensemble rapporté chez le rat jusqu’à ce jour. L’analyse des domaines protéiques a révélé que les domaines impliqués dans les interactions avec les protéines, les acides nucléiques et les autres molécules sont les plus fréquemment phosphorylés et que les sites sont stratégiquement localisés pour affecter les interactions. Un algorithme a été implémenté pour trouver les substrats potentiels des kinases Erk1/2 à partir des sites identifiés selon leur motif de phosphorylation, leur cinétique de stimulation au sérum et l’inhibition pharmacologique de Mek1/2. Une liste de 157 substrats potentiels des kinases Erk1/2 a ainsi été obtenue. Parmi les substrats identifiés, douze ont déjà été rapportés et plusieurs autres ont des fonctions associées aux substrats déjà connus. Six substrats (Ddx47, Hmg20a, Junb, Map2k2, Numa1, Rras2) ont été confirmés par un essai kinase in vitro avec Erk1. Nos expériences d’immunofluorescence ont démontré que la phosphorylation de Hmg20a sur la sérine 105 par Erk1/2 affecte la localisation nucléocytoplasmique de cette protéine. Finalement, les phosphopeptides isomériques positionnels, soit des peptides avec la même séquence d’acides aminés mais phosphorylés à différentes positions, ont été étudiés avec deux nouveaux algorithmes. Cette étude a permis de déterminer leur fréquence dans un extrait enrichi en phosphopeptides et d’évaluer leur séparation par chromatographie liquide en phase inverse. Une stratégie analytique employant un des algorithmes a été développée pour réaliser une analyse de spectrométrie de masse ciblée afin de découvrir les isomères ayant été manqués par la méthode d’analyse conventionnelle.
Resumo:
Ce mémoire est une poursuite de l’étude de la superintégrabilité classique et quantique dans un espace euclidien de dimension deux avec une intégrale du mouvement d’ordre trois. Il est constitué d’un article. Puisque les classifications de tous les Hamiltoniens séparables en coordonnées cartésiennes et polaires sont déjà complétées, nous apportons à ce tableau l’étude de ces systèmes séparables en coordonnées paraboliques. Premièrement, nous dérivons les équations déterminantes d’un système en coordonnées paraboliques et ensuite nous résolvons les équations obtenues afin de trouver les intégrales d’ordre trois pour un potentiel qui permet la séparation en coordonnées paraboliques. Finalement, nous démontrons que toutes les intégrales d’ordre trois pour les potentiels séparables en coordonnées paraboliques dans l’espace euclidien de dimension deux sont réductibles. Dans la conclusion de l’article nous analysons les différences entre les potentiels séparables en coordonnées cartésiennes et polaires d’un côté et en coordonnées paraboliques d’une autre côté. Mots clés: intégrabilité, superintégrabilité, mécanique classique, mécanique quantique, Hamiltonien, séparation de variable, commutation.
Resumo:
Chaque jour, nos comportements sont influencés par les normes sociales qui nous entourent. En agissant selon les normes sociales, l’individu agit en conformité avec les comportements les plus consensuels et ainsi reçoit de l’approbation de son groupe. Malgré le fait que les normes sociales sont au coeur de nombreuses recherches, les processus cognitifs qui mènent un individu à agir selon elles sont encore inconnus. Les processus cognitifs expliquant le comportement sont, par ailleurs, expliqués dans la littérature sur les comportements motivés par l’atteinte de buts qui stipule que les stratégies cognitives seraient nécessaires afin d’émettre un comportement. Dans ce travail, nous proposons que les stratégies soient les processus cognitifs qui mènent un individu à agir selon une norme sociale. Deux études ont été menées et les résultats de ces deux études démontrent que les individus agissent selon une norme sociale parce qu’ils peuvent générer les stratégies nécessaires pour y arriver. Les implications théoriques et méthodologiques sont discutées.
Resumo:
Ce mémoire explore le concept de diffusion des archives à l’ère du Web 2.0. Dans le contexte nord-américain, la diffusion en archivistique englobe les aspects de promotion, de mise en valeur et de communication des archives. Le Web 2.0 offre un potentiel très intéressant pour la diffusion d’archives. Ce moyen de diffusion est défini comme étant un ensemble de principes et de technologies qui crée et facilite l’interaction entre plusieurs individus. Peu d’études ont été menées sur la diffusion des archives à l’ère du Web 2.0, c’est pourquoi notre recherche s’est intéressée à un milieu qui a intégré le Web 2.0 afin d’instaurer un dialogue avec ses usagers, connus et potentiels, pour exploiter ses archives et augmenter sa visibilité, soit le Musée McCord. Dans cette étude de cas simple certains membres du personnel du Musée McCord ont été rencontrés, afin de découvrir les motivations de l’institution à se lancer dans l’utilisation d’outils issus de ces technologies. De plus, l’étude a permis d’observer quels outils ont été choisis, comment et pourquoi. Ensuite, les avantages et les désavantages de cette nouvelle utilisation ont été mis en lumière. Enfin, les étapes de la mise en place d’outils du Web 2.0 sont exposées.
Resumo:
Objectif : L'évaluation de l'acuité visuelle (AV) chez la personne âgée atteinte de troubles cognitifs peut être limitée par le manque de collaboration ou les difficultés de communication du patient. Très peu d'études ont examiné l'AV chez les patients atteints de déficits sévères de la cognition. L’objectif de cette étude était d’évaluer l'AV chez la personne âgée vulnérable ayant des troubles cognitifs à l'aide d'échelles variées afin de vérifier leur capacité à répondre à ces échelles. Méthodes: Trois groupes de 30 sujets chacun ont été recrutés. Le premier groupe était constitué de sujets jeunes (Moy.±ET: 24.9±3.5ans) et le second, de sujets âgés (70.0±4.5ans), ne présentant aucun trouble de la cognition ou de la communication. Le troisième groupe, composé de sujets atteints de démence faible à sévère (85.6±6.9ans), a été recruté au sein des unités de soins de longue durée de l’Institut Universitaire de Gériatrie de Montréal. Le test du Mini-Mental State Examination (MMSE) a été réalisé pour chaque sujet afin de déterminer leur niveau cognitif. L’AV de chaque participant a été mesurée à l’aide de six échelles validées (Snellen, cartes de Teller, ETDRS-lettres,-chiffres,-Patty Pics,-E directionnel) et présentées selon un ordre aléatoire. Des tests non paramétriques ont été utilisés afin de comparer les scores d’AV entre les différentes échelles, après une correction de Bonferroni-Holm pour comparaisons multiples. Résultats: Le score moyen au MMSE chez les sujets atteints de démence était de 9.8±7.5, alors qu’il était de 17.8±3.7 et 5.2±4.6 respectivement, chez les sujets atteints de démence faible à modérée (MMSE supérieur ou égal à 13; n=11) et sévère (MMSE inférieur à 13; n=19). Tous les sujets des groupes 1 et 2 ont répondu à chacune des échelles. Une grande majorité de sujets avec démence ont répondu à toutes les échelles (n=19) alors qu’un seul sujet n’a répondu à aucune échelle d’AV. Au sein du groupe 3, les échelles d’AV fournissant les scores les plus faibles ont été les cartes de Teller (20/65) et les Patty Pics (20/62), quelque soit le niveau cognitif du sujet, alors que les meilleurs scores d’AV ont été obtenus avec les échelles de Snellen (20/35) et les lettres ETDRS (20/36). Une grande proportion de sujets avec démence sévère ont répondu aux cartes de Teller (n=18) mais le score d’AV obtenu était le plus faible (20/73). Au sein des trois groupes, l’échelle de lettres-ETDRS était la seule dont les scores d’AV ne différaient pas de ceux obtenus avec l’échelle de Snellen traditionnelle. Conclusions: L’acuité visuelle peut être mesurée chez la personne âgée atteinte de troubles cognitifs ou de la communication. Nos résultats indiquent que les échelles les plus universelles, utilisant des lettres comme optotypes, peuvent être utilisées avec de bons résultats chez les personnes âgées atteintes de démence sévère. Nos résultats suggèrent de plus que la mesure d’acuité visuelle doit être tentée chez toutes les personnes, peu importe leur niveau cognitif.