397 resultados para Fonctions cognitives
Resumo:
Les gènes sont les parties du génome qui codent pour les protéines. Les gènes d’une ou plusieurs espèces peuvent être regroupés en "familles", en fonction de leur similarité de séquence. Cependant, pour connaître les relations fonctionnelles entre ces copies de gènes, la similarité de séquence ne suffit pas. Pour cela, il est important d’étudier l’évolution d’une famille par duplications et pertes afin de pouvoir distinguer entre gènes orthologues, des copies ayant évolué par spéciation et susceptibles d’avoir conservé une fonction commune, et gènes paralogues, des copies ayant évolué par duplication qui ont probablement développé des nouvelles fonctions. Étant donnée une famille de gènes présents dans n espèces différentes, un arbre de gènes (obtenu par une méthode phylogénétique classique), et un arbre phylogénétique pour les n espèces, la "réconciliation" est l’approche la plus courante permettant d’inférer une histoire d’évolution de cette famille par duplications, spéciations et pertes. Le degré de confiance accordé à l’histoire inférée est directement relié au degré de confiance accordé à l’arbre de gènes lui-même. Il est donc important de disposer d’une méthode préliminaire de correction d’arbres de gènes. Ce travail introduit une méthodologie permettant de "corriger" un arbre de gènes : supprimer le minimum de feuilles "mal placées" afin d’obtenir un arbre dont les sommets de duplications (inférés par la réconciliation) sont tous des sommets de "duplications apparentes" et obtenir ainsi un arbre de gènes en "accord" avec la phylogénie des espèces. J’introduis un algorithme exact pour des arbres d’une certaine classe, et une heuristique pour le cas général.
Resumo:
L’entraînement délibéré joue un rôle essentiel dans le développement de l’excellence sportive. Cette pratique est décrite comme étant une activité menée dans un but d’amélioration exigeant un niveau élevé d’effort et de concentration et n’étant pas nécessairement plaisante. Bien que les aspects quantitatifs de la pratique délibérée aient grandement été explorés, peu d’études se sont attardées à qualifier ce processus de façon précise. Ainsi, l’objectif de la présente étude est de définir précisément ce qu’est un entraînement de qualité ainsi que le processus psychologique s’y rattachant. Pour ce faire, des entrevues semi-structurées ont été menées auprès de douze patineurs élites québécois. L’analyse des données, par théorisation ancrée, démontre qu’un entraînement de haute qualité est le résultat d’une interaction dynamique de plusieurs facteurs liés à l’athlète, à son environnement, au contenu de son entraînement et à son état psychologique. Plus précisément, la confiance, la motivation, la concentration et l’attitude positive sont les habiletés psychologiques qui peuvent affecter l’entraînement. En fait, l’analyse démontre qu’un processus psychologique important s’opère lors de l’entraînement délibéré. Tout d’abord, des stratégies cognitives et comportementales comme l’imagerie mentale, la fixation d’objectifs et la routine sont utilisées par les athlètes pour se préparer à l’entraînement. Puis, lorsque son état psychologique est affecté négativement, l’athlète a recours à différentes stratégies afin d’optimiser cet état. Si ces stratégies s’avèrent efficaces, la qualité de l’entraînement est maintenue et l’athlète en ressort avec l’impression d’avoir progressé autant sur le plan technique, mental qu’émotionnel.
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Thèse diffusée initialement dans le cadre d'un projet pilote des Presses de l'Université de Montréal/Centre d'édition numérique UdeM (1997-2008) avec l'autorisation de l'auteur.
Resumo:
Au cours des dernières décennies, l’important mouvement de déconcentration territoriale évoluant au sein de nombreuses métropoles à travers le monde a indéniablement su bouleverser leurs dynamiques territoriales, notamment en termes d’organisation spatiale des fonctions urbaines et de mobilité. Ce phénomène n’a pas manqué de susciter l’intérêt de nombreux auteurs, toutefois, face à la variété des facteurs d’influence et aux nombreuses spécificités locales, ces études se sont régulièrement révélées divergentes, voire contradictoires. Ainsi, de nombreuses incertitudes demeurent. La déconcentration des activités serait-elle en mesure de favoriser une meilleure adéquation des lieux de résidence et de travail au sein des territoires métropolitains? Quels en sont les conséquences sur les migrations alternantes? À l’heure où la mobilité constitue à la fois un facteur clé du développement des villes et un enjeu majeur quant aux ’émissions de GES et, alors que le mouvement de déconcentration demeure très actuel et poursuit sa progression, ce mémoire vise à enrichir le débat en proposant une étude basée sur l’analyse des plus récentes formes de distribution des activités métropolitaines en lien avec les caractéristiques de navettage, le tout dans une optique d’évaluation de la durabilité des déplacements. Le cas de Montréal, une métropole dont l’organisation spatiale a été considérée atypique en Amérique du nord, a été observé. L’analyse réalisée comprend trois grandes étapes. L’espace métropolitain montréalais a d’abord fait l’objet d’une caractérisation basée sur une typologie développée en France et basée sur divers critères reliés à la localisation emploi-résidence. Cette typologie a ensuite servi de base à une analyse des déplacements pendulaires, entre 2003 et 2008. Le portrait obtenu a finalement été opposé à celui résultant d’une analyse basée sur un découpage plus traditionnel « centre-banlieue-périphérie » de l’espace métropolitain. Les résultats suggèrent, à l’instar d’autres études, que la seule proximité des lieux d’emploi et de résidence ne suffit pas à favoriser des pratiques de navettage plus durables. D’un point de vue méthodologique, l’étude révèle également la pertinence des deux types d’approches proposés, de même que leur complémentarité.
Étude de l’association supramoléculaire bi- et tridimensionnelle d’oximes et d’hydrazones trigonales
Resumo:
Les concepts de la chimie supramoléculaire peuvent être exploités avantageusement pour contrôler la structure et les propriétés des matériaux moléculaires. Dans une approche productive, les composantes moléculaires du matériau peuvent être choisies pour pouvoir s'engager dans des interactions fortes et prévisibles avec leurs voisins. Cette stratégie, appelée la tectonique moléculaire, est caractérisée par la préparation de molécules particulières appelées tectons (du grec tectos, qui signifie constructeur) qui, par design rationnel, s’associent de manière prévisible via de multiples interactions non-covalentes afin de générer l’architecture désirée. Ce processus est réversible et guidé par la présence de fonctions chimiques complémentaires, appelées groupements de reconnaissance, qui sont orientées de manière à conférer un aspect directionnel aux interactions intermoléculaires. Ceci permet de positionner les molécules voisines de façon prédéterminée. Les contraintes imposées par les interactions s’opposent souvent à la tendance naturelle des molécules à former une structure compacte et permettent donc à d'autres molécules invitées d’occuper un volume appréciable dans le matériau, sans toutefois contribuer directement à l'architecture principale. Appliquée à la cristallisation, cette approche peut générer des cristaux poreux, analogues aux zéolites. Les ponts hydrogène offrent une interaction non-covalente de choix dans cette stratégie car ils sont forts et directionnels. L’exploration d’une multitude de fonctions chimiques connues pour pouvoir participer à la formation de ponts hydrogène a permis de créer une grande diversité de nouveaux matériaux lors de l’évolution du domaine du génie cristallin. Une molécule classique, qui illustre bien la stratégie tectonique et qui a eu un fort impact dans le domaine de la chimie supramoléculaire, est l’acide 1,3,5-benzènetricarboxylique, communément appelé acide trimésique. L’acide trimésique donne une orientation trigonale à trois groupements carboxyles, favorisant ainsi la formation d'un réseau hexagonal retenu par ponts hydrogène. Nous avons visé une modification dans laquelle les groupements -COOH de l'acide trimésique sont remplacés par deux autres groupements de reconnaissance, jusqu’ici peu exploités en chimie supramoléculaire, l’oxime et l’hydrazone. Nous rapportons la synthèse et la cristallisation de différentes trioximes et trihydrazones analogues à l'acide trimésique. Les cristaux obtenus ont été analysés par diffraction des rayons-X et leurs structures ont été déterminées. L’auto-assemblage de différentes trioximes et trihydrazones en 2D par adsorption sur graphite a également été étudié en utilisant la microscopie à balayage à effet tunnel. Nos résultats nous permettent de comparer l'organisation en 2D et en 3D de différents analogues de l'acide trimésique.
Resumo:
Avec une mondialisation omniprésente, les études sur l’aspect interculturel des organisations deviennent de plus en plus d’actualité et fascinent les chercheurs comme les praticiens. Notre étude suit donc cette voie et porte sur la construction du sens de l’expérience interculturelle au sein d’une entreprise multinationale. Nous avons cherché à comprendre, d’un point de vue interprétatif, comment les acteurs construisent le sens des caractères multinationaux et interculturels de l’entreprise, à travers leurs expériences au sein d’une multinationale québécoise. La recherche existante discute les aspects culturels et communicatifs tels que le contexte, la langue et le flux de message, identifiés par E.T. Hall (Hall, 1976, 1990) comme centraux dans la problématique générale de la communication interculturelle. Nous avons cependant abordé ces mêmes aspects depuis la perspective de la théorie du sensemaking (Weick, 1995) en nous centrant sur les points de vue des acteurs et de leurs expériences. Sur la base d’entrevues en profondeur, la recherche montre que, bien qu’il soit fortement valorisé par tous les interviewés, l’aspect interculturel n’a pas été profondément intégré dans les pratiques communicatives de tous les jours, comme nous aurions pu le croire. Néanmoins, cet aspect exerce une influence réelle et considérable pour certains employés, comme les gestionnaires des ressources humaines et des relations publiques, due essentiellement à la nature même de leurs fonctions. Les résultats suggèrent également que l’aspect interculturel est vécu de manière fort différente selon l’identité qui est attachée à l’organisation. Cette dernière est en effet parfois considérée comme (1) une organisation « locale », c’est-à-dire en référence à son origine québécoise, comme (2) une organisation multinationale, en référence aux interactions entre les parties de l’organisation dispersées dans le monde entier, et enfin (3) comme une firme étrangère du point de vue des acteurs des pays hôtes. Dans les trois cas les enjeux interculturels pour les acteurs varient considérablement tout comme, en conséquence, le sens qui est accordé à cet aspect de l’organisation. Mots-clés : Expérience interculturelle, organisation multinationale, théorie du sensemaking, communication interculturelle.
Resumo:
À l’été 2010, le gouvernement canadien a annoncé le remplacement du formulaire long obligatoire par l’Enquête nationale auprès des ménages, un questionnaire facultatif. Ce changement a causé beaucoup de réactions, parce que cela affectera la qualité et la continuité des données recueillies, qui servent à appliquer différents programmes et lois, et qui sont utilisées par de nombreux groupes dans leurs fonctions de recherche et de représentation. Le présent mémoire a pour objectif de comprendre pourquoi le recensement devient parfois le centre d’un conflit politique, quels acteurs sont impliqués, et pour quelles raisons. À l’aide d’une analyse comparative de cas antérieurs dans différents pays, nous identifions trois éléments nécessaires pour que la méthodologie du recensement devienne un enjeu politique. Il s’agit de la présence: (1) d’un aspect identitaire; (2) d’une dimension idéologique qui concerne particulièrement le rôle de l’État et l’action positive; et (3) de programmes ou d’objectifs gouvernementaux qui dépendent directement des données du recensement. Pour évaluer si ces trois facteurs sont également présents au Canada en 2010, nous avons effectué des entrevues avec les groupes qui ont contesté la décision de l’annulation du formulaire long obligatoire. Ces groupes ont contesté la décision devant les tribunaux, et ont évoqué les risques de non-respect du gouvernement envers ses obligations légales, notamment envers la Charte des droits et libertés. L’analyse de ce conflit nous permet aussi d’évaluer les relations entre le gouvernement canadien et la société civile, et le manque de ressources et d’opportunités auquel font face les groupes d’intérêt et les représentants de minorités à la recherche d’équité.
Resumo:
Pinker et Bloom (1990), deux représentants de la psychologie évolutionniste, soutiennent que le langage est une adaptation biologique ayant pour fonction la communication. Ils prétendent ainsi jeter un éclairage sur l’origine et l’évolution du langage. Le présent mémoire propose une analyse critique de leur argumentation, et ce, du point de vue de la philosophie de la biologie. D’une part, il tente de dissiper la confusion entourant la conception du langage adoptée par Pinker et Bloom, afin de mieux définir le trait censé constituer une adaptation biologique. Ce faisant, ce mémoire fait ressortir certains présupposés de leur conception du langage et en souligne l’aspect problématique. En ce sens, les concepts d’innéité, de modularité, de grammaire universelle et de systématicité sont abordés de façon critique. D’autre part, ce travail entend expliciter un concept clé de l’argumentation de Pinker et Bloom : celui d’adaptation. L’analyse montre que l’opposition entre adaptationnisme et anti-adaptationnisme tient, dans le cas présent, à une divergence quant à la façon de définir l’adaptation biologique. Une distinction importante doit être faite entre une adaptation résultant exclusivement de la sélection naturelle dans un contexte fonctionnel particulier et une adaptation qui n’exclut pas a priori d’autres facteurs évolutifs, dont l’exaptation. Dans la mesure où l’argumentation de Pinker et Bloom conduit à affirmer que le langage constitue une adaptation seulement au deuxième sens du terme, ce mémoire montre qu’ils ne sont pas à même de rendre compte de l’origine du langage.
Resumo:
L’estime de soi joue un rôle central lorsqu’il est question de prédire les réactions des individus au feedback. En dépit de son influence indéniable sur les réactions des individus au feedback en contexte d’évaluation de potentiel, peu d’études se sont attardées aux facteurs pouvant en atténuer l’effet dans le cadre d’une telle démarche. Cette thèse vise à combler ce manque à travers deux articles empiriques répondant chacun à plusieurs objectifs de recherche. Dans cette optique, des données ont été amassées auprès de deux échantillons indépendants de candidats (étude 1, N = 111; étude 2, N = 153) ayant réalisé une évaluation de potentiel dans une firme-conseil spécialisée en psychologie industrielle. Le premier article vise à tester deux théories relatives à l’estime de soi s’affrontant lorsqu’il est question de prédire les réactions cognitives au feedback, la théorie de l’auto-valorisation et de l’auto-vérification. Pour mieux comprendre ce phénomène, l’influence de l’estime de soi et de la valence décisionnelle du feedback sur les deux composantes de l’appropriation cognitive du feedback en contexte d’évaluation, l’acceptation et la conscientisation, a été testé. Les résultats soutiennent les postulats de la théorie d’auto-valorisation lorsqu’il est question de prédire l’acceptation du feedback. En contrepartie, les résultats offrent peu de soutien à la théorie de l’auto-vérification dans la prédiction de la conscientisation à l’égard du feedback. Le second article vise à identifier des leviers modulables pour influencer favorablement les réactions des individus ayant une plus faible estime d’eux-mêmes. Pour ce faire, deux variables relatives à l’influence de la source ont été ciblées, la crédibilité perçue et les pratiques de confrontation constructive. Cet article comprend deux études, soit une première ayant pour objectif de valider un instrument mesurant la crédibilité perçue de la source et une seconde examinant les relations entre trois déterminants, soit l’estime de soi du candidat, la crédibilité perçue de la source et les pratiques de confrontation constructive, et deux réactions cognitives au feedback, l’acceptation et la conscientisation. Les analyses de la première étude font ressortir que l’échelle de crédibilité perçue présente des qualités psychométriques satisfaisantes et les résultats corroborent une structure unifactorielle. Les résultats de la seconde étude indiquent que les trois déterminants étudiés sont positivement reliés à l’acceptation et à la conscientisation. Les effets d’interaction significatifs font ressortir des conditions favorisant l’acceptation et la conscientisation chez les individus ayant une plus faible estime d’eux-mêmes. La crédibilité perçue atténue la relation entre l’estime de soi et l’acceptation alors que la confrontation constructive modère les relations entre l’estime de soi et, tant l’acceptation que la conscientisation. Enfin, la crédibilité perçue et la confrontation constructive interagissent dans la prédiction de la conscientisation, faisant ainsi ressortir l’importance d’établir sa crédibilité pour augmenter l’effet positif de la confrontation constructive. Les apports théorique et conceptuel de chacun des articles ainsi que les pistes d’intervention pratiques en découlant sont discutés séparément et repris dans une conclusion globale. Les retombées de cette thèse, tant sur le plan de la recherche que de l'intervention, sont également abordées dans cette dernière section.
Resumo:
Dans les dernières décennies, le présumé déclin de la compétence scripturale des élèves québécois a soulevé les passions. Force est d’admettre que leurs compétences sont lacunaires : tant les rapports du ministère de l’Éducation (Jalbert, 2006; Ouellet, 1984) que les études scientifiques ou gouvernementales (Bureau, 1985; Groupe DIEPE, 1995; Roberge, 1984) révèlent leur incapacité à s’approprier l’écriture. Les TIC pourraient bien faire partie de la solution : on sait pertinemment qu’elles favorisent la réussite scolaire dans certains contextes (Barayktar, 2001; Christmann & Badgett, 2003; Waxman, Lin, & Michko, 2003). Toutefois, modifient-elles le processus scriptural au point d’en faciliter l’apprentissage? Cette question constitue le cœur de l’actuel projet de recherche. Les modèles du processus d’écriture comme celui de Hayes et Flower (Flower & Hayes, 1981; Hayes, 1995; Hayes & Flower, 1980) rappellent que les TIC font partie du contexte de production; à ce titre, elles influencent autant la qualité des textes que les processus cognitifs et la motivation. Elles libèrent notamment des ressources cognitives, puisqu’elles prennent en charge certaines opérations, comme la calligraphie (Daiute, 1983). Partant, le scripteur peut se concentrer davantage sur des tâches plus complexes. Des méta-analyses (Bangert-Drowns, 1993; Goldberg, Russell, & Cook, 2003) attestent que le traitement de texte exerce un effet minime, mais statistiquement significatif sur la qualité de l’écriture. Toutefois, il est associé à des révisions en surface (Faigley & Witte, 1981; Figueredo & Varnhagen, 2006). Rares sont les projets de recherche qui explorent simultanément l’impact du traitement de texte sur plusieurs dimensions du processus scriptural; plus rares encore sont les travaux qui se sont intéressés à ce sujet depuis les années 1990. Pour pallier ce manque, cette thèse de doctorat vise à 1) mesurer l’effet des TIC sur la qualité de l’écriture; 2) décrire l’impact des TIC sur les processus cognitifs de révision et de traduction; 3) mesurer l’impact des TIC sur la motivation à écrire. Pour y arriver, nous recourons à une méthodologie mixte. D’une part, un devis de recherche quasi expérimental nous permet de comparer les scripteurs technologiques aux scripteurs traditionnels; d’autre part, une approche qualitative nous laisse accéder aux pensées et aux perceptions des utilisateurs de l’ordinateur. Les trois articles qui constituent le cœur de cette thèse rapportent les résultats relatifs à chacun des objectifs spécifiques de recherche. Dans le premier texte, nous avons mesuré les effets du traitement de texte sur la compétence scripturale. L’analyse statistique des données colligées nous a permis de dégager une amélioration des performances, strictement en orthographe d’usage. En comparaison, les élèves du groupe témoin se sont améliorés davantage en cohérence textuelle et ont mieux performé en orthographe grammaticale. Le deuxième article propose de faire la lumière sur ces résultats. Nous y étudions donc l’impact des TIC sur le processus cognitif de révision. Ce volet, basé sur une approche qualitative, recourt largement à l’observation vidéographiée. Nous y mettons d’abord en évidence le grand nombre d’erreurs commises lors des séances d’écriture technologiques; nous faisons également ressortir la sous-utilisation du vérificateur linguistique, qui pose peu de diagnostics appropriés ou qui est souvent ignoré des scripteurs. Toutefois, malgré cette sous-utilisation du traitement de texte, des entrevues de groupe font état de perceptions positives à l’égard des TIC; on leur prête des vertus certaines et elles sont jugées motivantes. Ce phénomène constitue le cœur du dernier article, au cours duquel nous tâchons de mesurer l’impact du mode d’écriture sur la motivation à écrire. Nous menons ce volet dans une perspective quantitative. La motivation des participants a été mesurée avec une échelle de motivation. L’analyse statistique des données montre que les élèves technologiques sont motivés intrinsèquement par les technologies, tandis que leurs pairs du groupe témoin sont amotivés. Lors du chapitre conclusif, nous mettons ces résultats en relation, tentant d’expliquer globalement l’impact des TIC dans le processus scriptural. Au terme de notre thèse, nous formulons des recommandations destinées aux praticiens et aux décideurs engagés dans le système éducatif.
Resumo:
La protéine AID (déaminase induite par l’activation) joue un rôle central dans la réponse immunitaire adaptative. En désaminant des désoxycytidines en désoxyuridines au niveau des gènes immunoglobulines, elle initie l’hypermutation somatique (SHM), la conversion génique (iGC) et la commutation isotypique (CSR). Elle est essentielle à une réponse humorale efficace en contribuant à la maturation de l’affinité des anticorps et au changement de classe isotypique. Cependant, son activité mutagénique peut être oncogénique et causer une instabilité génomique propice au développement de cancers et de maladies autoimmunes. Il est donc critique de réguler AID, en particulier ses niveaux protéiques, pour générer une réponse immunitaire efficace tout en minimisant les risques de cancer et d’autoimmunité. Un élément de régulation est le fait qu’AID transite du cytoplasme vers le noyau mais reste majoritairement cytoplasmique à l’équilibre. AID est par ailleurs plus stable dans le cytoplasme que dans le noyau, ce qui contribue à réduire sa présence à proximité de l’ADN. Le but de cette thèse était d’identifier de nouveaux partenaires et déterminants d’AID régulant sa stabilité et ses fonctions biologiques. Dans un premier temps, nous avons identifié AID comme une nouvelle protéine cliente d’HSP90. Nous avons montré qu’HSP90 interagit avec AID dans le cytoplasme, ce qui empêche la poly-ubiquitination d’AID et sa dégradation par le protéasome. En conséquence, l’inhibition d’HSP90 résulte en une diminution significative des niveaux endogènes d’AID et corrèle avec une réduction proportionnelle de ses fonctions biologiques dans la diversification des anticorps mais aussi dans l’introduction de mutations aberrantes. Dans un second temps, nous avons montré que l’étape initiale dans la stabilisation d’AID par la voie de chaperonnage d’HSP90 dépend d’HSP40 et d’HSP70. En particulier, la protéine DnaJa1, qui fait partie de la famille des protéines HSP40s, limite la stabilisation d’AID dans le cytoplasme. La farnésylation de DnaJa1 est importante pour l’interaction entre DnaJa1 et AID et moduler les niveaux de DnaJa1 ou son état de farnésylation impacte à la fois les niveaux endogènes d’AID mais aussi la diversification des anticorps. Les souris DNAJA1-/- présentent une réponse immunitaire compromise en cas d’immunisation, qui est dûe à des niveaux réduits d’AID et un défaut de commutation de classe. Dans un troisième temps, nous avons montré que la protéine AID est intrinsèquement plus instable que sesprotéines paralogues APOBEC. Nous avons identifié l’acide aspartique en seconde position d’AID ainsi qu’un motif semblable au PEST comme des modulateurs de la stabilité d’AID. La modification de ces motifs augmente la stabilité d’AID et résulte en une diversification des anticorps plus efficace. En conclusion, l’instabilité intrinsèque d’AID est un élément de régulation de la diversification des anticorps. Cette instabilité est en partie compensée dans le cytoplasme par l’action protective de la voie de chaperonnage DnaJa1-HSP90. Par ailleurs, l’utilisation d’inhibiteurs d’HSP90 ou de farnésyltransférases pourrait être un outil intéressant pour la modulation indirecte des niveaux d’AID et le traitement de lymphomes/leucémies et de maladies auto-immunes causés par AID.