942 resultados para Tensions linguistiques
Resumo:
Depuis ces deux dernières décennies, des efforts considérables en psychologie cognitive et neuropsychologie ont été déployés pour mieux comprendre les dynamiques entre les différents systèmes cognitifs (fonctions exécutives, mémoire, langage, etc.). L’observation d’une co-existence entre des atteintes en rétention à court terme verbale (RCTv) et en langage dans plusieurs pathologies a conduit certains chercheurs à concevoir une alternative à la conceptualisation classique de la RCTv, telle que proposée par le modèle initial de la mémoire de travail de Baddeley (1986). Particulièrement, les travaux sur l’aphasie ont conduit à l’émergence d’une approche psycholinguistique de la RCTv, postulant que le traitement et le maintien des mots font appel à des processus communs. Cette approche, et particulièrement le modèle d’activation interactive (N. Martin & Gupta, 2004; N. Martin & Saffran, 1997), prédit que les capacités en RCTv sont notamment modulées par les caractéristiques linguistiques engagées durant l’épreuve, variant selon la nature des items verbaux et la modalité de rappel, ainsi que par les compétences linguistiques des individus. L’objectif de la présente thèse était de tester ces prédictions à partir d’une exploration des relations entre le traitement sémantique des mots et la RCTv chez l’adulte sain (article 1) et dans la démence de type Alzheimer (DTA) (article 2). Dans le premier article, deux expériences mettent en évidence l’influence des liens associatifs entre les mots sur les capacités à maintenir temporairement des informations verbales. Les participants ont tendance à faussement reconnaître des mots associés aux mots de la liste, reflet d’une activation du réseau sémantique durant la rétention temporaire. Cette contribution sémantique est accentuée en situation de suppression articulatoire, une condition qui empêche le participant de répéter les listes durant la tâche. Les résultats du second article indiquent que la modalité de réponse module différemment la performance en RCTv chez les participants âgés sans atteinte neurologique et ceux atteints de la DTA. Ces données en RCTv sont compatibles avec les atteintes spécifiques du traitement du mot, également trouvées chez le groupe avec DTA. Les implications théoriques et cliniques de ces résultats sont discutées. Les limites et perspectives futures sont également abordées.
Resumo:
L’effet d’encombrement, qui nous empêche d’identifier correctement un stimulus visuel lorsqu’il est entouré de flanqueurs, est omniprésent à travers une grande variété de classes de stimuli. L’excentricité du stimulus cible ainsi que la distance cible-flanqueur constituent des facteurs fondamentaux qui modulent l’effet d’encombrement. La similarité cible-flanqueur semble également contribuer à l’ampleur de l’effet d’encombrement, selon des données obtenues avec des stimuli non-linguistiques. La présente étude a examiné ces trois facteurs en conjonction avec le contenu en fréquences spatiales des stimuli, dans une tâche d’identification de lettres. Nous avons présenté des images filtrées de lettres à des sujets non-dyslexiques exempts de troubles neurologiques, tout en manipulant l’excentricité de la cible ainsi que la similarité cible-flanqueurs (selon des matrices de confusion pré-établies). Quatre types de filtrage de fréquences spatiales ont été utilisés : passe-bas, passe-haut, à large bande et mixte (i.e. élimination des fréquences moyennes, connues comme étant optimales pour l’identification de lettres). Ces conditions étaient appariées en termes d’énergie de contraste. Les sujets devaient identifier la lettre cible le plus rapidement possible en évitant de commettre une erreur. Les résultats démontrent que la similarité cible-flanqueur amplifie l’effet d’encombrement, i.e. l’effet conjoint de distance et d’excentricité. Ceci étend les connaissances sur l’impact de la similarité sur l’encombrement à l’identification visuelle de stimuli linguistiques. De plus, la magnitude de l’effet d’encombrement est plus grande avec le filtre passe-bas, suivit du filtre mixte, du filtre passe-haut et du filtre à large bande, avec différences significatives entre les conditions consécutives. Nous concluons que : 1- les fréquences spatiales moyennes offrent une protection optimale contre l’encombrement en identification de lettres; 2- lorsque les fréquences spatiales moyennes sont absentes du stimulus, les hautes fréquences protègent contre l’encombrement alors que les basses fréquences l’amplifient, probablement par l’entremise de leur impact opposé quant la disponibilité de l’information sur les caractéristiques distinctives des stimul.
Resumo:
La présente étude a comme objectif d’analyser l’intégration linguistique des immigrants au marché du travail au Québec et les facteurs qui y sont associés. Nous le réalisons en examinant la place du français dans les pratiques linguistiques de la main-d’œuvre immigrée au travail. Nous constatons qu’au Québec, en 2007, environ la moitié des immigrants travaillent uniquement ou généralement en français, un quart a régulièrement recours à cette langue dans le cadre de son travail, alors que l’autre quart l’utilise occasionnellement ou ne l’utilise jamais au travail. Nos analyses permettent également d’estimer les effets bruts et nets des nombreux facteurs de l’usage du français au travail par les immigrants. Nous montrons que ce sont les facteurs linguistiques de l’entreprise, de l’entourage et du répondant lui-même qui se manifestent comme des déterminants importants de la langue de travail de celui-ci. Parmi les caractéristiques de l’entreprise, c’est la langue de sa haute direction qui, à travers des politiques d’embauche et des politiques internes, détermine en partie les pratiques linguistiques des travailleurs. La composition linguistique de l’entourage de l’immigrant au travail qui comprend son supérieur immédiat et ses collègues a, elle aussi, un impact important sur la langue employée au travail par celui-ci. Plus cet entourage est composé des personnes de langue maternelle française, plus le travailleur immigré utilisera cette langue au travail. Parmi les caractéristiques individuelles du répondant, sa langue d’études et ses compétences linguistiques ressortent. Les immigrants ayant une bonne connaissance du français l’emploient plus au travail que ceux en ayant une faible connaissance. En revanche, la connaissance de l’anglais a un impact négatif sur l’usage du français au travail. Selon nos analyses, parmi les facteurs non linguistiques qui sont associés significativement à la langue de travail des immigrants, il y a la localisation géographique de l’entreprise, l’origine des travailleurs immigrés, leur profession et l’âge à leur arrivée au Québec.
Resumo:
Plusieurs monographies récentes se sont intéressées à la traduction des littératures africaines europhones (Gyasi 2006, Bandia 2008, Batchelor 2009), faisant valoir le concept d’autotraduction (au sens métaphorique) et insistant sur le fait que ces écritures sont porteuses d’une oralité ou de marques linguistiques issues des langues parlées par les écrivains. Toutefois, la question de l’hybridité comme point de jonction entre littératures orales et écrites a encore rarement été examinée sous un angle poétique et c’est précisément dans cet esprit que cette recherche a été entreprise. Dans un premier temps, à partir des ouvrages originaux de six auteurs, trois d’expression littéraire anglaise (Farah, Hove et Armah) et trois d’expression littéraire française (Waberi, Adiaffi et Djebar), je montre en quoi ces écritures méritent d’être qualifiées de poétiques avant de mettre cette esthétique en relation avec le patrimoine littéraire de chacun des auteurs du corpus; ponctuellement, d’autres affiliations littéraires sont mises en évidence. Cette poétique est examinée dans sa dimension mélopoéique (Pound 1954), c’est-à-dire sous l’angle des structures audibles, appelées aussi figures de style jouant sur la forme phonétique des mots (Klein-Lataud 2001). Dans un second temps, j’examine comment cette poétique sonore a été recréée, tant de manière qualitative que quantitative, dans les traductions de Bardolph, de Richard et de J. et R. Mane (pour les auteurs d’expression anglaise) et de Garane, de Katiyo et de Blair (pour les auteurs d’expression française). Les enjeux associés à la réactivation des structures poétiques sonores sont mis en évidence dans le dernier chapitre qui propose un tour d’horizon des modalités de « consommation » de l’objet littéraire et qui s’achève sur les questions soulevées par la progression du livre audio. La méthodologie élaborée dans ce cadre s’inspire essentiellement de Berman (1995) et de Henry (2003). La conceptualisation de la poétique sonore, telle que mise en œuvre dans le contexte particulier de ces littératures, fait appel aux paradigmes de valence traductive (Folkart 2007) et de traduction métonymique (Tymoczko 1999). Par ailleurs, cette recherche s’appuie sur la récente thèse de doctorat de Fraser (2007) consacrée à la théorisation du sonore en traduction.
Resumo:
Thèse réalisée en cotutelle avec l’Université Charles-de-Gaulle – Lille-3 pour l'obtention du diplôme de doctorat en Langue et littérature françaises.
Resumo:
Toutes les illustrations qui ponctuent cette thèse ont été réalisées par Chantal Poirier. Elles ont été insérées dans le texte selon un ordre méticuleusement aléatoire.
Resumo:
Cette recherche se construit autour d’un travail de terrain réalisé dans trois communautés autochtones quichuas vivant au nord de l’Équateur. Il prétend étudier l’incidence que devrait avoir la diversité culturelle et linguistique dans les politiques éducatives en milieu plurilingue et multiculturel. En Amérique hispanique, l’éducation des peuples autochtones n’a jamais été très attentive à leurs besoins spécifiques en ce qui a trait à l’apprentissage de l’espagnol comme langue seconde. En effet, les motivations des apprenants, plus instrumentales qu’intégratives, prouvent que les autochtones apprennent la langue espagnole presqu’exclusivement pour communiquer, sans vraiment être intéressés au groupe natif de cette langue. De plus, notre recherche sur le terrain avec les apprenants du peuple Otavalo nous a démontré que leur très forte identification ethnique influence l’acquisition de l’espagnol. D’une part, ils sont plus enclins à se distinguer des autres, spécialement des hispano parlants, et de l’autre, ils réussissent plus difficilement à atteindre une compétence élevée dans la langue seconde. Notre recherche conclut donc que l’éducation, qu’elle soit issue du système national ou bilingue, devrait davantage prendre en considération l’identité ethnolinguistique des nombreux enfants indigènes, afin de ne pas préjudicier leurs droits. Ceci permettrait de favoriser un apprentissage positif et significatif de l’espagnol comme langue seconde ou langue maternelle, mais tout en consolidant l’identité autochtone des apprenants.
Resumo:
L’équilibre économique mondial repose sur une asymétrie structurelle dont les pôles antagonistes principaux sont les États-Unis et l’Asie orientale. À la base de cet axe de tension géographique se trouve la question de la représentation mondiale de la richesse. La domination du dollar permet aux États-Unis un accès disproportionné aux ressources planétaires. Les pays créanciers, dont fait partie la Chine, hésitent à laisser flotter leur monnaie et attaquer l’hégémonie du dollar. Entre temps, les déséquilibres s’intensifient, tout comme les tensions politiques, par l’effet de ce système monétaire qui participe au maintien d’un monde unipolaire. Le système monétaire actuel n’offre aucune perspective endogène quant à la résolution des déséquilibres que son équilibre requiert. Ce mémoire cherche à identifier les stratégies géoéconomiques de la Chine pour se soustraire de l’emprise du dollar.
Resumo:
La période de l’après-guerre posa d’importants défis commerciaux à l’économie canadienne. Les années entre 1945 et 1950 furent effectivement marquées par la rupture de son système commercial traditionnel et la recherche d’une stratégie alternative. Le pays dut composer avec un déficit commercial croissant à l’égard des États-Unis, ainsi qu’une chute de ses exportations à destination du Royaume-Uni, ruiné par les années de guerre. Ce déséquilibre commercial qui menaçait d’épuiser les réserves canadiennes de dollars américains reflétait l’écart entre les capacités productives des deux rives de l’Atlantique. Le programme de reconstruction des économies européennes, ou plan Marshall, fut accueilli avec enthousiasme à Ottawa puisqu’il devait non seulement rétablir les marchés du Vieux Continent, mais également faciliter la mise en place d’un réseau multilatéral d’échanges et la libéralisation du commerce international. Les tensions de la guerre froide limitèrent toutefois l’ouverture de ces marchés aux marchandises canadiennes, puisque l’endiguement du communisme commanda une consolidation européenne qui privilégia le démantèlement des entraves aux échanges intra-européens, aux dépens du commerce transatlantique. Les préoccupations de Washington en matière de sécurité collective devaient néanmoins laisser place à une stratégie alternative pour le Canada, en poussant la coopération économique des deux pays, dans le but d’optimiser une production de défense destinée aux pays membres de l’OTAN, dont la demande était soutenue par l’aide Marshall. L’incorporation du Canada dans ce dispositif de défense élargie à la communauté atlantique permit ainsi d’assurer un accès privilégié à ses marchandises sur le marché américain, et par conséquent de progresser vers l’équilibre commercial.
Resumo:
La seconde crise de Berlin (1958-1961) est un évènement majeur de la guerre froide. L'hypothèse de notre recherche remet en question le rôle du Canada et les perceptions négatives de l'Occident envers l'URSS durant cette crise. La recherche se divise en trois volets : premièrement, une revue de l'historiographie de la politique canadienne; deuxièmement, une présentation de la chronologie des évènements de la crise de Berlin, l'importance de la diplomatie multilatérale canadienne et la politique nucléaire de Diefenbaker; enfin, un examen de la politique étrangère soviétique. À partir de sources primaires et d'un bilan historiographique,il fut démontré que, durant la crise de Berlin, le Canada a réussi à influencer l'OTAN et à ménager les gouvernements américains et soviétiques. Quant à l'URSS, contrairement à l'image négative que l'Occident en avait, celle-ci a manifesté durant cette crise des intentions pacifiques envers l'Occident, contredisant les interprétations orthodoxes de la guerre froide.
Resumo:
L’amélioration de la qualité de l’utilisation des médicaments dans les soins primaires est devenue un enjeu crucial. Les pharmaciens communautaires se présentent comme des acteurs centraux dans l’atteinte de cet objectif, en réclamant une extension de leur rôle. L’objectif principal de cette thèse est de mieux comprendre comment les technologies de prescription informatisée (eRx) influencent la transformation du rôle des pharmaciens communautaires. Le premier article présente les résultats d’une étude de cas qui aborde la transformation du rôle des pharmaciens communautaires à partir du concept de professionnalisation. Elle propose un modèle logique des influences d’une technologie de eRx sur cette professionnalisation, élaboré à partir de la typologie de Davenport. Ce modèle logique a été validé en interviewant douze pharmaciens communautaires participant à un projet pilote typique de technologie de eRx. A partir des perceptions des pharmaciens communautaires, nous avons établi que la technologie était susceptible de soutenir la professionnalisation des pharmaciens en passant par cinq mécanismes : la capacité analytique, l’élimination des intermédiaires, l’intégration, l’automatisation et la diffusion des connaissances. Le deuxième article analyse les perturbations induites par les différentes fonctions des technologies de eRx sur la stabilité de la juridiction des pharmaciens communautaires, en se basant sur un cadre de référence adapté d’Abbott. À partir de trente-trois entrevues, avec des praticiens (médecins et pharmaciens) et des élites, cette étude de cas a permis de décrire en détail les influences des différentes fonctions sur les modalités d’action des professionnels, ainsi que les enjeux soulevés par ces possibilités. La perturbation principale est liée aux changements dans la distribution des informations, ce qui influence les activités de diagnostic et d’inférence des professionnels. La technologie peut redistribuer les informations relatives à la gestion des médicaments autant au bénéfice des médecins qu’au bénéfice des pharmaciens, ce qui suscite des tensions entre les médecins et les pharmaciens, mais aussi parmi les pharmaciens. Le troisième article présente une revue systématique visant à faire une synthèse des études ayant évalué les effets des technologies de eRx de deuxième génération sur la gestion des médicaments dans les soins primaires. Cette revue regroupe dix-neuf études menées avec des méthodes observationnelles. Les résultats rapportés révèlent que les technologies sont très hétérogènes, le plus souvent immatures, et que les effets ont été peu étudiés au-delà des perceptions des utilisateurs, qui sont mitigées. Le seul effet positif démontré est une amélioration de la qualité du profil pharmacologique accessible aux professionnels, alors que des effets négatifs ont été démontrés au niveau de l’exécution des prescriptions, tels que l’augmentation du nombre d’appels de clarification du pharmacien au prescripteur. Il semble donc que l’on en connaisse peu sur les effets des technologies de eRx de deuxième génération. Ces trois études permettent de constater que les nouvelles technologies de eRx peuvent effectivement influencer la transformation du rôle du pharmacien communautaire en perturbant les caractéristiques des prescriptions, et surtout, l’information et sa distribution. Ces perturbations génèrent des possibilités pour une extension du rôle des pharmaciens communautaires, tout en soulignant les défis intra et interprofessionnels associés à l’actualisation de ces possibilités. Dans l’ensemble, nos résultats soulignent que les perturbations associées aux technologies de eRx dépassent les éléments techniques du travail des utilisateurs, pour englober de multiples perturbations quant à la nature même du travail et du rôle des professionnels. Les décideurs et acteurs impliqués dans le déploiement des technologies de eRx auraient avantage à prendre en compte l’ensemble de ces considérations pour rapprocher les effets observés des bénéfices promis de ces technologies.
Resumo:
Les logiciels de correction grammaticale commettent parfois des détections illégitimes (fausses alertes), que nous appelons ici surdétections. La présente étude décrit les expériences de mise au point d’un système créé pour identifier et mettre en sourdine les surdétections produites par le correcteur du français conçu par la société Druide informatique. Plusieurs classificateurs ont été entraînés de manière supervisée sur 14 types de détections faites par le correcteur, en employant des traits couvrant di-verses informations linguistiques (dépendances et catégories syntaxiques, exploration du contexte des mots, etc.) extraites de phrases avec et sans surdétections. Huit des 14 classificateurs développés sont maintenant intégrés à la nouvelle version d’un correcteur commercial très populaire. Nos expériences ont aussi montré que les modèles de langue probabilistes, les SVM et la désambiguïsation sémantique améliorent la qualité de ces classificateurs. Ce travail est un exemple réussi de déploiement d’une approche d’apprentissage machine au service d’une application langagière grand public robuste.
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Thèse diffusée initialement dans le cadre d'un projet pilote des Presses de l'Université de Montréal/Centre d'édition numérique UdeM (1997-2008) avec l'autorisation de l'auteur.
Resumo:
Ce mémoire traite de la diversité culturelle sous l’optique de la notion d’exception culturelle. Dans la Convention sur la protection et la promotion de la diversité des expressions culturelles, la diversité culturelle acquiert le statut de notion pivot entre les politiques culturelles promulguées à l’échelle nationale, européenne et internationale. L’objectif de ce mémoire a été de déterminer la conception de la diversité culturelle dans l’intention de montrer les tensions qui résultent de la formulation du rôle des États-nations et du pouvoir dévolu à la libre circulation des biens et produits culturels à l’échelle supranationale. D’où l’hypothèse que la notion de diversité culturelle est sujette à des glissements de sens afin de rallier les parties en présence. Selon ces constats et l’hypothèse de Bourdieu selon laquelle on assiste à l’homogénéisation des cultures, nous avons répondu aux questions suivantes : comment la Convention peut-elle concilier l’ouverture des marchés des biens et services culturels et la protection de la diversité culturelle ? Comment la diversité culturelle s’orchestre-t-elle sous l’égide de la Convention de l’UNESCO ? Sous la tutelle de l’État-nation chargé de défendre les couleurs de la culture nationale ? Ou par l’intermédiaire du marché capable de réguler l’offre et la demande en matière de culture ? La Convention a donc fait l’objet d’une analyse de discours dans l’intention d’exhiber les tensions sous-jacentes à la conception de la diversité culturelle. En effet, la diversité culturelle est sujette à des glissements de sens, car elle est orchestrée en partie par le droit souverain des États-nations qui sont en mesure de protéger et promouvoir la diversité des expressions culturelles sur leur territoire, mais aussi, elle est basée sur des principes de libre échange et de libre circulation des produits, activités, biens et services culturels découlant de la coopération régionale, bilatérale et internationale mise de l’avant par la Convention. La Convention permet jusqu’à un certain point une conciliation entre l’ouverture du marché des biens et services culturels et la protection de la diversité culturelle grâce à ces mécanismes et ces organes.