958 resultados para reconnaissance des mots
Resumo:
La réadaptation pulmonaire est une intervention dont l’efficacité est largement reconnue. Cette efficacité a été établie grâce à l’utilisation d’instruments de mesure d’impact global. Les patients bénéficiant des programmes de réadaptation pulmonaire possèdent des caractéristiques variées et souffrent généralement de maladie pulmonaire obstructive chronique à différents degrés. En fonction de leurs différents besoins, les patients répondent de façon variable aux composantes d’un programme de réadaptation pulmonaire. Il est recommandé d’individualiser les programmes en fonction des besoins des patients afin d’en optimiser les effets. À cette fin, l’évaluation des besoins de réadaptation des patients est nécessaire. Comme il n’existe actuellement aucun instrument standardisé pour procéder à cette évaluation, nous avons entrepris d’en développer un à l’aide de méthodes qualitatives et quantitatives de recherche. Un modèle conceptuel d’évaluation des besoins de réadaptation des patients a été élaboré suite aux résultats tirés de groupes de discussion, de la consultation de dossiers médicaux et d’une recension des écrits. À partir de ce modèle, des items devant être sélectionnés de façon individualisée parmi cinq domaines (reconnaissance des besoins, connaissance, motivation, attentes et buts) ont été pré-testés. Les tendances générales concernant la validité des items contenus dans le prototype d’instrument ont été vérifiées lors d’une étude pilote auprès de 50 répondants en réadaptation. Les pistes d’investigation dégagées dans ce mémoire serviront aux études de validation plus approfondies dont devrait faire l’objet ce prototype d’instrument dans le futur.
Resumo:
Dans Creep show, un narrateur présente ses creeps, les malades de son entourage, des schizophrènes inadéquatement nommés, afin de les ramener à la vie par ses mots. En se souvenant de certains moments où la folie se manifestait à lui, il veut déterrer ses ensevelis, les faire parler en leur prêtant son écriture. Dans un récit morcelé pouvant évoquer une galerie de portraits en mouvement, les protagonistes sont présentés comme des monstres, des rêveurs ou des sources d’inspiration selon le moment relaté par un narrateur affecté qui se replonge littéralement dans un passé s’échelonnant entre l’enfance et l’âge de dix-huit ans. Portant autant sur la maladie mentale que sur la honte et la peur des mots, Creep show est un texte sur le silence et l’impuissance, sur l’incapacité de nommer adéquatement la folie ; il s’agit d’un court récit de dix-sept scènes encadrées par un prologue et un épilogue où l’écriture d’un traumatisme se vit comme une histoire d’amour. L’essai intitulé “Je est des autres.” De l’esthétique borderline chez Marie-Sissi Labrèche décrit la genèse d’une esthétique « borderline ». Dans une approche à la fois psychanalytique et narratologique, fondée sur les concepts de la mélancolie, du kitsch et de la crypte, l’analyse tente de montrer quel type de construction thématique et formelle soutient cette esthétique. À partir d’éléments représentatifs de l’univers de Marie-Sissi Labrèche (la question de la limite, la pulsion de mort, le rapport au corps et l’instabilité), l’essai s’intéresse à la façon dont la narratrice de Borderline (2000) donne à lire une identité sédimentaire, un autoportrait masqué-fêlé, où « Je est [des] autre[s] ». En regard de ces éléments, l’hypothèse d’une machine textuelle fonctionnant – thématiquement et formellement – dans et par l’instabilité et l’altérité oriente la réflexion vers l’idée d’une écriture du trauma qui pourrait représenter une tentative de réappropriation identitaire passant par l’esthétique dite « borderline ».
Resumo:
Notre recherche analyse des discours théologiques qui épousent les traits caractéristiques de l’afro-descendance dans des ouvrages de l’Atabaque et de la Conférence Haïtienne des Religieux et Religieuses (CHR). Ces publications permettent de nommer la réflexion théologique afro-brésilienne et haïtienne comme l’expression d’un engagement au sein d’un Brésil multiculturel et métissé et d’une Haïti noire. Elles se réfèrent à la lutte des Afro-descendants et à leur résistance contre ce qu’ils considèrent comme les conséquences de la période de l’esclavage commencée au XVIe siècle qui oppriment encore des Noirs au XXIe siècle et empêchent leur pleine émancipation. Elles font partie d’une démarche postcolonialiste de changement qui inclut l’inculturation et la reconnaissance des forces des religions de matrices africaines dans leur quête d’une pleine libération des Noirs. Notre démarche, basée sur l’étude comparative des contenus de ces théologies développées au Brésil et en Haïti, met en relief des éléments essentiels de deux courants distincts de production théologique de 1986 à 2004. Cette délimitation correspond à la période de publication du résultat de trois consultations sur les théologies noires au Brésil en 1986, en 1995 et en 2004. Les ouvrages de la CHR datent de 1991 à 1999. Notre étude permet de suivre la pratique de la foi chrétienne qui s’y dégage, l’élaboration et le parcours d’évolution de cette pensée. Teologia Negra et théologie haïtienne représentent deux manières distinctes de faire de la théologie noire. Une comparaison entre les deux contextes n’a jamais été faite jusqu’à présent. Cette recherche a conduit au constat selon lequel trois paradigmes peuvent englober les principaux aspects des courants théologiques afro-brésiliens et haïtiens. Nous relevons des convergences et des divergences des paradigmes de l’inculturation libératrice, du postcolonialisme et du pluralisme religieux. La réflexion théologique afro-brésilienne est vue comme une démarche sociopolitique, ancrée surtout dans la promotion des actions positives qui consistent à favoriser l’insertion des Noirs en situation relativement minoritaire dans une société multiculturelle. En Haïti, où les Noirs sont en situation majoritaire, cette réflexion théologique va dans la direction de la sauvegarde des racines historiques en vue de motiver des changements dans une société de Noirs. Cette optique de la question des Noirs, interprétée sous un nouvel angle, offre de nouvelles pistes de réflexion théologique en même temps qu’elle renforce les revendications culturelles des Afro-Brésiliens et des Afro-Haïtiens dans le but d’élaborer un nouveau discours théologique. Notre thèse contribue à mettre en évidence deux institutions qui se dévouent à la cause des Afro-Brésiliens et des Afro-Haïtiens. L’œuvre de l’Atabaque et de la CHR témoigne du fait que celles-ci ont été susceptibles d’agir collectivement en contribuant à la diversité de la réflexion théologique des Afro-descendants, en soutenant un processus de solidarité entre les victimes permanentes du racisme explicite et implicite. Notre étude suscite l’ouverture vers le développement d’une théologie de la rencontre au sein des théologies noires tout en érigeant le défi de construire un réseau Brésil-Haïti à partir des Afro-descendants. Finalement, la spécificité de ces théologies contribue à inspirer le christianisme latino-américain et des Caraïbes et cette réflexion ne se limite pas seulement à ces deux pays, mais s’étend à d’autres contextes latino-américains ou africains.
Resumo:
L’objectif général de cette recherche doctorale est l’étude des déterminants de l’intégration pédagogique des technologies de l’information et de la communication (TIC) par les professeurs à l’Université de Ouagadougou (UO). Cela nous a conduit à étudier respectivement les compétences technologiques des professeurs, les facteurs de résistance contraignant l’intégration pédagogique des TIC par ces professeurs, l’acceptation et les usages spécifiques des TIC par les professeurs. Ce travail s’est bâti autour des concepts théoriques sur les usages éducatifs des TIC, les compétences technopédagogiques, les facteurs de résistance, l’acceptation des TIC et l’intégration pédagogique des TIC. Ces concepts se sont inscrits dans les cadres d’analyses des modèles d’intégration des TIC par les professeurs et des modèles d’acceptation et d’utilisation d’une nouvelle technologie. La stratégie d’analyse des données s’est construite autour des approches descriptives et analytiques notamment au moyen de l’utilisation de la psychométrie et/ou de l’économétrie des modèles à variables dépendantes limitées. Utilisant la recherche quantitative, le recrutement de 82 professeurs par avis de consentement à participer, a permis de collecter les données sur la base de questionnaires dont la majeure partie est bâtie autour de questions à échelle de Likert. L’étude des compétences technologiques des professeurs a permis d’une part, de dresser un portrait des usages des TIC par les professeurs. En effet, les usages les plus répandus des TIC dans cette université sont les logiciels de bureautique, les logiciels de messagerie électronique et de navigation dans Internet. Elle a aussi permis de faire un portrait des compétences technologiques des professeurs. Ceux-ci utilisent à la fois plusieurs logiciels et reconnaissent l’importance des TIC pour leurs tâches pédagogiques et de recherche même si leur degré de maîtrise perçue sur certaines des applications télématiques reste à des niveaux très bas. Par rapport à certaines compétences comme celles destinées à exploiter les TIC dans des situations de communication et de collaboration et celles destinée à rechercher et à traiter des informations à l’aide des TIC, les niveaux de maîtrise par les professeurs de ces compétences ont été très élevés. Les professeurs ont eu des niveaux de maîtrise très faibles sur les compétences destinées à créer des situations d’apprentissage à l’aide des TIC et sur celles destinées à développer et à diffuser des ressources d’apprentissage à l’aide des TIC malgré la grande importance que ceux-ci ont accordée à ces compétences avancées essentielles pour une intégration efficace et efficiente des TIC à leurs pratiques pédagogiques. L’étude des facteurs de résistance a permis d’ériger une typologie de ces facteurs. Ces facteurs vont des contraintes matérielles et infrastructurelles à celles liées aux compétences informatiques et à des contraintes liées à la motivation et à l’engagement personnel des professeurs, facteurs pouvant susciter des comportements de refus de la technologie. Ces facteurs sont entre autres, la compatibilité des TIC d’avec les tâches pédagogiques et de recherche des professeurs, l’utilité perçue des TIC pour les activités pédagogiques et de recherche, les facilités d’utilisation des TIC et la motivation ou l’engagement personnel des professeurs aux usages des TIC. Il y a aussi les coûts engendrés par l’accès aux TIC et le manque de soutien et d’assistance technique au plan institutionnel qui se sont révelés enfreindre le développement de ces usages parmi les professeurs. Les estimations des déterminants de l’acceptation et des usages éducatifs des TIC par les professeurs ont montré que c’est surtout « l’intention comportementale » d’aller aux TIC des professeurs, « l’expérience d’Internet » qui affectent positivement les usages éducatifs des TIC. Les « conditions de facilitation » qui représentent non seulement la qualité de l’infrastructure technologique, mais aussi l’existence d’un soutien institutionnel aux usages des TIC, ont affecté négativement ces usages. Des éléments de recommandation issus de ce travail s’orientent vers la formation des professeurs sur des compétences précises identifiées, l’amélioration de la qualité de l’infrastructure technologique existante, la création d’un logithèque, la mise en œuvre d’incitations institutionnelles adéquates telles que l’assistance technique régulière aux professeurs, l’allègement des volumes horaires statutaires des professeurs novateurs, la reconnaissance des efforts déjà réalisés par ces novateurs en matière d’usages éducatifs des TIC dans leur institution.
Resumo:
L’immunothérapie tumorale à médiation cellulaire est un traitement qui utilise le système immunitaire des patients afin d’induire une réponse des lymphocytes T CD8+ (T CD8+) contre la tumeur. Cette réponse est produite suite à la reconnaissance des antigènes par les T CD8+. Ces cibles sont appelées antigènes tumoraux (TAA) et définies comme des protéines exprimées par les cellules cancéreuses mais absentes des tissus normaux. Par une approche bio-informatique, notre laboratoire a identifié Dickkopf-1 (DKK1), une protéine inhibitrice de la voie de Wnt, comme un TAA potentiel. Une immunothérapie à médiation cellulaire efficace requiert l’identification de TAA candidats pertinents. Le traitement de patients par immunothérapie pourrait également être améliorées par l’augmentation de la puissance d’action anti-tumorale ainsi que la persistante des T CD8+ spécifiques aux TAA. Ce projet de doctorat se divise en deux parties : 1- La caractérisation de l’expression de DKK1 dans les cancers communs et la détermination de son immunogénicité afin de valider sa candidature comme TAA. 2- La reprogrammation des T CD8+, de patients atteints d’un cancer commun, vers un phénotype moins différentié afin d’augmenter leur potentiel anti-tumoral et leur persistance. Dans le premier objectif, nous avons caractérisé l’expression de DKK1 dans le cancer du sein et dans d’autres cancers communs. Le profil d’expression de DKK1 a été étudié par RT-PCR et par ELISA dans plusieurs lignées cellulaires de cancer et dans les tissus normaux. L’expression de DKK1 a aussi été étudiée dans des échantillons cliniques provenant de cancers du sein, du poumon et du rein. Trente pourcents (30%) des tumeurs provenant d’un cancer du sein exprimaient DKK1. La moitié des tumeurs DKK1(+) était triple négative, donc pas de récepteurs d’œstrogène et de progestérone et était Her-2/neu(-) (ces patientes ont des possibilités de traitements très restreintes). De plus, 50% des échantillons cliniques de tumeurs du poumon et 30% des tumeurs de rein exprimaient DKK1. Les observations effectuées dans le cancer du poumon ont été, par la suite, corroborées par d'autres groupes qui ont montré une corrélation entre l'expression de DKK1 et un mauvais pronostic. Après avoir confirmée l’expression de DKK1 dans les cancers communs, justifiant ainsi sa candidature comme TAA, nous avons évalué l’immunogénicité de DKK1. Pour ce faire, nous avons effectué des stimulations in vitro de cellules mononucléées du sang périphérique (PBMC) de patient(e)s atteint(e)s d’un cancer du sein ou du poumon avec des peptides dérivés de DKK1 pouvant être présentés par les complexes majeurs d’histocompatibilité (CMH) HLA-A*0201. Des clones de T CD8+ reconnaissant un peptide de DKK1 ont été identifiés et isolés. Par essai multiplex et cytométrie de flux intracellulaire, la polyfonctionnalité d’un ces clones T CD8+ spécifiques à DKK1 a été étudiée et a révélée un profil effecteur, renforçant ainsi la candidature de DKK1 comme TAA. Dans l’ensemble, les résultats obtenus dans cette première partie de thèse suggèrent une possible utilisation de DKK1 en immunothérapie contre les cancers communs, attribuable à son expression dans ces cancers et la possibilité de faire proliférer des T CD8+ effecteurs spécifiques à DKK1 à partir de sang de patients. Dans la seconde partie de cette thèse, je décrirai la manipulation in vitro des T CD8+ de patients atteints d’un cancer commun, afin d’augmenter la force et la durée de leurs fonctions anti-tumorales. Il a été démontré que des lymphocytes moins différentiés sont capables d’une réponse immunologique plus efficace et durable. Nous avons basé ce projet sur l’utilisation d’un inhibiteur pharmacologique de la GSK-3, pour activer de la voie de Wnt chez les T CD8+ et ainsi leur conférer un phénotype moins différentié, partageant des caractéristiques de la cellule naïve et de la cellule mémoire. Des cultures de T CD8+, spécifiques à des antigènes viraux, en présence de l’inhibiteur ont permis d’augmenter la sécrétion d’interféron (IFN)- et leur activité cytotoxique. Ces résultats indiquent un effet de l’activation de la voie de Wnt sur la fonction des T CD8+. Ces observations sont rapportées pour la première fois chez les T CD8+ humains et suggèrent une nouvelle stratégie, applicables à l’immunothérapie du cancer, afin de prolonger la persistance des cellules ainsi que leur activité anti-tumorale. En conclusion, ces travaux de recherche ont mené à la réalisation d’une étape très importante dans la validation de la candidature de DKK1 comme TAA pour les cancers communs, soit la démonstration de son expression dans ces cancers et son absence dans les tissus normaux dérivés d’organes importants. Ces travaux ont également mené à la démonstration de l’immunogénicité de DKK1, par l’identification d’un peptide de DKK1 reconnu par les T CD8+. De plus, l’étude de la polyfonctionnalité des T CD8+ spécifiques à DKK1 a révélée un profil effecteur favorable pour l’obtention d’une réponse anti-tumorale efficace. Ces découvertes pourraient servir à l’élaboration d’une stratégie d’immunothérapie à médiation cellulaire pour les cancers communs. Pour sa part, l’étude phénotypique et fonctionnelle de la modulation de la voie de Wnt dans les T CD8+ a donné lieu à l’observation d’un phénotype encore jamais rapporté chez l’humain, conférant aux T CD8+ un aspect moins différentié avec des caractéristiques propre à un phénotype mémoire. Ces résultats sont pertinents dans l’amélioration de l’immunothérapie du cancer, passant par l’augmentation de la persistance des lymphocytes. En résumé, les résultats présentés dans cette thèse de doctorat fournissent des évidences indéniables quant à la validation de DKK1 comme TAA pour une immunothérapie à médiation cellulaire des cancers communs. Ces résultats fournissent également des preuves quant à la pertinence de la reprogrammation des T CD8+ par l’activation de la voie de la voie de Wnt, afin de générer des lymphocytes médiateurs plus efficaces pour ce type de thérapie.
Resumo:
Des recherches, autant chez l’homme que chez l’animal, proposent qu’il existerait, au sein des réseaux cérébraux, une organisation anatomique parallèle de circuits qui coordonne l’activité des structures qui participent à la planification et à l’exécution d’une action. Dans cette foulée, un modèle émerge qui attribue au cortex préfrontal (CPF) latéral une spécificité anatomo-fonctionnelle basée sur les niveaux de traitement en mémoire de travail (MT). Il s’agit du modèle « niveaux de traitement-dépendant », qui accorde un rôle important au CPF latéral dans l’acquisition et la représentation de règles guidant nos comportements. Des études en neuroimagerie fonctionnelle, utilisant le Wisconsin Card Sorting Task (WCST) ont permis de corroborer ce modèle et de dissocier trois niveaux de traitement en MT non seulement au sein du CPF latéral mais encore aux structures sous- corticales, les ganglions de la base (GB). Ces études suggèrent que certains noyaux des GB seraient topographiquement organisés avec le CPF latéral et contriburaient, sous certaines conditions, à des processus cognitifs et moteurs semblables à leur homologue cortical. Le but de notre étude est d'explorer la généralisation de la contribution des GB et du CPF au modèle niveaux de traitement-dépendant afin de voir si ce dernier est indépendant de la nature des stimuli en mémoire de travail. À cet effet, nous avons modifié le WCST en l’appliquant à un autre domaine, celui du langage. Nous avons remplacé les pictogrammes par des mots et modifié les règles formes, couleurs, nombres, par des règles sémantiques et phonologiques. L’analyse des résultats a démontré que différentes parties des GB de concert avec différentes régions du CPF se différencient quant aux niveaux de traitement en MT et ce, indépendamment de la nature des stimuli. Une deuxième analyse a permis d’évaluer les patrons d’activations liés aux conditions sémantiques et phonologiques. Ces résultats ont mis en évidence que les réseaux préfrontaux semblent liés aux processus exécutifs nécessaires à la réalisation de la tâche, indépendamment de la condition tandis que les aires associatives se dissocient davantage et contiennent des réseaux propres à la sémantique et à la phonologie.
Resumo:
Les seize détecteurs MPX constituant le réseau ATLAS-MPX ont été placés à différentes positions dans le détecteur ATLAS et sa averne au CERN dans le but de mesurer en emps réel les champs de radiation produits ar des particules primaires (protons des faisceaux) et des particules secondaires (kaons, pions, g, protons) issues des collisions proton-proton. Des films de polyéthylène (PE) et de fluorure de lithium (6LiF) recouvrent les détecteurs afin d’augmenter leur sensibilité aux neutrons produits par les particules primaires et secondaires interagissant avec les matériaux présents dans l’environnement d’ATLAS. La reconnaissance des traces laissées par les particules dans un détecteur ATLAS-MPX se fait à partir des algorithmes du logiciel MAFalda (“Medipix Analysis Framework”) basé sur les librairies et le logiciel d’analyse de données ROOT. Une étude sur le taux d’identifications erronées et le chevauchement d’amas a été faite en reconstruisant les activités des sources 106Ru et 137Cs. L’efficacité de détection des neutrons rapides a été mesurée à l’aide des sources 252Cf et 241AmBe (neutrons d’énergie moyenne de 2.13 et 4.08 MeV respectivement). La moyenne des efficacités de détection mesurées pour les neutrons produits par les sources 252C f et 241AmBe a été calculée pour les convertisseurs 6LiF et PE et donnent (0.8580 ± 0.1490)% et (0.0254 ± 0.0031)% pour LiF et (0.0510 ± 0.0061)% et (0.0591 ± 0.0063)% pour PE à bas et à haut seuil d’énergie respectivement. Une simulation du calcul de l’efficacité de détection des neutrons dans le détecteur MPX a été réalisée avec le logiciel GEANT4. Des données MPX correspondant aux collisions proton-proton à 2.4 TeV et à 7 TeV dans le centre de masse ont été analysées. Les flux détectés d’électrons et de photons sont particulièrement élevés dans les détecteurs MPX01 et MPX14 car ils sont plus près du point de collision. Des flux de neutrons ont été estimés en utilisant les efficacités de détection mesurées. Une corrélation avec la luminosité du LHC a été établie et on prédit que pour les collisions à 14 TeV dans le centre de masse et avec une luminosité de 10^34 cm-1*s-1 il y aura environ 5.1x10^8 ± 1.5x10^7 et 1.6x10^9 ± 6.3x10^7 particules détectées par les détecteurs MPX01 et MPX14 respectivement.
Resumo:
Plusieurs monographies récentes se sont intéressées à la traduction des littératures africaines europhones (Gyasi 2006, Bandia 2008, Batchelor 2009), faisant valoir le concept d’autotraduction (au sens métaphorique) et insistant sur le fait que ces écritures sont porteuses d’une oralité ou de marques linguistiques issues des langues parlées par les écrivains. Toutefois, la question de l’hybridité comme point de jonction entre littératures orales et écrites a encore rarement été examinée sous un angle poétique et c’est précisément dans cet esprit que cette recherche a été entreprise. Dans un premier temps, à partir des ouvrages originaux de six auteurs, trois d’expression littéraire anglaise (Farah, Hove et Armah) et trois d’expression littéraire française (Waberi, Adiaffi et Djebar), je montre en quoi ces écritures méritent d’être qualifiées de poétiques avant de mettre cette esthétique en relation avec le patrimoine littéraire de chacun des auteurs du corpus; ponctuellement, d’autres affiliations littéraires sont mises en évidence. Cette poétique est examinée dans sa dimension mélopoéique (Pound 1954), c’est-à-dire sous l’angle des structures audibles, appelées aussi figures de style jouant sur la forme phonétique des mots (Klein-Lataud 2001). Dans un second temps, j’examine comment cette poétique sonore a été recréée, tant de manière qualitative que quantitative, dans les traductions de Bardolph, de Richard et de J. et R. Mane (pour les auteurs d’expression anglaise) et de Garane, de Katiyo et de Blair (pour les auteurs d’expression française). Les enjeux associés à la réactivation des structures poétiques sonores sont mis en évidence dans le dernier chapitre qui propose un tour d’horizon des modalités de « consommation » de l’objet littéraire et qui s’achève sur les questions soulevées par la progression du livre audio. La méthodologie élaborée dans ce cadre s’inspire essentiellement de Berman (1995) et de Henry (2003). La conceptualisation de la poétique sonore, telle que mise en œuvre dans le contexte particulier de ces littératures, fait appel aux paradigmes de valence traductive (Folkart 2007) et de traduction métonymique (Tymoczko 1999). Par ailleurs, cette recherche s’appuie sur la récente thèse de doctorat de Fraser (2007) consacrée à la théorisation du sonore en traduction.
Resumo:
La recherche dans le domaine de la mémoire sémantique a permis de documenter l’effet de concrétude (avantage pour les mots concrets relativement aux mots abstraits), et plus récemment, l’effet de concrétude inverse (avantage pour les mots abstraits relativement aux mots concrets). Ces effets, observés chez le sujet sain et dans différentes populations cliniques en neurologie, ont suscité de nombreuses interprétations théoriques, autant sur le plan cognitif que neuroanatomique. En effet, cette double dissociation entre les deux types de concepts suggère que leur traitement doit reposer au moins en partie sur des processus mentaux et neuroanatomiques distincts. Néanmoins, les origines de ces différences restent largement débattues et sont caractérisées par une absence notable de consensus. L’objectif principal de la présente thèse est d’explorer les substrats cérébraux sous-tendant la compréhension des concepts concrets et abstraits. Dans un premier temps, un article de revue de la littérature dresse un état des lieux des connaissances actuelles portant sur le traitement sémantique des mots concrets et abstraits ainsi que sur leurs fondements cérébraux. Cet article met une emphase particulière sur les différences inter-hémisphériques dans le traitement des mots concrets et abstraits (Article 1). Dans un deuxième temps, une étude expérimentale de la compréhension des mots concrets et abstraits a été réalisée auprès de populations cliniques rares, des patients ayant subi soit i) une résection unilatérale de la partie antérieure du lobe temporal (temporo-polaire), soit ii) une résection unilatérale de la région hippocampique (temporale interne) (Article 2). Le premier article fait ressortir la grande hétérogénéité des résultats dans le domaine, et suggère que les différences observées dans le traitement des mots concrets et abstraits peuvent difficilement être interprétées seulement en termes de différences inter-hémisphériques. Les résultats du second article indiquent qu’une lésion de la région temporale antérieure gauche ou droite entraîne une atteinte plus marquée des concepts concrets comparativement aux abstraits, alors qu’une lésion unilatérale des régions temporales internes affecte de manière équivalente le traitement sémantique des deux types de concepts. Les implications théoriques et cliniques de ces résultats sont discutées, ainsi que les limites et perspectives futures.
Resumo:
Les logiciels de correction grammaticale commettent parfois des détections illégitimes (fausses alertes), que nous appelons ici surdétections. La présente étude décrit les expériences de mise au point d’un système créé pour identifier et mettre en sourdine les surdétections produites par le correcteur du français conçu par la société Druide informatique. Plusieurs classificateurs ont été entraînés de manière supervisée sur 14 types de détections faites par le correcteur, en employant des traits couvrant di-verses informations linguistiques (dépendances et catégories syntaxiques, exploration du contexte des mots, etc.) extraites de phrases avec et sans surdétections. Huit des 14 classificateurs développés sont maintenant intégrés à la nouvelle version d’un correcteur commercial très populaire. Nos expériences ont aussi montré que les modèles de langue probabilistes, les SVM et la désambiguïsation sémantique améliorent la qualité de ces classificateurs. Ce travail est un exemple réussi de déploiement d’une approche d’apprentissage machine au service d’une application langagière grand public robuste.
Resumo:
Pour la plupart des gens, la lecture est une activité automatique, inhérente à leur vie quotidienne et ne demandant que peu d’effort. Chez les individus souffrant d’épilepsie réflexe à la lecture, le simple fait de lire déclenche des crises épileptiques et les personnes doivent alors renoncer à la lecture. Les facteurs responsables du déclenchement de l’activité épileptique dans l’épilepsie réflexe à la lecture demeurent encore mal définis. Certains auteurs suggèrent que le nombre ainsi que la localisation des pointes épileptiques seraient en lien avec la voie de lecture impliquée. Des études en imagerie cérébrale, menées auprès de populations sans trouble neurologique, ont dévoilé que la lecture active un réseau étendu incluant les cortex frontaux, temporo-pariétaux et occipito-temporaux bilatéralement avec des différences dans les patrons d’activation pour les voies de lecture lexicale et phonologique. La majorité des études ont eu recours à des tâches de lecture silencieuse qui ne permettent pas d'évaluer la performance des participants. Dans la première étude de cette thèse, qui porte sur une étude de cas d'un patient avec épilepsie réflexe à la lecture, nous avons déterminé les tâches langagières et les caractéristiques des stimuli qui influencent l'activité épileptique. Les résultats ont confirmé que la lecture était la principale tâche responsable du déclenchement de l’activité épileptique chez ce patient. En particulier, la fréquence des pointes épileptiques était significativement plus élevée lorsque le patient avait recours au processus de conversion grapho-phonémique. Les enregistrements électroencéphalographiques (EEG) ont révélé que les pointes épileptiques étaient localisées dans le gyrus précentral gauche, indépendamment de la voie de lecture. La seconde étude avait comme objectif de valider un protocole de lecture à voix haute ayant recours à la spectroscopie près du spectre de l’infrarouge (SPIR) pour investiguer les circuits neuronaux qui sous-tendent la lecture chez les normo-lecteurs. Douze participants neurologiquement sains ont lu à voix haute des mots irréguliers et des non-mots lors d’enregistrements en SPIR. Les résultats ont montré que la lecture des deux types de stimuli impliquait des régions cérébrales bilatérales communes incluant le gyrus frontal inférieur, le gyrus prémoteur et moteur, le cortex somatosensoriel associatif, le gyrus temporal moyen et supérieur, le gyrus supramarginal, le gyrus angulaire et le cortex visuel. Les concentrations totales d’hémoglobine (HbT) dans les gyri frontaux inférieurs bilatéraux étaient plus élevées dans la lecture des non-mots que dans celle des mots irréguliers. Ce résultat suggère que le gyrus frontal inférieur joue un rôle dans la conversion grapho-phonémique, qui caractérise la voie de lecture phonologique. Cette étude a confirmé le potentiel de la SPIR pour l’investigation des corrélats neuronaux des deux voies de lecture. Une des retombées importantes de cette thèse consiste en l’utilisation du protocole de lecture en SPIR pour investiguer les troubles de la lecture. Ces investigations pourraient aider à mieux établir les liens entre le fonctionnement cérébral et la lecture dans les dyslexies développementales et acquises.
Resumo:
Rapport d'analyse d'intervention présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en psychoéducation.
Resumo:
L’importance accordée à la reconnaissance des droits fondamentaux des personnes en matière d’intégrité physique et de consentement aux soins dans notre société fait que le travailleur social appelé à participer à l’ouverture de régimes de protection du majeur doit développer une expertise multidimensionnelle. De plus, le travailleur social se retrouve à confronté à différentes logiques d’action (juridique et procédurale, médicale, psychosociale, pragmatique) dont il doit tenir compte dans le processus d’évaluation. Ceci nous amène à aborder la position difficile dans laquelle se trouve généralement le travailleur social qui oscille entre la possibilité de favoriser l’autonomie de la personne et la volonté de protéger celle-ci. L’objectif de ce mémoire est donc d’accroître notre compréhension du processus de prise de décision du travailleur social dans la détermination de l’inaptitude d’une personne âgée, dans le cadre des régimes de protection du majeur. D’une manière plus spécifique, cette étude consiste à retracer et à théoriser, par l’analyse de sa logique d’action, le processus à travers lequel le travailleur social se positionne lorsqu’il se retrouve confronté à des dilemmes éthiques par rapport à la détermination de l’inaptitude d’une personne âgée. L’analyse de l’expérience du travailleur social a été réalisée à travers le paradigme de l’individualisme méthodologique tel que définit par Raymond Boudon. Les données furent recueillies lors d’entrevues semi-dirigées réalisées auprès de sept intervenants. Les témoignages recueillis par le biais de cette recherche exploratoire montrent à quel point il peut être difficile et éprouvant pour le travailleur social de devoir se positionner dans la détermination de l’inaptitude d’une personne âgée, dans le cadre des régimes de protection du majeur et comment ces interventions s’inscrivent dans un jeu infiniment complexe d’interactions multiples entre acteurs et actants. Les principaux obstacles à la prise de décision éthique dont ont fait part les travailleurs sociaux interrogés sont liés au contexte de pratique. Il s’agit du manque de ressources financières et humaines disponibles ainsi que le fait que les décisions ne soient pas toujours prises en équipe interdisciplinaire et dans un climat qui soit non menaçant. La reconnaissance de l’expertise des travailleurs sociaux en matière d’ouverture de régimes protection est d’ailleurs ressortie comme un enjeu important.
Resumo:
S’il est un sujet qui a fait l’objet d’un certain nombre de réflexions approfondies de la part des juges de la Cour suprême du Canada depuis l’entrée en vigueur de La Charte des droits et libertés (la Charte), c’est bien celui qui est en lien avec la notion de liberté d’association. En fait, l’alinéa 2d) de la Charte a donné lieu à plusieurs décisions importantes dans lesquelles la portée de la notion de la liberté d’association (en matière de liberté syndicale(1)) a été circonscrite avec beaucoup d’attention. Dans le cadre de notre texte, nous entendons scruter d’un peu plus près la jurisprudence canadienne en matière de liberté syndicale. Comment les juges de la Cour suprême du Canada envisagent-ils la reconnaissance des droits associés à la liberté syndicale ? Jusqu’à quel point les juges du plus haut tribunal du pays sont-ils prêts à reconnaître qu’un authentique régime de liberté syndicale comporte la reconnaissance effective de la liberté d’association, le droit de négociation et le droit de faire la grève ? Les décisions des dernières années nous indiquent-elles une volonté d’harmonisation de la jurisprudence canadienne avec la jurisprudence internationale à ce sujet ? Notre étude soulève aussi la question de la stratégie syndicale qui consiste à faire appel au pouvoir judiciaire pour résoudre un enjeu social important (le droit de négociation et le droit de grève). La voie de la contestation judiciaire est-elle plus porteuse de changements durables que celle de la voie de l’affrontement direct et du conflit ouvert ? L’étude de cette question nous permettra de voir jusqu’à quel point nous assistons, depuis l’entrée en vigueur de la Charte, à une recomposition du lien politique entre le mouvement syndical et certaines composantes du pouvoir étatique.
Resumo:
Il est bien connu que les immigrants rencontrent plusieurs difficultés d’intégration dans le marché du travail canadien. Notamment, ils gagnent des salaires inférieurs aux natifs et ils sont plus susceptibles que ces derniers d’occuper des emplois précaires ou pour lesquels ils sont surqualifiés. Dans cette recherche, nous avons traité de ces trois problèmes sous l’angle de la qualité d’emploi. À partir des données des recensements de la population de 1991 à 2006, nous avons comparé l’évolution de la qualité d’emploi des immigrants et des natifs au Canada, mais aussi au Québec, en Ontario et en Colombie-Britannique. Ces comparaisons ont mis en évidence la hausse du retard de qualité d’emploi des immigrants par rapport aux natifs dans tous les lieux analysés, mais plus particulièrement au Québec. Le désavantage des immigrants persiste même lorsqu’on tient compte du capital humain, des caractéristiques démographiques et du taux de chômage à l’entrée dans le marché du travail. La scolarité, l’expérience professionnelle globale et les connaissances linguistiques améliorent la qualité d’emploi des immigrants et des natifs. Toutefois, lorsqu’on fait la distinction entre l’expérience de travail canadienne et l’expérience de travail étrangère, on s’aperçoit que ce dernier type d’expérience réduit la qualité d’emploi des immigrants. Dans ces circonstances, nous trouvons incohérent que le Canada et le Québec continuent à insister sur ce critère dans leur grille de sélection des travailleurs qualifiés. Pour valoriser les candidats les plus jeunes ayant peu d’expérience de travail dans leur pays d’origine, nous suggérons d’accroître l’importance accordée à l’âge dans ces grilles au détriment de l’expérience. Les jeunes, les étudiants étrangers et les travailleurs temporaires qui possèdent déjà une expérience de travail au Canada nous apparaissent comme des candidats à l’immigration par excellence. Par contre, les résultats obtenus à l’aide de la méthode de décomposition de Blinder-Oaxaca ont montré que l’écart de qualité d’emploi entre les immigrants et les natifs découle d’un traitement défavorable envers les immigrants dans le marché du travail. Cela signifie que les immigrants sont pénalisés au chapitre de la qualité d’emploi à la base, et ce, peu importe leurs caractéristiques. Dans ce contexte, la portée de tout ajustement aux grilles de sélection risque d’être limitée. Nous proposons donc d’agir également en aval du problème à l’aide des politiques d’aide à l’intégration des immigrants. Pour ce faire, une meilleure concertation entre les acteurs du marché du travail est nécessaire. Les ordres professionnels, le gouvernement, les employeurs et les immigrants eux-mêmes doivent s’engager afin d’établir des parcours accélérés pour la reconnaissance des compétences des nouveaux arrivants. Nos résultats indiquent aussi que le traitement défavorable à l’égard des immigrants dans le marché du travail est plus prononcé au Québec qu’en Ontario et en Colombie-Britannique. Il se peut que la société québécoise soit plus réfractaire à l’immigration vu son caractère francophone et minoritaire dans le reste de l’Amérique du Nord. Pourtant, le désir de protéger la langue française motive le Québec à s’impliquer activement en matière d’immigration depuis longtemps et la grille de sélection québécoise insiste déjà sur ce critère. D’ailleurs, près des deux tiers des nouveaux arrivants au Québec connaissent le français en 2011.