981 resultados para Transfert (Apprentissage d’une langue)
Resumo:
Article
Resumo:
Les processus de la mise en scène reposent nécessairement sur une réalité humaine complexe, faite de dialogues et de rapports de force en constante redéfinition. Afin de les théoriser, plusieurs travaux ont institué en corpus les documents produits en cours de réunion ou de répétition, pour leur appliquer les méthodes issues de la génétique des textes. Or le transfert s’avère problématique : vestiges lacunaires, ces supports ne sauraient témoigner à eux seuls de la vie organique et polyphonique de la mise en scène en gestation. Une première solution consiste à opter pour une approche radicalement intermédiale des archives d’un spectacle : dans la mesure où la mise en scène fait interagir plusieurs disciplines artistiques, pourquoi ne pas la penser en confrontant activement les différents media générés lors de son élaboration ? Complémentaire de la première, une seconde proposition suppose que le chercheur s’implique dans une observation in vivo de réunions et de répétitions afin de disposer d’une matière plus complète. À cette clarification épistémologique succède un essai de théorisation des processus de la création scénique. Il apparaît tout d’abord que l’espace de travail est aussi bien un contenant physique de la recherche des artistes qu’un catalyseur : c’est en se l’appropriant à plusieurs qu’un groupe de collaborateurs donne corps à la mise en scène. L’espace de création révèle par là même une dimension polyphonique que l’on retrouve sur le plan du temps : dans la mesure où il engage un ensemble d’artistes, un processus ne possède pas de linéarité chronologique homogène ; il se compose d’une multitude de temporalités propres à chacun des répétants, qu’il s’agit de faire converger pour élaborer un spectacle commun à tous. Les processus de la mise en scène se caractérisent ainsi par leur dimension fondamentalement sociale. Réunie dans un espace-temps donné, la petite société formée autour du metteur obéit à un mode de création dialogique, où les propositions des uns et des autres s’agrègent pour former un discours foisonnant dont la force et l’unité sont garanties par une instance surplombante.
Resumo:
En plus de la triade de symptômes caractérisant l’autisme, ce trouble neurodévelopmental est associé à des particularités perceptives et motrices et, au niveau cérébral, par une connectivité atypique entre les différentes régions du cerveau. Au niveau anatomique, un des résultats les plus communs est la réduction du corps calleux. Toutefois, des effets directs de cette altération anatomique sur l’intégrité et l’efficacité du transfert interhémisphérique restent à être démontrés. Pour la présente thèse, trois différentes études investiguent différents aspects du traitement de l’information visuomotrice : le transfert interhémisphérique entre les régions bilatérales motrices et visuelles, la vitesse de traitement perceptif, et les habiletés motrices visuellement guidées. Dans la première étude, le paradigme visuomoteur de Poffenberger a été utilisé pour mesurer le temps de transfert interhémisphérique (TTIH). L’imagerie par résonnance magnétique fonctionnelle (IRMf) et structurale ainsi que l’imagerie de diffusion ont aussi été utilisées pour étudier les réseaux cérébraux impliqués dans la tâche de Poffenberger. Les autistes ont été comparés à un groupe d’individus à développement typique. La deuxième étude avait pour but d’investiguer la vitesse de traitement perceptif en autisme. Dans la troisième étude, deux tâches motrices (Purdue et Annett) ont été utilisées pour examiner la nature et l’importance des déficits moteurs. La tâche de Purdue inclut deux conditions bimanuelles utilisées comme indice additionnel d’intégration interhémisphérique. Dans les études 2 et 3, le groupe d’autistes a aussi été comparé à un groupe d’individus Asperger afin de voir si, et comment, les deux sous-groupes peuvent être distingués en ce qui concerne le traitement visuel et les déficits moteurs. Aucune différence entre les groupes n’a été observée en termes de TTIH. Les résultats de l’étude IRMf révèlent des différences d’activations corticales en lien avec la tâche de Poffenberger. Dans les groupes d’autistes et de typiques, l’efficacité de la communication interhémisphérique était associée à différentes portions du corps calleux (frontales/motrices chez les typiques, postérieures/visuelles chez les autistes). De façon globale, les résultats de cette étude démontrent un patron atypique de transfert interhémisphérique de l’information visuomotrice en autisme, reflétant un rôle plus important des mécanismes visuels dans le comportement sensorimoteur possiblement en lien avec une réorganisation cérébrale. Les résultats des études comportementales 2 et 3 indiquent que les autistes excellent dans la tâche mesurant la vitesse de traitement perceptif alors que les Asperger accomplissent la tâche à des niveaux similaires à ceux des typiques. La nature des déficits moteurs diffère aussi entre les deux sous-groupes; la dextérité et la coordination bimanuelle est affectée chez les individus Asperger mais pas chez les autistes, qui eux sont plus atteints au niveau de la rapidité unimanuelle. Les sous-groupes d’autistes et de syndrome d’Asperger sont caractérisés par des profils cognitifs différents dont les particularités perceptives et motrices font partie intégrante.
Resumo:
L’objectif de cette thèse par articles est de présenter modestement quelques étapes du parcours qui mènera (on espère) à une solution générale du problème de l’intelligence artificielle. Cette thèse contient quatre articles qui présentent chacun une différente nouvelle méthode d’inférence perceptive en utilisant l’apprentissage machine et, plus particulièrement, les réseaux neuronaux profonds. Chacun de ces documents met en évidence l’utilité de sa méthode proposée dans le cadre d’une tâche de vision par ordinateur. Ces méthodes sont applicables dans un contexte plus général, et dans certains cas elles on tété appliquées ailleurs, mais ceci ne sera pas abordé dans le contexte de cette de thèse. Dans le premier article, nous présentons deux nouveaux algorithmes d’inférence variationelle pour le modèle génératif d’images appelé codage parcimonieux “spike- and-slab” (CPSS). Ces méthodes d’inférence plus rapides nous permettent d’utiliser des modèles CPSS de tailles beaucoup plus grandes qu’auparavant. Nous démontrons qu’elles sont meilleures pour extraire des détecteur de caractéristiques quand très peu d’exemples étiquetés sont disponibles pour l’entraînement. Partant d’un modèle CPSS, nous construisons ensuite une architecture profonde, la machine de Boltzmann profonde partiellement dirigée (MBP-PD). Ce modèle a été conçu de manière à simplifier d’entraînement des machines de Boltzmann profondes qui nécessitent normalement une phase de pré-entraînement glouton pour chaque couche. Ce problème est réglé dans une certaine mesure, mais le coût d’inférence dans le nouveau modèle est relativement trop élevé pour permettre de l’utiliser de manière pratique. Dans le deuxième article, nous revenons au problème d’entraînement joint de machines de Boltzmann profondes. Cette fois, au lieu de changer de famille de modèles, nous introduisons un nouveau critère d’entraînement qui donne naissance aux machines de Boltzmann profondes à multiples prédictions (MBP-MP). Les MBP-MP sont entraînables en une seule étape et ont un meilleur taux de succès en classification que les MBP classiques. Elles s’entraînent aussi avec des méthodes variationelles standard au lieu de nécessiter un classificateur discriminant pour obtenir un bon taux de succès en classification. Par contre, un des inconvénients de tels modèles est leur incapacité de générer deséchantillons, mais ceci n’est pas trop grave puisque la performance de classification des machines de Boltzmann profondes n’est plus une priorité étant donné les dernières avancées en apprentissage supervisé. Malgré cela, les MBP-MP demeurent intéressantes parce qu’elles sont capable d’accomplir certaines tâches que des modèles purement supervisés ne peuvent pas faire, telles que celle de classifier des données incomplètes ou encore celle de combler intelligemment l’information manquante dans ces données incomplètes. Le travail présenté dans cette thèse s’est déroulé au milieu d’une période de transformations importantes du domaine de l’apprentissage à réseaux neuronaux profonds qui a été déclenchée par la découverte de l’algorithme de “dropout” par Geoffrey Hinton. Dropout rend possible un entraînement purement supervisé d’architectures de propagation unidirectionnel sans être exposé au danger de sur- entraînement. Le troisième article présenté dans cette thèse introduit une nouvelle fonction d’activation spécialement con ̧cue pour aller avec l’algorithme de Dropout. Cette fonction d’activation, appelée maxout, permet l’utilisation de aggrégation multi-canal dans un contexte d’apprentissage purement supervisé. Nous démontrons comment plusieurs tâches de reconnaissance d’objets sont mieux accomplies par l’utilisation de maxout. Pour terminer, sont présentons un vrai cas d’utilisation dans l’industrie pour la transcription d’adresses de maisons à plusieurs chiffres. En combinant maxout avec une nouvelle sorte de couche de sortie pour des réseaux neuronaux de convolution, nous démontrons qu’il est possible d’atteindre un taux de succès comparable à celui des humains sur un ensemble de données coriace constitué de photos prises par les voitures de Google. Ce système a été déployé avec succès chez Google pour lire environ cent million d’adresses de maisons.
Resumo:
Le 27 mai 1406, le théologien parisien Pierre Plaoul comparaît devant la cour du Parlement de Paris en tant que représentant de l’Université de Paris dans une affaire qui l’oppose à l’Université de Toulouse. Il y prononce un sermon en latin, ce que la cour lui reproche instantanément, lui demandant de parler en français pour la prochaine séance. Le 7 juin, lors de sa deuxième comparution, il parle cette fois en langue vernaculaire et prononce un discours extrêmement différent du premier, autant dans son genre que dans son registre de citations. Les deux discours sont conservés dans le registre X1a4787 des Archives nationales de France. L’édition des discours permet de comprendre le raisonnement derrière leurs différences, mais il permet surtout de constater que le discours français fait état d’une érudition encore plus grande que son homologue latin et que son orateur n’était nullement gêné par l’usage de la langue vernaculaire. Remis dans le contexte historiographique actuel, il en ressort que l’utilisation du français par Plaoul concorde parfaitement avec l’abandon du modèle de rapport diglossique entre latin et français pour la fin du Moyen Âge, lui préférant plutôt un rapport de langues en contacts. Ce postulat est soutenu par les nombreuses occurrences d’universitaires médiévaux démontrant une excellente maîtrise d’un registre savant de la langue vulgaire, des poètes, aux prédicateurs en passant par les practiciens du droit. Un examen plus attentif de l’utilisation de la langue française par les docteurs en théologie du règne de Charles VI vient aussi appuyer l’hypothèse selon laquelle les universitaires du bas Moyen Âge considéraient la langue vernaculaire comme un instrument approprié à la transmission de la culture savante.
Resumo:
L'objectif de cette thèse est de présenter différentes applications du programme de recherche de calcul conditionnel distribué. On espère que ces applications, ainsi que la théorie présentée ici, mènera à une solution générale du problème d'intelligence artificielle, en particulier en ce qui a trait à la nécessité d'efficience. La vision du calcul conditionnel distribué consiste à accélérer l'évaluation et l'entraînement de modèles profonds, ce qui est très différent de l'objectif usuel d'améliorer sa capacité de généralisation et d'optimisation. Le travail présenté ici a des liens étroits avec les modèles de type mélange d'experts. Dans le chapitre 2, nous présentons un nouvel algorithme d'apprentissage profond qui utilise une forme simple d'apprentissage par renforcement sur un modèle d'arbre de décisions à base de réseau de neurones. Nous démontrons la nécessité d'une contrainte d'équilibre pour maintenir la distribution d'exemples aux experts uniforme et empêcher les monopoles. Pour rendre le calcul efficient, l'entrainement et l'évaluation sont contraints à être éparse en utilisant un routeur échantillonnant des experts d'une distribution multinomiale étant donné un exemple. Dans le chapitre 3, nous présentons un nouveau modèle profond constitué d'une représentation éparse divisée en segments d'experts. Un modèle de langue à base de réseau de neurones est construit à partir des transformations éparses entre ces segments. L'opération éparse par bloc est implémentée pour utilisation sur des cartes graphiques. Sa vitesse est comparée à deux opérations denses du même calibre pour démontrer le gain réel de calcul qui peut être obtenu. Un modèle profond utilisant des opérations éparses contrôlées par un routeur distinct des experts est entraîné sur un ensemble de données d'un milliard de mots. Un nouvel algorithme de partitionnement de données est appliqué sur un ensemble de mots pour hiérarchiser la couche de sortie d'un modèle de langage, la rendant ainsi beaucoup plus efficiente. Le travail présenté dans cette thèse est au centre de la vision de calcul conditionnel distribué émis par Yoshua Bengio. Elle tente d'appliquer la recherche dans le domaine des mélanges d'experts aux modèles profonds pour améliorer leur vitesse ainsi que leur capacité d'optimisation. Nous croyons que la théorie et les expériences de cette thèse sont une étape importante sur la voie du calcul conditionnel distribué car elle cadre bien le problème, surtout en ce qui concerne la compétitivité des systèmes d'experts.
Resumo:
La popularité des technologies de l’information et des communications entraîne l’augmentation de la preuve retrouvée sous forme numérique lors d’enquêtes policières. Les organisations policières doivent innover afin d’analyser, gérer et tirer profit de cette preuve numérique. En réponse, elles ont constitué des unités spécialisées en criminalité technologique et en analyse judiciaire informatique. La présente étude utilise les théories de l’innovation afin de déterminer comment l’évolution des technologies et des tendances en matière de criminalité technologique influencent les enquêtes et les organisations policières. Cette recherche vise à augmenter les connaissances sur ces unités spécialisées en quantifiant et en qualifiant leur travail quotidien. Avec la collaboration d’une unité policière canadienne spécialisée en analyse judiciaire informatique, une analyse détaillée des demandes d’expertise adressées à leur service a été effectuée. Les résultats indiquent une augmentation de la preuve numérique avec la prévalence de certaines formes de criminalité et de certains appareils électroniques. Les facteurs influençant le délai de traitement sont soulignés ainsi que les stratégies mises de l’avant afin de gérer efficacement l’accroissement des demandes de service. Finalement, des entrevues ont été menées avec certains membres de l’équipe afin de mettre en lumière les défis et les enjeux relatifs à l’implantation et au fonctionnement d’une telle unité. Les principaux enjeux soulevés concernent les environnements technologiques et juridiques, la formation du personnel, la gestion des ressources et les priorités organisationnelles.
Resumo:
Travail dirigé présenté à la Faculté des sciences infirmières en vue de l’obtention du grade de Maître ès sciences (M.Sc.) en sciences infirmières option formation des sciences infirmières
Resumo:
Les cas d’entreprises touchées par des scandales financiers, environnementaux ou concernant des conditions de travail abusives imposées à leur main-d’œuvre, n’ont cessé de jalonner l’actualité ces vingt dernières années. La multiplication des comportements à l’origine de ces scandales s’explique par l’environnement moins contraignant, que leur ont offert les politiques de privatisation, dérégulation et libéralisation, amorcées à partir des années 1980. Le développement de la notion de responsabilité sociale des entreprises à partir des années 1980, en réaction à ces excès, incarne l'idée que si une entreprise doit certes faire des profits et les pérenniser elle se doit de les réaliser en favorisant les comportements responsables, éthiques et transparents avec toutes ses parties prenantes. Nous analysons dans cette thèse le processus par lequel, face à des dysfonctionnements et abus, touchant les conditions de travail de leur main d’œuvre ou leur gouvernance, des entreprises peuvent être amenées, ou non, à questionner et modifier leurs pratiques. Nous avons axé notre étude de cas sur deux entreprises aux trajectoires diamétralement opposées. La première entreprise, issue du secteur de la fabrication de vêtements et dont la crise concernait des atteintes aux droits des travailleurs, a surmonté la crise en réformant son modèle de production. La seconde entreprise, située dans le secteur des technologies de l'information et de la communication, a fait face à une crise liée à sa gouvernance d’entreprise, multiplié les dysfonctionnements pendant dix années de crises et finalement déclaré faillite en janvier 2009. Les évolutions théoriques du courant néo-institutionnel ces dernières années, permettent d’éclairer le processus par lequel de nouvelles normes émergent et se diffusent, en soulignant le rôle de différents acteurs, qui pour les uns, définissent de nouvelles normes et pour d’autres se mobilisent en vue de les diffuser. Afin d’augmenter leur efficacité à l’échelle mondiale, il apparaît que ces acteurs agissent le plus souvent en réseaux, parfois concurrents. L’étude du cas de cette compagnie du secteur de la confection de vêtement nous a permis d’aborder le domaine lié aux conditions de travail de travailleurs œuvrant au sein de chaînes de production délocalisées dans des pays aux lois sociales absentes ou inefficaces. Nous avons analysé le cheminement par lequel cette entreprise fut amenée à considérer, avec plus de rigueur, la dimension éthique dans sa chaîne de production. L’entreprise, en passant par différentes étapes prenant la forme d’un processus d’apprentissage organisationnel, a réussi à surmonter la crise en réformant ses pratiques. Il est apparu que ce processus ne fut pas spontané et qu’il fut réalisé suite aux rôles joués par deux types d’acteurs. Premièrement, par la mobilisation incessante des mouvements de justice globale afin que l’entreprise réforme ses pratiques. Et deuxièmement, par le cadre normatif et le lieu de dialogue entre les différentes parties prenantes, fournis par un organisme privé source de normes. C’est fondamentalement le risque de perdre son accréditation à la cet organisme qui a poussé l’entreprise à engager des réformes. L’entreprise est parvenue à surmonter la crise, certes en adoptant et en respectant les normes définies par cette organisation mais fondamentalement en modifiant sa culture d'entreprise. Le leadership du CEO et du CFO a en effet permis la création d'une culture d'entreprise favorisant la remise en question, le dialogue et une plus grande prise en considération des parties prenantes, même si la gestion locale ne va pas sans poser parfois des difficultés de mise en œuvre. Concernant le domaine de la gouvernance d’entreprise, nous mettons en évidence, à travers l’étude des facteurs ayant mené au déclin et à la faillite d’une entreprise phare du secteur des technologies de l’information et de la communication, les limites des normes en la matière comme outil de bonne gouvernance. La légalité de la gestion comptable et la conformité de l’entreprise aux normes de gouvernance n'ont pas empêché l’apparition et la multiplication de dysfonctionnements et abus stratégiques et éthiques. Incapable de se servir des multiples crises auxquelles elle a fait face pour se remettre en question et engager un apprentissage organisationnel profond, l'entreprise s'est focalisée de manière obsessionnelle sur la rentabilité à court terme et la recherche d'un titre boursier élevé. La direction et le conseil d'administration ont manqué de leadership afin de créer une culture d'entreprise alliant innovation technologique et communication honnête et transparente avec les parties prenantes. Alors que l'étude consacrée à l’entreprise du secteur de la confection de vêtement illustre le cas d'une entreprise qui a su, par le biais d'un changement stratégique, relever les défis que lui imposait son environnement, l'étude des quinze dernières années de la compagnie issue du secteur des technologies de l’information et de la communication témoigne de la situation inverse. Il apparaît sur base de ces deux cas que si une gouvernance favorisant l'éthique et la transparence envers les parties prenantes nécessite la création d'une culture d'entreprise valorisant ces éléments, elle doit impérativement soutenir et être associée à une stratégie adéquate afin que l'entreprise puisse pérenniser ses activités.
Resumo:
Introduction: Les personnes ayant développé un état de stress post-traumatique (ÉSPT) évitent systématiquement d’aborder avec leurs proches le sujet du trauma ainsi que tout élément y étant associé. Cette forme d’évitement peut entraver le processus naturel de rétablissement. Les hypothèses suivantes peuvent être énoncées à cet égard. Tout d’abord, une discussion avec une personne proche et centrée sur le trauma peut être vécue comme étant anxiogène et, par conséquent, provoquer une augmentation de la fréquence du rythme cardiaque, d’ailleurs communément connue sous le nom de réactivité du rythme cardiaque. La réactivité provoquée par une telle situation peut positivement varier en fonction de l’intensité des symptômes d’ÉSPT. Cette association entre les symptômes et la réactivité peut, à son tour, varier en fonction des perceptions de la personne anxieuse du soutien social de la part de son proche et/ou de son entourage. Il en va de même pour les individus ayant développé un trouble anxieux comparable, soit le trouble panique (TP). Toutefois, toutes ces hypothèses n’ayant pas été jusqu’à maintenant vérifiées empiriquement, la présente thèse a eu pour objectif de les tester. Méthodologie: Un total de 46 personnes avec un ÉSPT et de 22 personnes avec un TP ont complété des entrevues diagnostiques et des questionnaires auto-rapportés concernant leurs symptômes ainsi que leurs perceptions des interactions sociales soutenantes et non soutenantes ou négatives avec leur proche significatif et leur entourage. Elles ont également participé à une interaction sociale avec une personne proche et centrée sur leur trouble anxieux, situation qui incluait également des mesures continues du rythme cardiaque. Résultats: Les résultats ont démontré qu’une interaction sociale centrée sur le trauma avec une personne proche provoquait une augmentation significative de la fréquence du rythme cardiaque des participants en comparaison à une interaction sociale non conflictuelle et non anxiogène avec cette même personne. Cette réactivité du rythme cardiaque corrélait de façon significative et positive avec l’intensité de leurs symptômes d’ÉSPT. Les résultats ont également permis de constater que l’hypothèse de modération concernant les perceptions d’interactions sociales positives était partiellement confirmée, soit pour les symptômes d’évitement; les perceptions d’interactions sociales négatives étant quant à elles associées de façon significative et positive à cette réactivité (c.à.d. suivant un effet principal). Quant aux personnes avec un TP, une atténuation significative dans la fréquence de leur rythme cardiaque fut observée dans le contexte analogue, atténuation qui était positivement liée à la sévérité de leurs attaques de panique. Certaines dimensions de leurs perceptions de soutien social étaient significativement et négativement liées à cette atténuation (c.à.d. suivant un effet principal). Discussion: La présente thèse a notamment démontré qu’il existait des liens entre les symptômes d’ÉSPT et la réactivité du rythme cardiaque dans le contexte d’une interaction sociale avec un proche et centrée sur le trauma. Elle a également permis de constater que les symptômes d’ÉSPT et les perceptions d’interaction sociales positives et négatives peuvent prédire cette réactivité. Dans l’avenir, des devis longitudinaux pourront informer davantage à propos de la direction des liens ici explorés.
Resumo:
Dans l'optique d'améliorer la performance des services de santé en première ligne, un projet d'implantation d'une adaptation québécoise d'un modèle de soins centré sur le patient appuyé par un dossier médical personnel (DMP) a été mis sur pied au sein d'un groupe de médecine familiale (GMF) de la région de Montréal. Ainsi, ce mémoire constitue une analyse comparative entre la logique de l'intervention telle qu'elle est décrite dans les données probantes concernant les modèles de soins centrés sur le patient et le dossier médical personnel ainsi que la logique de l'intervention issue de nos résultats obtenus dans le cadre de ce projet au sein d'un GMF. L'analyse organisationnelle se situe durant la phase de pré-déploiement de l'intervention. Les principaux résultats sont que la logique d'intervention appliquée dans le cadre du projet est relativement éloignée de ce qui se fait de mieux dans la littérature sur le sujet. Ceci est en partie explicable par les différentes résistances en provenance des acteurs du projet (ex. médecins, infirmières, fournisseur technologique) dans le projet, mais aussi par l'absence de l'interopérabilité entre le DMP et le dossier médical électronique (DME). Par ailleurs, les principaux effets attendus par les acteurs impliqués sont l'amélioration de la continuité informationnelle, de l’efficacité-service, de la globalité et de la productivité. En outre, l’implantation d’un modèle centré sur le patient appuyé par un DMP impliquerait la mise en œuvre d’importantes transformations structurelles comme une révision du cadre législatif (ex. responsabilité médicale) et des modes de rémunérations des professionnels de la santé, sans quoi, les effets significatifs sur les dimensions de la performance comme l’accessibilité, la qualité, la continuité, la globalité, la productivité, l’efficacité et la réactivité pourraient être limités. Ces aménagements structuraux devraient favoriser la collaboration interprofessionnelle, l'interopérabilité des systèmes, l’amélioration de la communication multidirectionnelle (patient-professionnel de la santé) ainsi qu'une autogestion de la santé supportée (ex. éducation, prévention, transparence) par les professionnels de la santé.
Resumo:
Ce projet offre une analyse des traductions en langue française du roman d’Aphra Behn, Oronooko, or The Royal Slave (1688). Dans cette œuvre, la première femme à vivre de sa plume présente une des premières formulations du discours abolitionniste de la littérature anglaise et met au défi des idées reçues sur l’esclavage depuis le XVIIe siècle. Le texte a été traduit vers le français pour la première fois par Pierre-Antoine de La Place (Behn, 1745), dont l’interprétation s’inscrit dans la tradition des belles infidèles. Sa version connaît un succès fulgurant jusqu’à la fin du XVIIIe siècle, avec de nombreuses rééditions parues entre 1745 et 1799. En 1990, Bernard Dhuicq publie une retraduction dans le but de faire connaître Behn aux lecteurs français du XXe siècle. En 2008, il contribue à la préparation d’une nouvelle édition de La Place, et une réédition de sa propre traduction parue en 1990. Pour sa part, Guillaume Villeneuve adapte le texte au lectorat francophone d’aujourd’hui avec une édition critique comprenant un important appareil critique publiée dans la collection « GF » des Éditions Flammarion en 2009. Les traductions de La Place, d’Dhuicq et de Villeneuve affichent chacune des variations par rapport à l’original, variations qui reflètent l’intention de ces traducteurs et de leurs éditeurs ainsi que les pratiques traductives et éditoriales de leur époque.. Cette étude montre notamment comment le récit de Behn a contribué à changer la conception occidentale de l’esclavage. Elle analyse la réception des propos idéologiques d’Oroonoko dans la culture littéraire et philosophique française, depuis le XVIIIe siècle jusqu’à nos jours. À travers le cas Oronooko, le présent mémoire offre aussi une réflexion d’ordre méthodologique sur l’étude des retraductions dans une perspective historique. L’étude des retraductions vise aujourd’hui des objectifs plus vastes sur le plan historique que ne l’indique l’hypothèse du progrès en retraduction, selon laquelle un texte est retraduit pour être corrigé ou amélioré. Notre travail montre qu’en associant à l’étude des traductions celle de leur paratexte, de leur péritexte et des sujets (traducteurs et éditeurs) qui les produisent, et ce afin de resituer chaque retraduction dans son contexte historique propre, on parvient à faire entrer ces retraductions dans un dialogue interculturel et « transhistoriciste » (Nouss, 2007).
Resumo:
Résumé L'association entre la relation mère-enfant, la relation enseignant-élève et l'adaptation scolaire (compétences cognitives et sociaux) a reçu ultérieurement une attention considérable dans la littérature scientifique. En dépit de la quantité de recherches effectuées, il subsiste un besoin afin de mieux connaître les processus sous-jacent qui jouent un rôle dans cette relation. L’objectif de la recherche actuelle consiste en l’éclaircissement de l’association entre la relation enseignant-élève, le partenariat mère-enfant, et l’adaptation scolaire. Les différentes hypothèses de recherche étaient : la qualité de la relation enseignant-élève servira de facteur de protection à l’adaptation scolaire (ou à une des composantes) chez les enfants nés de mères adolescentes dont le partenariat mère-enfant est de moindre qualité; la deuxième hypothèse était que le partenariat mère-enfant prédirait la qualité de la relation enseignant-élève, qui prédirait par la suite l’adaptation à la maternelle des enfants nés de mères adolescentes. Finalement, la troisième hypothèse de recherche est que les deux relations (partenariat mère-enfant et relation enseignant-élève) contribuent de façon unique à l’adaptation scolaire. Ainsi, trois modèles d’association possibles ont été testé (modération, médiation et contributions uniques et additives) auprès d’une population à risque, soit les enfants de 5 ans nés d’une mère adolescente. L’échantillon provient d’un projet longitudinal prospectif, la «Mère-Veille,» et est composé de 30 dyades mère-enfant (N=30). La qualité du partenariat mère-enfant, évalué en laboratoire lorsque les enfants avaient 4 ans, a été mesurée à l’aide des récits narratifs co-construits. La qualité de la relation enseignant-élève a été mesurée via l’adaptation française du student teacher relationship scale à 5 ans. Finalement, la mesure de l’adaptation scolaire (comme variable dépendante) comprenant les compétences en numération et les dimensions comportementales (comportements intériorisés, extériorisés et compétences sociales) ont été évalué respectivement par l’entremise de l’adaptation française du number knowledge test et du profil socioaffectif. Une série de régressions linéaires (avec et sans variables contrôles) ont été effectuées pour estimer les trois modèles. La réponse aux hypothèses varie en fonction des différentes composantes de l’adaptation scolaire. Sommes toutes, nos résultats ne suggèrent aucune relation significative ni processus intermédiaires.
Resumo:
Le présent mémoire expose les effets de pratiques d’écriture de textes identitaires plurilingues, soutenues par des ateliers d’expression théâtrale plurilingues, sur le rapport à l’écrit d’élèves immigrants allophones nouvellement arrivés en situation de grand retard scolaire au secondaire, et ce, tout au long d’une recherche-action visant le développement de l’écriture. Puis, ces effets sont comparés avec ceux de pratiques traditionnelles d’enseignement de l’écriture. Un groupe expérimental et un groupe contrôle ont participé à cette étude de cas multiples. Des observations participantes et des entretiens individuels semi-dirigés ont permis de dresser le portrait du rapport à l’écrit des huit élèves participant à notre recherche. Dans ce rapport à l’écrit est considéré l’engagement dans la littératie des élèves, un concept clé à prendre en compte en didactique des langues secondes. Nous proposons ainsi l’étude d’une nouvelle notion : le rapport à l’écrit teinté du concept d’engagement (RÉ+). Les résultats de ce mémoire confirment la pertinence de l’approche novatrice mise en place, qui agit sur les quatre dimensions du RÉ+ (affective, praxéologique, conceptuelle et axiologique). Elle permet notamment aux élèves d’associer l’écriture à des sentiments positifs et les amène à poser un regard réflexif sur la langue associé au développement d’habiletés métacognitives. De tels effets sont différents de ceux de pratiques traditionnelles d’enseignement de l’écriture, qui ne paraissent pas en mesure d’engager pleinement, affectivement et cognitivement, les élèves dans les tâches d’écriture.
Resumo:
Des efforts de recherche considérables ont été déployés afin d'améliorer les résultats de traitement de cancers pulmonaires. L'étude de la déformation de l'anatomie du patient causée par la ventilation pulmonaire est au coeur du processus de planification de traitement radio-oncologique. À l'aide d'images de tomodensitométrie quadridimensionnelles (4DCT), une simulation dosimétrique peut être calculée sur les 10 ensembles d'images du 4DCT. Une méthode doit être employée afin de recombiner la dose de radiation calculée sur les 10 anatomies représentant une phase du cycle respiratoire. L'utilisation de recalage déformable d'images (DIR), une méthode de traitement d'images numériques, génère neuf champs vectoriels de déformation permettant de rapporter neuf ensembles d'images sur un ensemble de référence correspondant habituellement à la phase d'expiration profonde du cycle respiratoire. L'objectif de ce projet est d'établir une méthode de génération de champs de déformation à l'aide de la DIR conjointement à une méthode de validation de leur précision. Pour y parvenir, une méthode de segmentation automatique basée sur la déformation surfacique de surface à été créée. Cet algorithme permet d'obtenir un champ de déformation surfacique qui décrit le mouvement de l'enveloppe pulmonaire. Une interpolation volumétrique est ensuite appliquée dans le volume pulmonaire afin d'approximer la déformation interne des poumons. Finalement, une représentation en graphe de la vascularisation interne du poumon a été développée afin de permettre la validation du champ de déformation. Chez 15 patients, une erreur de recouvrement volumique de 7.6 ± 2.5[%] / 6.8 ± 2.1[%] et une différence relative des volumes de 6.8 ± 2.4 [%] / 5.9 ± 1.9 [%] ont été calculées pour le poumon gauche et droit respectivement. Une distance symétrique moyenne 0.8 ± 0.2 [mm] / 0.8 ± 0.2 [mm], une distance symétrique moyenne quadratique de 1.2 ± 0.2 [mm] / 1.3 ± 0.3 [mm] et une distance symétrique maximale 7.7 ± 2.4 [mm] / 10.2 ± 5.2 [mm] ont aussi été calculées pour le poumon gauche et droit respectivement. Finalement, 320 ± 51 bifurcations ont été détectées dans le poumons droit d'un patient, soit 92 ± 10 et 228 ± 45 bifurcations dans la portion supérieure et inférieure respectivement. Nous avons été en mesure d'obtenir des champs de déformation nécessaires pour la recombinaison de dose lors de la planification de traitement radio-oncologique à l'aide de la méthode de déformation hiérarchique des surfaces. Nous avons été en mesure de détecter les bifurcations de la vascularisation pour la validation de ces champs de déformation.