988 resultados para Réseaux littéraires
Resumo:
Plusieurs monographies récentes se sont intéressées à la traduction des littératures africaines europhones (Gyasi 2006, Bandia 2008, Batchelor 2009), faisant valoir le concept d’autotraduction (au sens métaphorique) et insistant sur le fait que ces écritures sont porteuses d’une oralité ou de marques linguistiques issues des langues parlées par les écrivains. Toutefois, la question de l’hybridité comme point de jonction entre littératures orales et écrites a encore rarement été examinée sous un angle poétique et c’est précisément dans cet esprit que cette recherche a été entreprise. Dans un premier temps, à partir des ouvrages originaux de six auteurs, trois d’expression littéraire anglaise (Farah, Hove et Armah) et trois d’expression littéraire française (Waberi, Adiaffi et Djebar), je montre en quoi ces écritures méritent d’être qualifiées de poétiques avant de mettre cette esthétique en relation avec le patrimoine littéraire de chacun des auteurs du corpus; ponctuellement, d’autres affiliations littéraires sont mises en évidence. Cette poétique est examinée dans sa dimension mélopoéique (Pound 1954), c’est-à-dire sous l’angle des structures audibles, appelées aussi figures de style jouant sur la forme phonétique des mots (Klein-Lataud 2001). Dans un second temps, j’examine comment cette poétique sonore a été recréée, tant de manière qualitative que quantitative, dans les traductions de Bardolph, de Richard et de J. et R. Mane (pour les auteurs d’expression anglaise) et de Garane, de Katiyo et de Blair (pour les auteurs d’expression française). Les enjeux associés à la réactivation des structures poétiques sonores sont mis en évidence dans le dernier chapitre qui propose un tour d’horizon des modalités de « consommation » de l’objet littéraire et qui s’achève sur les questions soulevées par la progression du livre audio. La méthodologie élaborée dans ce cadre s’inspire essentiellement de Berman (1995) et de Henry (2003). La conceptualisation de la poétique sonore, telle que mise en œuvre dans le contexte particulier de ces littératures, fait appel aux paradigmes de valence traductive (Folkart 2007) et de traduction métonymique (Tymoczko 1999). Par ailleurs, cette recherche s’appuie sur la récente thèse de doctorat de Fraser (2007) consacrée à la théorisation du sonore en traduction.
Resumo:
Le problème de localisation-routage avec capacités (PLRC) apparaît comme un problème clé dans la conception de réseaux de distribution de marchandises. Il généralisele problème de localisation avec capacités (PLC) ainsi que le problème de tournées de véhicules à multiples dépôts (PTVMD), le premier en ajoutant des décisions liées au routage et le deuxième en ajoutant des décisions liées à la localisation des dépôts. Dans cette thèse on dévelope des outils pour résoudre le PLRC à l’aide de la programmation mathématique. Dans le chapitre 3, on introduit trois nouveaux modèles pour le PLRC basés sur des flots de véhicules et des flots de commodités, et on montre comment ceux-ci dominent, en termes de la qualité de la borne inférieure, la formulation originale à deux indices [19]. Des nouvelles inégalités valides ont été dévelopées et ajoutées aux modèles, de même que des inégalités connues. De nouveaux algorithmes de séparation ont aussi été dévelopés qui dans la plupart de cas généralisent ceux trouvés dans la litterature. Les résultats numériques montrent que ces modèles de flot sont en fait utiles pour résoudre des instances de petite à moyenne taille. Dans le chapitre 4, on présente une nouvelle méthode de génération de colonnes basée sur une formulation de partition d’ensemble. Le sous-problème consiste en un problème de plus court chemin avec capacités (PCCC). En particulier, on utilise une relaxation de ce problème dans laquelle il est possible de produire des routes avec des cycles de longueur trois ou plus. Ceci est complété par des nouvelles coupes qui permettent de réduire encore davantage le saut d’intégralité en même temps que de défavoriser l’apparition de cycles dans les routes. Ces résultats suggèrent que cette méthode fournit la meilleure méthode exacte pour le PLRC. Dans le chapitre 5, on introduit une nouvelle méthode heuristique pour le PLRC. Premièrement, on démarre une méthode randomisée de type GRASP pour trouver un premier ensemble de solutions de bonne qualité. Les solutions de cet ensemble sont alors combinées de façon à les améliorer. Finalement, on démarre une méthode de type détruir et réparer basée sur la résolution d’un nouveau modèle de localisation et réaffectation qui généralise le problème de réaffectaction [48].
Resumo:
Depuis que l'animal humain a conçu un système de technologies pour la pensée abstraite grâce au langage, la guerre contre le monde sauvage est devenu une voie à sens unique vers l'aliénation, la civilisation et la littérature. Le but de ce travail est d'analyser comment les récits civilisationnels donnent une structure à l'expérience par le biais de la ségrégation, de la domestication, de la sélection, et de l'extermination, tandis que les récits sauvages démontrent les possibilités infinies du chaos pour découvrir le monde en toute sa diversité et en lien avec sa communauté de vie. Un des objectifs de cette thèse a été de combler le fossé entre la science et la littérature, et d'examiner l'interdépendance de la fiction et la réalité. Un autre objectif a été de mettre ces récits au cœur d'un dialogue les uns avec les autres, ainsi que de tracer leur expression dans les différentes disciplines et œuvres pour enfants et adultes mais également d’analyser leur manifestations c’est redondant dans la vie réelle. C'est un effort multi-disciplinaires qui se reflète dans la combinaison de méthodes de recherche en anthropologie et en études littéraires. Cette analyse compare et contraste trois livres de fiction pour enfants qui présentent trois différents paradigmes socio-économiques, à savoir, «Winnie-l'Ourson» de Milne qui met en place un monde civilisé monarcho-capitaliste, la trilogie de Nosov sur «les aventures de Neznaika et ses amis» qui présente les défis et les exploits d'une société anarcho-socialiste dans son évolution du primitivisme vers la technologie, et les livres de Moomines de Jansson, qui représentent le chaos, l'anarchie, et l'état sauvage qui contient tout, y compris des épisodes de civilisation. En axant la méthodologie de ma recherche sur la façon dont nous connaissons le monde, j'ai d'abord examiné la construction, la transmission et l'acquisition des connaissances, en particulier à travers la théorie de praxis de Bourdieu et la critique de la civilisation développée dans les études de Zerzan, Ong, et Goody sur les liens entre l'alphabétisation, la dette et l'oppression. Quant à la littérature pour enfants, j'ai choisi trois livres que j’ai connus pendant mon enfance, c'est-à-dire des livres qui sont devenus comme une «langue maternelle» pour moi. En ce sens, ce travail est aussi de «l’anthropologie du champ natif». En outre, j’analyse les prémisses sous-jacentes qui se trouvent non seulement dans les trois livres, mais dans le déroulement des récits de l'état sauvage et de la civilisation dans la vie réelle, des analyses qui paraissent dans cette thèse sous la forme d'extraits d’un journal ethnographique. De même que j’examine la nature de la littérature ainsi que des structures civilisées qui domestiquent le monde au moyen de menaces de mort, je trace aussi la présence de ces récits dans l'expression scientifique (le récit malthusien-darwinien), religieuse, et dans autres expressions culturelles, et réfléchis sur les défis présentés par la théorie anarchiste (Kropotkine) ainsi que par les livres pour enfants écrits du point de vue sauvage, tels que ceux des Moomines.
Resumo:
La thèse a été réalisée en cotutelle avec l'Université Paul Céazanne (Aix Marseille III).
Resumo:
Dans Certainement Pas, je m’intéresserai à la problématique du jeu littéraire dans son rapport à la contrainte. Comment Chloé Delaume réussit-elle dans un premier temps à s’approprier un certain nombre de discours culturels et de formes a priori extralittéraires pour ensuite les transformer? Dans un second temps, comment s’y prend-elle pour « phagocyter » dans son écriture une pléthore de références littéraires? Conséquemment, quelle conception de la littérature livre-t-elle? Veut-elle, par l’aspect ludique de son roman, rendre un hommage filial aux auteurs d’hier et ainsi adopter une position empreinte de dévotion? Essaye-t-elle, au contraire, de « déchiqueter-dégurgiter » ces textes paternels et agir en iconoclaste? En procédant de cette façon, détruit-elle ou non le mythe de l’originalité en littérature? Finalement, comment s’effectue la réception de son texte ? Jouer le je est un projet d’écriture prolongeant les réflexions sur la place du jeu et de la contrainte dans la littérature. Prenant la forme d’une pièce de théâtre, il cherche à travailler la problématique de l’automatisme langagier actuel et devient une tentative de destruction de celui-ci. Ce texte met en scène deux personnages. La protagoniste principale, une jeune femme de vingt-cinq ans nommée Plume Liddell, étudiante en immunologie souffrant de dyslexie linguistique, participera à six séances de psychothérapie au cours desquelles elle parlera d’elle-même. L’autre personnage: la psychologue, restera muette ou presque tout au long des séances.
Resumo:
Thèse réalisée en cotutelle avec l’Université Charles-de-Gaulle – Lille-3 pour l'obtention du diplôme de doctorat en Langue et littérature françaises.
Resumo:
Toutes les illustrations qui ponctuent cette thèse ont été réalisées par Chantal Poirier. Elles ont été insérées dans le texte selon un ordre méticuleusement aléatoire.
Resumo:
Les biocapteurs sont utilisés quotidiennement pour déterminer la présence de molécules biologiques dans une matrice complexe, comme l’urine pour les tests de grossesses ou le sang pour les glucomètres. Les techniques courantes pour la détection des autres maladies nécessitent fréquemment le marquage de l’analyte avec une autre molécule, ce qui est à éviter pour fin de simplicité d’analyse. Ces travaux ont pour but la maximisation de la sensibilité d’une surface d’or ou d’argent nanotrouée, afin de permettre la détection de la liaison de molécules biologiques par résonance des plasmons de surface localisés (LSPR), en utilisant la spectroscopie de transmission. Un biocapteur portable, rapide et sans marquage pour quantifier des analytes d’intérêt médical ou environnemental pourrait être construit à partir de ces travaux. Dans l’objectif d’étudier de nombreuses configurations pour maximiser la sensibilité, le temps et le coût des méthodes de fabrication de nanostructures habituelles auraient limité le nombre de surfaces nanotrouées pouvant être étudiées. Un autre objectif du projet consiste donc au développement d’une technique de fabrication rapide de réseaux de nanotrous, et à moindres coûts, basée sur la lithographie de nanosphères (NSL) et sur la gravure au plasma à l’oxygène (RIE). La sensibilité à la variation d’indice de réfraction associée aux liaisons de molécules sur la surface du métal noble et la longueur d’onde d’excitation du plasmon de surface sont influencées par les caractéristiques des réseaux de nanotrous. Dans les travaux rapportés ici, la nature du métal utilisé, le diamètre ainsi que la périodicité des trous sont variés pour étudier leur influence sur les bandes LSPR du spectre en transmission pour maximiser cette sensibilité, visant la fabrication d’un biocapteur. Les surfaces d’argent, ayant un diamètre de nanotrous inférieur à 200 nm pour une périodicité de 450 nm et les nanotrous d’une périodicité de 650 nm démontre un potentiel de sensibilité supérieur.
Resumo:
Nous proposons une approche probabiliste afin de déterminer l’impact des changements dans les programmes à objets. Cette approche sert à prédire, pour un changement donné dans une classe du système, l’ensemble des autres classes potentiellement affectées par ce changement. Cette prédiction est donnée sous la forme d’une probabilité qui dépend d’une part, des interactions entre les classes exprimées en termes de nombre d’invocations et d’autre part, des relations extraites à partir du code source. Ces relations sont extraites automatiquement par rétro-ingénierie. Pour la mise en oeuvre de notre approche, nous proposons une approche basée sur les réseaux bayésiens. Après une phase d’apprentissage, ces réseaux prédisent l’ensemble des classes affectées par un changement. L’approche probabiliste proposée est évaluée avec deux scénarios distincts mettant en oeuvre plusieurs types de changements effectués sur différents systèmes. Pour les systèmes qui possèdent des données historiques, l’apprentissage a été réalisé à partir des anciennes versions. Pour les systèmes dont on ne possède pas assez de données relatives aux changements de ses versions antécédentes, l’apprentissage a été réalisé à l’aide des données extraites d’autres systèmes.
Resumo:
Les systèmes multiprocesseurs sur puce électronique (On-Chip Multiprocessor [OCM]) sont considérés comme les meilleures structures pour occuper l'espace disponible sur les circuits intégrés actuels. Dans nos travaux, nous nous intéressons à un modèle architectural, appelé architecture isométrique de systèmes multiprocesseurs sur puce, qui permet d'évaluer, de prédire et d'optimiser les systèmes OCM en misant sur une organisation efficace des nœuds (processeurs et mémoires), et à des méthodologies qui permettent d'utiliser efficacement ces architectures. Dans la première partie de la thèse, nous nous intéressons à la topologie du modèle et nous proposons une architecture qui permet d'utiliser efficacement et massivement les mémoires sur la puce. Les processeurs et les mémoires sont organisés selon une approche isométrique qui consiste à rapprocher les données des processus plutôt que d'optimiser les transferts entre les processeurs et les mémoires disposés de manière conventionnelle. L'architecture est un modèle maillé en trois dimensions. La disposition des unités sur ce modèle est inspirée de la structure cristalline du chlorure de sodium (NaCl), où chaque processeur peut accéder à six mémoires à la fois et où chaque mémoire peut communiquer avec autant de processeurs à la fois. Dans la deuxième partie de notre travail, nous nous intéressons à une méthodologie de décomposition où le nombre de nœuds du modèle est idéal et peut être déterminé à partir d'une spécification matricielle de l'application qui est traitée par le modèle proposé. Sachant que la performance d'un modèle dépend de la quantité de flot de données échangées entre ses unités, en l'occurrence leur nombre, et notre but étant de garantir une bonne performance de calcul en fonction de l'application traitée, nous proposons de trouver le nombre idéal de processeurs et de mémoires du système à construire. Aussi, considérons-nous la décomposition de la spécification du modèle à construire ou de l'application à traiter en fonction de l'équilibre de charge des unités. Nous proposons ainsi une approche de décomposition sur trois points : la transformation de la spécification ou de l'application en une matrice d'incidence dont les éléments sont les flots de données entre les processus et les données, une nouvelle méthodologie basée sur le problème de la formation des cellules (Cell Formation Problem [CFP]), et un équilibre de charge de processus dans les processeurs et de données dans les mémoires. Dans la troisième partie, toujours dans le souci de concevoir un système efficace et performant, nous nous intéressons à l'affectation des processeurs et des mémoires par une méthodologie en deux étapes. Dans un premier temps, nous affectons des unités aux nœuds du système, considéré ici comme un graphe non orienté, et dans un deuxième temps, nous affectons des valeurs aux arcs de ce graphe. Pour l'affectation, nous proposons une modélisation des applications décomposées en utilisant une approche matricielle et l'utilisation du problème d'affectation quadratique (Quadratic Assignment Problem [QAP]). Pour l'affectation de valeurs aux arcs, nous proposons une approche de perturbation graduelle, afin de chercher la meilleure combinaison du coût de l'affectation, ceci en respectant certains paramètres comme la température, la dissipation de chaleur, la consommation d'énergie et la surface occupée par la puce. Le but ultime de ce travail est de proposer aux architectes de systèmes multiprocesseurs sur puce une méthodologie non traditionnelle et un outil systématique et efficace d'aide à la conception dès la phase de la spécification fonctionnelle du système.
Resumo:
Dans le cadre de ce mémoire, nous nous sommes penchée sur la situation des familles immigrantes originaires du Maroc. En mobilisant les notions de solidarités familiales (Pitrou, 1978; Dandurand et Ouellette, 1992), de transnationalisme (Glick Schiller et al., 1992 et 1995) ainsi que les travaux sur les liens entre réseaux sociaux et modifications des rôles conjugaux, nous avons examiné l’impact de la migration sur l’organisation du foyer selon trois aspects : (1) la dynamique interne de la famille, (2) la redéfinition des rôles conjugaux et (3) le maintien des liens familiaux malgré la distance géographique. En nous appuyant sur six entretiens semi-directifs avec des couples marocains arrivés au Québec depuis au moins deux ans, nous avons pu constater la manière dont les liens familiaux et les solidarités sont réagencés pour pallier la distance et comment les liens amicaux accèdent à un nouveau statut et prennent une nouvelle fonction dans cette recomposition.
Resumo:
La thèse vise à analyser la structure des échanges transnationaux de cocaïne, d’héroïne et de marijuana. Partant de la perspective des systèmes-mondes, l’hypothèse que le trafic de drogues forme un système inverse au commerce légal est développée. Les outils de l’analyse de réseaux sont appliqués aux échanges de drogues entre pays. La thèse s’appuie sur deux sources de données complémentaires. La première est une banque d’informations uniques compilées par l’United Nations Office on Drugs and Crime (UNODC) sur les saisies d’importance effectuées dans le monde entre 1998 et 2007 (n = 47629). Ces données sont complétées par les informations contenues dans une dizaine de rapports publiés par des organismes internationaux de surveillance du trafic de drogues. Les réseaux d’échanges dirigés construits à partir de ces données permettent d’examiner l’étendue du trafic entre la plupart des pays du monde et de qualifier leur implication individuelle. Les chapitres 3 et 4 portent sur la structure du trafic elle-même. Dans un premier temps, les différents rôles joués par les pays et les caractéristiques des trois marchés de drogues sont comparés. Les quantités en circulation et les taux d’interception sont estimés pour les 16 régions géographiques définies par l’UNODC. Dans un deuxième temps, leurs caractéristiques structurelles sont comparées à celles des marchés légaux. Il en ressort que les marchés de drogues sont beaucoup moins denses et que les pays périphériques y jouent un rôle plus prononcé. L’inégalité des échanges caractérise les deux économies, mais leurs structures sont inversées. Le chapitre 5 propose une analyse de la principale source de risque pour les trafiquants, les saisies de drogues. Les données compilées permettent de démontrer que les saisies policières de drogues agrégées au niveau des pays sont principalement indicatrices du volume de trafic. L’éventuel biais lié aux pressions policières est négligeable pour les quantités saisies, mais plus prononcé pour le nombre de saisies. Les organismes de contrôle seraient donc plus à même de moduler leurs activités que les retombées éventuelles. Les résultats suggèrent aussi que les trafiquants adoptent des stratégies diverses pour limiter les pertes liées aux saisies. Le chapitre 6 s’attarde à l’impact de la structure sur le prix et la valeur des drogues. Le prix de gros varie considérablement d’un pays à l’autre et d’une drogue à l’autre. Ces variations s’expliquent par les contraintes auxquelles font face les trafiquants dans le cadre de leurs activités. D’une part, la valeur des drogues augmente plus rapidement lorsqu’elles sont destinées à des pays où les risques et les coûts d’importation sont élevés. D’autre part, la majoration des prix est plus prononcée lorsque les échanges sont dirigés vers des pays du cœur de l’économie légale. De nouveau, les rôles sont inversés : les pays généralement avantagés dépendent des plus désavantagés, et les pays pauvres en profitent pour exploiter les riches.
Resumo:
Dans un monde de plus en plus interconnecté où le développement nécessite une participation active à la société de l’information, où les différentes cultures rentrent davantage en contact entre elles et où les biens culturels sont devenus des biens de consommation, les minorités culturelles mondiales intégrant les technologies de l’information et de la communication (TIC) se retrouvent marginalisées face à la menace d’hégémonie culturelle des réseaux de l’information par les cultures dominantes de certains pays développés. Pour qu’une culture prenne sa place dans la société de l’information, il revient en premier lieu à ses institutions éducatives de former leurs apprenants dans un contexte culturel qui leur est propre et de valoriser et d’encourager la production et l’utilisation de contenu endogène. C’est dans le cadre de cette problématique que la présente recherche s’est donnée comme premier objectif de faire le bilan du contenu culturel accédé et diffusé par les TIC dans des écoles de pays africains dits en développement ; pour ensuite, comme deuxième objectif, de décrire les barrières à une intégration des TIC qui favoriserait la promotion culturelle en ligne dans ces écoles ; et finalement, comme troisième objectif, d’identifier des stratégies pragmatiques favorisant une intégration écologique des TIC dans ces écoles, c’est-à-dire, une intégration durable, adaptée au contexte local et favorisant la pleine participation des enseignants et des élèves. Pour y parvenir, nous avons adopté une approche méthodologique essentiellement descriptive et qualitative. Nous avons réalisé des entrevues avec 168 enseignants et 230 élèves de 34 écoles pionnières TIC situées dans cinq pays d’Afrique de l’Ouest et du Centre, que nous avons traitées selon une analyse de contenu spécifique à chaque objectif. L’adoption des stratégies décrites dans nos résultats permettrait aux écoles étudiées de surmonter, en partie, la multitude de barrières auxquelles elles font face et de favoriser l’intégration écologique des TIC. Une telle intégration est nécessaire à l’atteinte d’une société de l’information plus équitable et à l’éventuelle réduction du fossé numérique séparant les « info-riches » des « info-pauvres ».
Resumo:
L'étude de la formation d'une communauté épistémique québécoise en santé publique en ayant recours à l'interactionnisme-structural permet d'appréhender ce phénomène social sous l'angle d'une influence réciproque entre d'une part des acteurs sociaux interagissant entre-eux et d'autre part, des conceptualisations variées des objets de santé publique; ces éléments sociaux et sémantiques subissent des transformations simultanées. Notre étude démontre et illustre qu'au même moment où un réseau social de chercheurs prend forme, une thématique nouvelle prend place et rallie ces mêmes chercheurs, non pas seulement dans leurs relations sociales, mais dans les idées qu'ils manipulent lors de leur travail de production et de diffusion de connaissances; les identités sociales se lient, mais pas au hasard, parce qu'elles partagent des éléments sémantiques communs. C'est notamment en explorant 20 ans de collaborations scientifiques à l'aide d'outils d'analyse de réseaux, d'analyse en composantes discrètes et par l'exporation de treillis de Galois que cette étude a été menée. Notre approche est principalement exploratoire et une attention toute particulière est portée sur les aspects méthodologiques et théoriques du travail de recherche scientifique.
Resumo:
L’aphasie est un trouble acquis du langage entraînant des problèmes de communication pouvant toucher la compréhension et/ou l’expression. Lorsque l’aphasie fait suite à un accident vasculaire cérébral, une régression des déficits communicatifs s'observe initialement, mais elle peut demeurer sévère pour certains et est considérée chronique après un an. Par ailleurs, l’aphasie peut aussi être observée dans l’aphasie progressive primaire, une maladie dégénérative affectant uniquement le langage dans les premières années. Un nombre grandissant d’études s’intéressent à l’impact de la thérapie dans l’aphasie chronique et ont démontré des améliorations langagières après plusieurs années. L’hémisphère gauche semble avoir un rôle crucial et est associé à de meilleures améliorations langagières, mais la compréhension des mécanismes de plasticité cérébrale est encore embryonnaire. Or, l’efficacité de la thérapie dans l’aphasie progressive primaire est peu étudiée. À l’aide de la résonance magnétique fonctionnelle, le but des présentes études consiste à examiner les mécanismes de plasticité cérébrale induits par la thérapie Semantic Feature Analysis auprès de dix personnes souffrant d’aphasie chronique et d’une personne souffrant d’aphasie progressive primaire. Les résultats suggèrent que le cerveau peut se réorganiser plusieurs années après une lésion cérébrale ainsi que dans une maladie dégénérative. Au niveau individuel, une meilleure amélioration langagière est associée au recrutement de l’hémisphère gauche ainsi qu’une concentration des activations. Les analyses de groupe mettent en évidence le recrutement du lobule pariétal inférieur gauche, alors que l’activation du gyrus précentral gauche prédit l’amélioration suite à la thérapie. D’autre part, les analyses de connectivité fonctionnelle ont permis d’identifier pour la première fois le réseau par défaut dans l’aphasie. Suite à la thérapie, l’intégration de ce réseau bien connu est comparable à celle des contrôles et les analyses de corrélation suggèrent que l’intégration du réseau par défaut a une valeur prédictive d’amélioration. Donc, les résultats de ces études appuient l’idée que l’hémisphère gauche a un rôle prépondérant dans la récupération de l’aphasie et fournissent des données probantes sur la neuroplasticité induite par une thérapie spécifique du langage dans l’aphasie. De plus, l’identification d’aires clés et de réseaux guideront de futures recherches afin d’éventuellement maximiser la récupération de l’aphasie et permettre de mieux prédire le pronostic.