32 resultados para constant light
em Université de Montréal, Canada
Resumo:
Problématique : Les prématurés évoluent dans l’unité néonatale qui présente une intensité lumineuse parfois forte et variable, ce qui a pour effet de provoquer une instabilité physiologique, ainsi qu’une augmentation du niveau d’activité motrice chez ces derniers. Par ailleurs, le contrôle de l’éclairage à l’unité néonatale favorise la stabilité physiologique et réduit le niveau d’activité motrice des prématurés. Deux méthodes de contrôle de l’éclairage ont été étudiées, soit l’éclairage tamisé constant et l’éclairage cyclique. Or, la méthode de contrôle de l’éclairage la plus appropriée au système nerveux immature des prématurés est inconnue et il y a ambivalence en ce qui concerne les résultats des études ayant évalué ces deux modes de contrôle de l’éclairage. But : Le but de cette étude était de mesurer les effets de l’éclairage cyclique versus l’éclairage tamisé constant sur la stabilité physiologique et le niveau d’activité motrice de prématurés nés entre 28 et 32 semaines d’âge gestationnel. Méthode : Un essai clinique randomisé a été réalisé. Les 38 prématurés recrutés dans une unité néonatale de niveaux II et III d’un hôpital universitaire, ont été randomisés dans l’un des deux groupes d’intervention, soit le groupe exposé à l’éclairage tamisé constant ou celui exposé à l’éclairage cyclique. Ces deux types d’éclairage ont été appliqués pendant 24 heures. La stabilité physiologique a été mesurée par le score Stability of the Cardio Respiratory System in Premature Infants (SCRIP) et le niveau d’activité motrice a été mesuré avec un accéléromètre (Actiwatch®). L’intensité lumineuse à laquelle les prématurés ont été exposés a été mesurée de façon continue à l’intérieur de l’incubateur à l’aide d’un photomètre. Résultats : L’analyse des données révèle qu’il n’y aucune différence significative entre les deux groupes d’intervention en ce qui a trait à la stabilité physiologique (valeur-p du score SCRIP de 0,54 à 0,96) et au niveau d’activité motrice (valeur-p de 0,09 à 0,88). Les participants des deux groupes ont manifesté une stabilité physiologique et un niveau d’activité motrice comparables. Conclusion : Des interventions de contrôle de l’éclairage doivent être adoptées à l’unité néonatale, que ce soit des interventions qui permettent la mise en œuvre de l’éclairage cyclique ou de l’éclairage tamisé constant, dans le but de favoriser l’adaptation du prématuré à l’environnement de l’unité néonatale. Des recherches additionnelles sont requises afin d’identifier la méthode de contrôle de l’éclairage (éclairage cyclique ou éclairage tamisé constant) qui doit être implantée à l’unité néonatale.
Resumo:
Rapport de recherche
Resumo:
Les effets cardiovasculaires des alpha-2 agonistes, particulièrement importants chez les chiens, limitent leur utilisation en pratique vétérinaire. La perfusion à débit constant (PDC) de ces drogues, comme la médétomidine (MED) permettrait un contrôle plus précis de ces effets. Les effets hémodynamiques de plusieurs doses de MED en PDC ont été évalués chez le chien. Lors de cette étude prospective, réalisée en double aveugle, 24 chiens en santé, ont reçu de façon aléatoire une des 6 doses de MED PDC (4 chiens par groupe). Les chiens ont été ventilés mécaniquement pendant une anesthésie minimale standardisée avec de l’isoflurane dans de l’oxygène. Une dose de charge (DC) de médétomidine a été administrée aux doses de 0.2, 0.5, 1.0, 1.7, 4.0 ou 12.0 µg/kg pendant 10 minutes, après laquelle la MED PDC a été injectée à une dose identique à celle de la DC pendant 60 minutes. L’isoflurane a été administré seul pendant une heure après l’administration d’une combinaison d’ISO et de MED PDC pendant 70 minutes. La fréquence cardiaque (FC), la pression artérielle moyenne (PAM) et l’index du débit cardiaque (IC) ont été mesurés. Des prélèvements sanguins ont permis d’évaluer le profil pharmacocinétique. D’après ces études, les effets hémodynamiques de la MED PDC pendant une anesthésie à l’isoflurane ont été doses-dépendants. L’IC a diminué progressivement alors que la dose de MED augmentait avec: 14.9 (12.7), 21.7 (17.9), 27.1 (13.2), 44.2 (9.7), 47.9 (8.1), and 61.2 (14.1) % respectivement. Les quatre doses les plus basses n’ont provoqué que des changements minimes et transitoires de la FC, de la PAM et de l’IC. La pharmacocinétique apparaît clairement dose-dépendante. De nouvelles expériences seront nécessaires afin d’étudier l’utilisation clinique de la MED PDC.
Resumo:
Le présent mémoire vise à faire avancer la réflexion sur la conception de média alternatif à travers une analyse d’une organisation médiatique dite alternative, soit CISM 89,3 FM, la radio de campus de l’Université de Montréal. À partir de la littérature, l’auteur émet certaines interrogations et explore quelques pistes d’analyse en regard de cet univers médiatique. Suite à un travail sur le terrain, basé sur une série d’entrevues avec des acteurs oeuvrant au sein de CISM, ce travail de recherche permet de mettre en lumière certains éléments peu discutés dans la littérature. L’auteur met notamment en relief l’importance que revêt le statut d’alternatif pour CISM aux yeux de ses artisans, ainsi que la complexité de ce statut et les enjeux qu’il soulève. Le mémoire montre aussi, à travers les propos des personnes interrogées, la difficulté et les tensions avec lesquelles les artisans d’un tel média doivent jongler quotidiennement afin d’être fidèle à ce statut d’alternatif. C’est à travers ses remises en questions, ses points litigieux, ses tensions, ses négociations que CISM se définit à travers ce qu’est ou doit être un média alternatif. Mais, ce sont aussi ces tensions constantes qui lui permettent d’évoluer.
Resumo:
L'économie de la Chine a connu au cours des trois dernières décennies une effervescence sans précédent. Dorénavant ouvert sur le monde, ce nouveau marché de près de 1,3 milliard d'individus possède un potentiel commercial et des perspectives de croissance n'ayant aucun équivalent en Occident. Toutefois, partir à la conquête de l'Empire du Milieu peut s'avérer être une aventure périlleuse pour celui qui ne maîtrise pas le cadre contextuel et légal dans lequel les affaires s'opèrent en ces lieux. Le présent mémoire se veut une étude en deux parties des considérations afin de mener à terme avec succès un projet d'investissement en sol chinois. Dans un premier temps, la présente étude tente de démystifier le climat économique, social et légal entourant le monde des affaires en Chine. L'investisseur étranger a tout intérêt à comprendre cet environnement dans lequel nos repères occidentaux sont parfois inexistants. Il s'agit donc, initialement, de comprendre l'évolution récente de ce pays et les transformations profondes que la Chine a connues dans les dernières décennies. Du socialisme à l'économie de marché, le plus grand marché potentiel sur terre s'est ouvert progressivement sur le monde. Sans délai, l'investissement étranger a alors afflué massivement en ces lieux. Fort de l'évolution de son environnement légal, qui se poursuit d'ailleurs toujours à l'heure actuelle, quels sont les principaux enjeux et défis pour un investisseur étranger en Chine? Parmi différentes considérations, l'investisseur étranger doit s'intéresser particulièrement à la place qu'occupent les autorités gouvernementales dans les transactions privées, à la force obligatoire des ententes commerciales et à la résolution de conflits éventuels. Dans un second temps, la présente étude couvre les principales formes juridiques d'investissement accessibles aux investisseurs étrangers afin d'exploiter ou de participer à l'exploitation d'une entreprise en sol chinois. Il s'agit, pour chacune d'entre elles, d'analyser le droit positif posé par le législateur ainsi que de le compléter avec certains éléments pratiques soulevés par des observateurs en la matière. Il s'ensuivra une analyse des différents mécanismes d'acquisition d'entreprise par les investisseurs étrangers. Ultimement, l'étude de cette seconde partie mènera à une analyse comparative des incidences pratiques relativement aux différentes formes d'établissement ou d'acquisition d'entreprise.
Resumo:
Cette thèse est une enquête épistémologique qui s’interroge sur la persistance de « l’éther » dans le champ de la technologie. De façon générale, le mot « éther » évoque un modèle conceptuel de la physique pré-einsteinienne, celui d’un milieu invisible permettant la propagation de la lumière et des ondes électromagnétiques. Or, ce n’est là qu’une des figures de l’éther. Dans plusieurs mythologies et cosmogonies anciennes, le nom « éther » désignait le feu originel contenu dans les plus hautes régions célestes. Aristote nommait « éther », par exemple, le « cinquième être », ou « cinquième élément ». La chimie a aussi sa propre figure de l’éther où il donne son nom à un composé chimique, le C4H10O, qui a été utilisé comme premier anesthésiant général à la fin du XIXe siècle. L’apparition soutenue dans l’histoire de ces figures disparates de l’éther, qui a priori ne semblent pas entretenir de relation entre elles, est pour nous la marque de la persistance de l’éther. Nous défendons ici l’argument selon lequel cette persistance ne se résume pas à la constance de l’attribution d’un mot ou d’un nom à différents phénomènes dans l’histoire, mais à l’actualisation d’une même signature, éthérogène. À l’invitation d’Agamben et en nous inspirant des travaux de Nietzsche et Foucault sur l’histoire-généalogie et ceux de Derrida sur la déconstruction, notre thèse amorce une enquête historique motivée par un approfondissement d’une telle théorisation de la signature. Pour y parvenir, nous proposons de placer l’éther, ou plutôt la signature-éther, au cœur de différentes enquêtes historiques préoccupées par le problème de la technologie. En abordant sous cet angle des enjeux disparates – la légitimation des savoirs narratifs, la suspension des sens, la pseudoscience et la magie, les révolutions de l’information, l’obsession pour le sans-fil, l’économie du corps, la virtualisation de la communication, etc. –, nous proposons dans cette thèse autant d’amorces pour une histoire autre, une contre-histoire.
Resumo:
Les liposomes sont des structures sphériques formés par l'auto-assemblage de molécules amphiphiles sous forme d'une bicouche. Cette bicouche sépare le volume intérieur du liposome du milieu extérieur, de la même manière que les membranes cellulaires. Les liposomes sont donc des modèles de membranes cellulaires et sont formulés pour étudier les processus biologiques qui font intervenir la membrane (transport de molécules à travers la membrane, effets des charges en surface, interactions entre la matrice lipidique et d'autres molécules, etc.). Parce qu'ils peuvent encapsuler une solution aqueuse en leur volume intérieur, ils sont aussi utilisés aujourd'hui comme nanovecteurs de principes actifs. Nous avons formulé des liposomes non-phospholipidiques riches en stérol que nous avons appelés stérosomes. Ces stérosomes sont composés d'environ 30 % d'amphiphiles monoalkylés et d'environ 70 % de stérols (cholestérol, Chol, et/ou sulfate de cholestérol, Schol). Quand certaines conditions sont respectées, ces mélanges sont capables de former une phase liquide ordonnée (Lo) pour donner, par extrusion, des vésicules unilamellaires. Certaines de ces nouvelles formulations ont été fonctionnalisées de manière à libérer leur contenu en réponse à un stimulus externe. En incorporant des acides gras dérivés de l’acide palmitique possédant différents pKa, nous avons pu contrôler le pH auquel la libération débute. Un modèle mathématique a été proposé afin de cerner les paramètres régissant leur comportement de libération. En incorporant un amphiphile sensible à la lumière (un dérivé de l’azobenzène), les liposomes formés semblent répondre à une radiation lumineuse. Pour ce système, il serait probablement nécessaire de tracer le diagramme de phase du mélange afin de contrôler la photo-libération de l’agent encapsulé. Nous avons aussi formulé des liposomes contenant un amphiphile cationique (le chlorure de cétylpyridinium). En tant que nanovecteurs, ces stérosomes montrent un potentiel intéressant pour la libération passive ou contrôlée de principes actifs. Pour ces systèmes, nous avons développé un modèle pour déterminer l’orientation des différentes molécules dans la bicouche. La formation de ces nouveaux systèmes a aussi apporté de nouvelles connaissances dans le domaine des interactions détergents-lipides. Aux nombreux effets du cholestérol (Chol) sur les systèmes biologiques, il faut ajouter maintenant que les stérols sont aussi capables de forcer les amphiphiles monoalkylés à former des bicouches. Cette nouvelle propriété peut avoir des répercussions sur notre compréhension du fonctionnement des systèmes biologiques. Enfin, les amphiphiles monoalkylés peuvent interagir avec la membrane et avoir des répercussions importantes sur son fonctionnement. Par exemple, l'effet antibactérien de détergents est supposé être dû à leur insertion dans la membrane. Cette insertion est régie par l'affinité existant entre le détergent et cette dernière. Dans ce cadre, nous avons voulu développer une nouvelle méthode permettant d'étudier ces affinités. Nous avons choisi la spectroscopie Raman exaltée de surface (SERS) pour sa sensibilité. Les hypothèses permettant de déterminer cette constante d’affinité se basent sur l’incapacité du détergent à exalter le signal SERS lorsque le détergent est inséré dans la membrane. Les résultats ont été comparés à ceux obtenus par titration calorimétrique isotherme (ITC). Les résultats ont montré des différences. Ces différences ont été discutées.
Resumo:
L’objectif de cette thèse est d’élucider l’intention, la pertinence et la cohérence de l’appropriation par Heidegger des concepts principaux de la philosophie pratique aristotélicienne dans ses premiers cours. Notre analyse portera principalement sur les notions clefs d’energeia et de phronēsis. La première section de la thèse est préparatoire : elle est consacrée à une analyse étroite des textes pertinents de l’Éthique à Nicomaque, mais aussi de la Métaphysique, en discussion avec d’autres commentateurs modernes. Cette analyse jette les fondations philologiques nécessaires en vue d’aborder les audacieuses interprétations de Heidegger sur une base plus ferme. La deuxième et principale section consiste en une discussion de l’appropriation ontologique de l’Éthique à Nicomaque que Heidegger entreprend de 1922 à 1924, à partir des textes publiés jusqu’à ce jour et en portant une attention spéciale à Métaphysique IX. Le résultat principal de la première section est un aperçu du caractère central de l’energeia pour le projet d’Aristote dans l’Éthique à Nicomaque et, plus spécifiquement, pour sa compréhension de la praxis, qui dans son sens original s’avère être un mode d’être des êtres humains. Notre analyse reconnaît trois traits essentiels de l’energeia et de la praxis, deux desquels provenant de l’élucidation aristotélicienne de l’energeia dans Métaphysique IX 6, à savoir son immédiateté et sa continuité : energeia exprime l’être comme un « accomplissement immédiat mais inachevé ». L’irréductibilité, troisième trait de l’energeia et de la praxis, résulte pour sa part de l’application de la structure de l’energeia à la caractérisation de la praxis dans l’Éthique à Nicomaque, et du contraste de la praxis avec la poiēsis et la theōria. Ces trois caractéristiques impliquent que la vérité pratique ― la vérité de la praxis, ce qui est l’ « objet » de la phronēsis ― ne peut être à proprement parler possédée et ainsi transmise : plus qu’un savoir, elle se révèle surtout comme quelque chose que nous sommes. C’est ce caractère unique de la vérité pratique qui a attiré Heidegger vers Aristote au début des années 1920. La deuxième section, consacrée aux textes de Heidegger, commence par la reconstruction de quelques-uns des pas qui l’ont conduit jusqu’à Aristote pour le développement de son propre projet philosophique, pour sa part caractérisé par une profonde, bien qu’énigmatique combinaison d’ontologie et de phénoménologie. La légitimité et la faisabilité de l’appropriation clairement ontologique de l’Éthique à Nicomaque par Heidegger est aussi traitée, sur la base des résultats de la première section. L’analyse de ces textes met en lumière la pénétrante opposition établie par Heidegger entre la phronēsis et l’energeia dans son programmatique Natorp Bericht en 1922, une perspective qui diverge fortement des résultats de notre lecture philologique d’Aristote dans la première section. Cette opposition est maintenue dans nos deux sources principales ― le cours du semestre d’hiver 1924-25 Platon: Sophistes, et le cours du semestre d’été 1924 Grundbegriffe der aristotelischen Philosophie. Le commentaire que Heidegger fait du texte d’Aristote est suivi de près dans cette section: des concepts tels que energeia, entelecheia, telos, physis ou hexis ― qui trouvent leur caractérisation ontologique dans la Métaphysique ou la Physique ― doivent être examinés afin de suivre l’argument de Heidegger et d’en évaluer la solidité. L’hypothèse de Heidegger depuis 1922 ― à savoir que l’ontologie aristotélicienne n’est pas à la hauteur des aperçus de ses plus pénétrantes descriptions phénoménologiques ― résulte en un conflit opposant phronēsis et sophia qui divise l’être en deux sphères irréconciliables qui auraient pour effet selon Heidegger de plonger les efforts ontologiques aristotéliciens dans une impasse. Or, cette conclusion de Heidegger est construite à partir d’une interprétation particulière de l’energeia qui laisse de côté d’une manière décisive son aspect performatif, pourtant l’un des traits essentiels de l’energeia telle qu’Aristote l’a conçue. Le fait que dans les années 1930 Heidegger ait lui-même retrouvé cet aspect de l’energeia nous fournit des raisons plus fortes de mettre en doute le supposé conflit entre ontologie et phénoménologie chez Aristote, ce qui peut aboutir à une nouvelle formulation du projet heideggérien.
Resumo:
Le but de cette étude était d’explorer et de comprendre l’expérience que peuvent vivre les proches aidants au regard de leurs interactions avec leur parent âgé qui erre, lors de leurs visites au centre d’hébergement et de soins de longue durée. Une étude qualitative exploratoire a été réalisée en s’inspirant de la conception des interactions sociales de Khosravi (2003, 2007) et de la théorie de l’être humain unitaire de Rogers (1970, 1990). À l’aide d’un guide d’entretien semi-dirigé, des entrevues individuelles ont été effectuées auprès de cinq filles aidantes ayant un parent errant hébergé. Le but de cette étude était d’explorer et de comprendre l’expérience que peuvent vivre les proches aidants au regard de leurs interactions avec leur parent âgé qui erre, lors de leurs visites au centre d’hébergement et de soins de longue durée. Une étude qualitative exploratoire a été réalisée en s’inspirant de la conception des interactions sociales de Khosravi (2003, 2007) et de la théorie de l’être humain unitaire de Rogers (1970, 1990). À l’aide d’un guide d’entretien semi-dirigé, des entrevues individuelles ont été effectuées auprès de cinq filles aidantes ayant un parent errant hébergé. Les résultats de l’analyse thématique suggèrent que ces aidantes sont en mesure d’expliquer l’errance en identifiant plusieurs causes à ce comportement, entre autres la recherche de repères connus, les habitudes de vie antérieures, le besoin de liberté et le désir de retourner chez soi. Être en mesure d’expliquer le comportement semble en favoriser l’acceptation. Cette compréhension et cette acceptation du besoin constant de se mouvoir permettent aux aidantes d’entretenir des interactions avec leur parent et de passer de « bons moments » lors des visites. Pour maintenir ces interactions encore importantes, les aidantes ont développé des stratégies de communication non verbales comme le toucher et la marche rapide. Elles ont également su se familiariser avec ce comportement en évitant de confronter leur parent et en faisant preuve de créativité. Ces résultats mettent en lumière des pistes d’interventions infirmières afin de favoriser des interactions harmonieuses entre les résidents errants et leur proche aidant.
Resumo:
L’objectif de ce mémoire est de rendre compte d’une figure particulièrement dynamique dans l’écriture de Leïla Sebbar, celle de l’adolescent fugueur. Mohamed dans Le Chinois vert d’Afrique (1982) et Shérazade dans Shérazade, 17 ans, brune, frisée, les yeux verts (1984), personnifient une réalité autre que celle accolée aux jeunes descendants de l’immigration maghrébine (surtout algérienne), partagés entre les codes culturels du pays d’origine et ceux du pays de naissance. L’hybridité des personnages et leur mobilité aléatoire permettent de réévaluer les discours sociaux dominants émis en France, pays tiraillé entre les aspirations d’unité nationale et l’histoire coloniale. Le premier chapitre fera état du contact des fugueurs avec la représentation picturale et sa place dans la constitution de leur identité. À la lumière de ces observations, la seconde partie du travail se penchera sur la prise de conscience du regard de l’Autre et le questionnement de l’image préconçue de l’adolescent de banlieue inculte en mal d’insertion sociale. La déconstruction de ce cliché permettra dans le troisième chapitre d’aborder la réappropriation de l’objet culturel par les fugueurs, procédant à une véritable démocratisation de la culture élitiste. Le quatrième chapitre sera enfin consacré au mouvement des fugueurs dans l’espace et dans le temps. Nous y verrons comment les fugueurs, intermédiaires entre la ville et sa banlieue mais aussi entre le paradis perdu du pays d’origine et le désarroi des parents immigrés, provoquent la relecture de l’histoire des générations passées tout en gardant un œil critique sur l’avenir.
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal.
Resumo:
Malgré des progrès constants en termes de capacité de calcul, mémoire et quantité de données disponibles, les algorithmes d'apprentissage machine doivent se montrer efficaces dans l'utilisation de ces ressources. La minimisation des coûts est évidemment un facteur important, mais une autre motivation est la recherche de mécanismes d'apprentissage capables de reproduire le comportement d'êtres intelligents. Cette thèse aborde le problème de l'efficacité à travers plusieurs articles traitant d'algorithmes d'apprentissage variés : ce problème est vu non seulement du point de vue de l'efficacité computationnelle (temps de calcul et mémoire utilisés), mais aussi de celui de l'efficacité statistique (nombre d'exemples requis pour accomplir une tâche donnée). Une première contribution apportée par cette thèse est la mise en lumière d'inefficacités statistiques dans des algorithmes existants. Nous montrons ainsi que les arbres de décision généralisent mal pour certains types de tâches (chapitre 3), de même que les algorithmes classiques d'apprentissage semi-supervisé à base de graphe (chapitre 5), chacun étant affecté par une forme particulière de la malédiction de la dimensionalité. Pour une certaine classe de réseaux de neurones, appelés réseaux sommes-produits, nous montrons qu'il peut être exponentiellement moins efficace de représenter certaines fonctions par des réseaux à une seule couche cachée, comparé à des réseaux profonds (chapitre 4). Nos analyses permettent de mieux comprendre certains problèmes intrinsèques liés à ces algorithmes, et d'orienter la recherche dans des directions qui pourraient permettre de les résoudre. Nous identifions également des inefficacités computationnelles dans les algorithmes d'apprentissage semi-supervisé à base de graphe (chapitre 5), et dans l'apprentissage de mélanges de Gaussiennes en présence de valeurs manquantes (chapitre 6). Dans les deux cas, nous proposons de nouveaux algorithmes capables de traiter des ensembles de données significativement plus grands. Les deux derniers chapitres traitent de l'efficacité computationnelle sous un angle différent. Dans le chapitre 7, nous analysons de manière théorique un algorithme existant pour l'apprentissage efficace dans les machines de Boltzmann restreintes (la divergence contrastive), afin de mieux comprendre les raisons qui expliquent le succès de cet algorithme. Finalement, dans le chapitre 8 nous présentons une application de l'apprentissage machine dans le domaine des jeux vidéo, pour laquelle le problème de l'efficacité computationnelle est relié à des considérations d'ingénierie logicielle et matérielle, souvent ignorées en recherche mais ô combien importantes en pratique.
Resumo:
En observant le foisonnement de métaphores de la lumière et de la vision dans l’œuvre de Reinaldo Arenas – l’accentuation de la couleur, l’éblouissement, la brûlure et le dédoublement – cette thèse s’interroge sur la vision de l’écriture formulée dans et à partir de ces images, et sur les implications de cette vision. Constatant à travers cette réflexion l’inscription à même le langage des images de la lumière et de la vision – de la réflexion à la clarté, en passant par l’image et la lucidité – cette thèse délibère, à travers l’œuvre de Reinaldo Arenas et celle de Jorge Luis Borges, sur une définition de l’écriture comme intensité, notion et image empruntées au registre du sensible par le détour de la physique. Le premier chapitre s’intéresse à la couleur comme phénomène de la vision, du sensible, de l’affect et de la nuance, ainsi qu’à la métaphore de la cécité abordée par Borges et par Paul de Man comme phénomène de la lecture, points d’entrée à une réflexion sur l’écriture. Le second chapitre aborde la notion d’éblouissement en tant qu’intensité de la lumière et temporalité de la prise de conscience lucide, définissant ainsi une vision du temps et les affinités entre la temporalité de l’écriture et celle de l’image poétique. Le troisième chapitre, réitérant la question de la relation au temps – historique et narratif –, réaffirme les inflexions du langage en fonction de la lumière, c’est-à-dire la relation entre l’aspect « lumineux » du langage, l’intensité de la lumière et l’intensité de l’écriture (entendue comme écriture littéraire), en explorant le seuil (la destruction par le feu) mis en lumière par l’image du phénix, figure mythique et littéraire de la transformation des images, selon la définition de l’imagination proposée par Gaston Bachelard. Enfin, la double conclusion (une conclusion en deux parties, ou deux conclusions réfléchies l’une dans l’autre), relie les images poétiques de la lumière évoquées et leurs implications en examinant la portée d’une vision de l’écriture comme intensité. Cette idée est élaborée à travers l’image finale du double, figure littéraire constitutive et omniprésente à la fois chez Arenas et chez Borges, image non seulement de la relation entre le personnage et son double (qui relève de l’hallucination ou de l’imagination, images, encore une fois, de la vision), mais aussi de la relation entre l’auteur et le texte, le lecteur et le texte, l’écriture et le temps. La double conclusion vise le dédoublement et redoublement comme figures de l’intensité dans l’écriture. Le lien entre la vision métaphorique et l’écriture comme intensité est donc articulé par la métaphore, telle qu’entendue par Borges, élargie à l’image poétique dans la perspective de Gaston Bachelard ; elle s’appuie sur la vision de la littérature pensée et écrite par Arenas. La réflexion est double : dans le texte et sur le texte, au plan poétique et au plan d’une réflexion sur l’écriture d’Arenas ; sur l’écriture et, implicitement, sur la littérature.
Resumo:
David Katz a fait l’observation que le mouvement entre la peau et l’objet est aussi important pour le sens du toucher que la lumière l’est pour la vision. Un stimulus tactile déplacé sur la peau active toutes les afférences cutanées. Les signaux résultants sont très complexes, covariant avec différents facteurs dont la vitesse, mais aussi la texture, la forme et la force. Cette thèse explore la capacité des humains à estimer la vitesse et la rugosité de surfaces en mouvements. Les bases neuronales de la vitesse tactile sont aussi étudiées en effectuant des enregistrements unitaires dans le cortex somatosensoriel primaire (S1) du singe éveillé. Dans la première expérience, nous avons montré que les sujets peuvent estimer la vitesse tactile (gamme de vitesses, 30 à 105 mm/s) de surfaces déplacées sous le doigt, et ceci sans indice de durée. Mais la structure des surfaces était essentielle (difficulté à estimer la vitesse d’une surface lisse). Les caractéristiques physiques des surfaces avaient une influence sur l’intensité subjective de la vitesse. La surface plus rugueuse (8 mm d’espacement entre les points en relief) semblait se déplacer 15% plus lentement que les surfaces moins rugueuses (de 2 et 3 mm d’espacement), pour les surfaces périodiques et non périodiques (rangées de points vs disposition aléatoire). L’effet de la texture sur la vitesse peut être réduit en un continuum monotonique quand les estimés sont normalisés avec l’espacement et présentés en fonction de la fréquence temporelle (vitesse/espacement). L'absence de changement des estimés de vitesse entre les surfaces périodiques et non périodiques suggère que les estimés de rugosité devraient aussi être indépendants de la disposition des points. Dans la deuxième expérience, et tel que prévu, une équivalence perceptuelle entre les deux séries de surfaces est obtenue quand les estimés de la rugosité sont exprimés en fonction de l'espacement moyen entre les points en relief, dans le sens de l'exploration. La troisième expérience consistait à rechercher des neurones du S1 qui pourraient expliquer l’intensité subjective de la vitesse tactile. L’hypothèse est que les neurones impliqués devraient être sensibles à la vitesse tactile (40 à 105 mm/s) et à l’espacement des points (2 à 8 mm) mais être indépendants de leur disposition (périodique vs non périodique). De plus, il est attendu que la fonction neurométrique (fréquence de décharge/espacement en fonction de la fréquence temporelle) montre une augmentation monotonique. Une grande proportion des cellules était sensible à la vitesse (76/119), et 82% d’entres elles étaient aussi sensibles à la texture. La sensibilité à la vitesse a été observée dans les trois aires du S1 (3b, 1 et 2). La grande majorité de cellules sensibles à la vitesse, 94%, avait une relation monotonique entre leur décharge et la fréquence temporelle, tel qu’attendu, et ce surtout dans les aires 1 et 2. Ces neurones pourraient donc expliquer la capacité des sujets à estimer la vitesse tactile de surfaces texturées.
Resumo:
Compte-rendu / Review