225 resultados para Masquage visuel
Resumo:
Ayant réalisé neuf longs-métrages entre 1988 et 2007, aussi que plusieurs campagnes publicitaires, vidéo-clips, courts-métrages et projets collectifs, Wong Kar-wai est un des réalisateurs contemporains les plus importants actuellement. Issu de l'industrie cinématographique fortement commerciale de Hong Kong, Wong est parvenu à attirer l'attention du circuit international des festivals de cinéma avec son style visuel unique et son récit fragmenté. Considéré par plusieurs critiques comme le poète de la recherche d’identité de Hong Kong après 1997, Wong Kar-wai défie toutes les tentatives de catégorisation. L’étude qui se poursuivit ici a donc pour objet essentiel de fournir une analyse attentive et complète de son oeuvre, tout en se concentrant sur les traits stylistiques qui donnent à ses films une unité. Ces caractéristiques correspondent à une certaine façon de raconter des histoires, de composer des personnages et des récits, de manipuler le temps et d'utiliser des ressources techniques de sorte que ses films offrent une identité cohérente. L'objectif est d'analyser les différents composants de ses images pour découvrir comment ses films communiquent les uns avec les autres afin de créer une identité unique. Pour atteindre cet objectif, je pose comme hypothèse de travail que le cinéma de Wong est marqué par une structure dualiste qui permet à ses films de présenter des qualités contradictoires simultanément. La plupart de mes arguments se concentrent sur le travail du philosophe français Gilles Deleuze, qui a proposé une théorie du cinéma divisé entre l’image-mouvement et l’image-temps. Je considère que sa théorie fournit un cadre valide sur lequel les films de Wong peuvent être projetés. Tandis que ma recherche se concentre sur l’interprétation textuelle des films, je profiterais également d’une analyse comparative.
Resumo:
L’exposition du fœtus à l’éthanol est reconnue comme étant la principale cause de maladies évitables lors du développement. Une forte exposition à l’alcool durant la gestation peut occasionner des dysmorphies cranio-faciales et des retards mentaux, ainsi que des troubles d’apprentissages et du comportement. Le développement du système visuel est également perturbé chez une grande majorité d’enfants qui ont été exposés à l’alcool. Lorsque les doses prises sont élevées, le système visuel peut présenter une panoplie de symptômes comme une augmentation de la tortuosité des vaisseaux rétiniens, de la myopie, de l’hypermétropie, du strabisme et une hypoplasie du nerf optique. Cependant, très peu d’études se sont penchées sur les effets de plus faibles doses sur le développement du système visuel du primate. Le singe est un excellent modèle pour étudier le système visuel car il possède plusieurs similitudes avec l’humain tant au niveau développemental qu’au niveau structurel. De plus, le singe utilisé, le Chlrocebus aethiops sabeus, possède l’avantage que des individus de cette espèce ont une consommation naturelle et volontaire à l’alcool. Une étude (Clarren et al., 1990) a suggéré qu’une faible exposition à l’alcool du fœtus du primate non humain occasionnait une diminution du nombre de cellules ganglionnaires de la rétine (CGRs). Étant donné que le corps genouillé latéral dorsal (CGLd) reçoit la plupart de ses intrants de la rétine, il est raisonnable d’assumer que les couches rétino-récipientes du CGLd devraient être aussi affectées. Nous avons alors émis l’hypothèse que le CGLd devrait également subir une diminution du nombre de neurones. Pour la première fois, nous avons utilisé une méthode stéréologique pour quantifier le nombre de cellules dans les couches parvo- (P) et magnocellulaires (M) du CGLd. Contrairement à notre hypothèse de départ, nous n’avons pas observé de diminution dans le nombre global de neurones dans le CGLd des animaux exposés à l’alcool par rapport à des sujets contrôles, ni une diminution de son volume. Nous avons toutefois observé une diminution de la taille du corps cellulaire seulement dans la population M du CGLd. Ces résultats suggèrent que le système visuel est affecté par une faible exposition à l’alcool durant son développement qui devrait se traduire sur le comportement par des déficits dans les fonctions de la voie M.
Resumo:
Ce mémoire veut démontrer que le film de famille ainsi que ses conditions de réception empruntent, et ce de façon instinctive, au fonctionnement communicatif et rassembleur de la tradition orale. La parole, l’oralité, devrait être considérée comme le catalyseur de la mise en commun du souvenir que le film de famille suscite. Elle est le véhicule de l’interprétation du message du film de famille en tant que discours familial. D’ailleurs, si l’on compare l’influence des deux registres sensoriels présents dans le médium cinématographique (le visuel et l’oralité), le film de famille reprend davantage les modalités de l’oralité. Conséquemment, son contenu, sa forme et sa finalité correspondent à la définition d’un cinéma de l’oralité, un cinéma de la parole défini par Germain Lacasse. En raison d’une absence de travaux portant spécifiquement sur le sujet, l’objectif de cette recherche est de rapprocher et de définir davantage ces liens qui se sont tissés entre la tradition orale et le film de famille. Dans ce dessein, l’approche théorique développée est basée sur les théories de la tradition orale, sur la théorie de la mémoire collective de Maurice Halbwach et sur les rapports entre le cinéma et l’oralité. Ainsi, les aspects suivants sont abordés : Le rôle de l’oralité dans la constitution de la mémoire familiale, l’apport de l’oralité dans les médias stimulateurs de mémoire familiale et finalement, la forme et le contenu du film de famille en tant qu’aspects distinctifs du cinéma oral. Quatre extraits de films de famille québécois des années 20 à aujourd’hui y sont également analysés.
Resumo:
La zeitgesit contemporaine sur la reconnaissance des visages suggère que le processus de reconnaissance reposerait essentiellement sur le traitement des distances entre les attributs internes du visage. Il est toutefois surprenant de noter que cette hypothèse n’a jamais été évaluée directement dans la littérature. Pour ce faire, 515 photographies de visages ont été annotées afin d’évaluer l’information véhiculée par de telles distances. Les résultats obtenus suggèrent que les études précédentes ayant utilisé des modifications de ces distances ont présenté 4 fois plus d’informations que les distances inter-attributs du monde réel. De plus, il semblerait que les observateurs humains utilisent difficilement les distances inter-attributs issues de visages réels pour reconnaître leurs semblables à plusieurs distances de visionnement (pourcentage correct maximal de 65%). Qui plus est, la performance des observateurs est presque parfaitement restaurée lorsque l’information des distances inter-attributs n’est pas utilisable mais que les observateurs peuvent utiliser les autres sources d’information de visages réels. Nous concluons que des indices faciaux autre que les distances inter-attributs tel que la forme des attributs et les propriétés de la peau véhiculent l’information utilisée par le système visuel pour opérer la reconnaissance des visages.
Resumo:
Les commotions cérébrales subies en contexte sportif constituent un sujet préoccupant. Il est estimé qu’aux États-Unis, environ cinq pourcent de l’ensemble des athlètes subiront une commotion cérébrale. Celle-ci est considérée comme une blessure transitoire dans la majorité des cas. Dans le domaine de la commotion cérébrale sportive, le phénomène de risque accru chez des athlètes ayant subi préalablement des commotions cérébrales est bien documenté. Cet aspect remet en question l’aspect transitoire de la blessure. Les techniques d’imagerie fonctionnelle offrent un grand potentiel dans la compréhension de cette pathologie en montrant notamment les différences fonctionnelles chez des participants ayant subi un traumatisme crânio-cérébral léger en l’absence de résultats comportementaux. Il est probable que des altérations fonctionnelles persistent au-delà de la phase de récupération postsymptômes. L’électrophysiologie, en particulier les potentiels évoqués cognitifs sont un outil de choix pour étudier la question en raison de leur sensibilité et de la mesure fonctionnelle qu’ils permettent d’obtenir. Les potentiels évoqués cognitifs consistent en une réponse électrique cérébrale moyenne générée lors de l’accomplissement d’une tâche. Il est possible d’identifier différentes composantes dans le tracé d’un potentiel évoqué; ces composantes sont associées à différents aspects de l’activité électrique cérébrale durant le traitement perceptuel et cognitif.Les articles scientifiques inclus dans cette thèse se penchent sur les effets de commotions cérébrales multiples chez des athlètes plusieurs mois après la dernière commotion. Dans un premier temps, l’aspect temporel est évalué par le biais de la mesure de la P3a et la P3b dans différents groupes d’athlètes. Ces composantes sont liées aux processus de mémoire et d’attention. Les résultats suggèrent que, malgré un fonctionnement normal, les athlètes ayant subi des commotions cérébrales éprouveraient de probables changements cognitifs sous-cliniques persistants se traduisant par une atténuation des P3a et P3b. Des altérations seraient aussi présentes quelques années après la dernière commotion, mais de façon plus subtile. La deuxième étude soumise s’intéresse aux processus électrophysiologiques liés au maintien de l’information en mémoire de travail visuel chez des athlètes ayant subi plusieurs commotions cérébrales. La mesure utilisée est la SPCN (sustained posterior controlateral negativity), une composante ERP spécifique au processus cognitif étudié. Les résultats montrent non seulement une composante atténuée chez les athlètes ayant subi trois commotions cérébrales ou plus, mais aussi une modulation de la composante en fonction du nombre de commotions cérébrales subies. Ces résultats pourraient contribuer à expliquer le risque accru de subir des commotions cérébrales subséquentes observées chez ces athlètes. En lien avec la littérature, ces données pourraient s’expliquer par la présence de déficits cognitifs sous-cliniques ou encore par la mise en place de mécanismes compensatoires. Enfin, ces résultats invitent à une grande prudence dans la gestion des cas de commotions cérébrales ainsi qu’à un effort d’éducation plus poussé chez les jeunes athlètes afin qu’ils puissent prendre les meilleures décisions concernant leur avenir.
Resumo:
Durant le développement du système visuel, les cellules ganglionnaires de la rétine (CGRs) envoient des axones qui seront influencés par divers signaux guidant leur cône de croissance, permettant ainsi la navigation des axones vers leurs cibles terminales. Les endocannabinoïdes, des dérivés lipidiques activant les récepteurs aux cannabinoides (CB1 et CB2), sont présents de manière importante au cours du développement. Nous avons démontré que le récepteur CB2 est exprimé à différents points du tractus visuel durant le développement du hamster. L’injection d’agonistes et d’agonistes inverses pour le récepteur CB2 a modifié l’aire du cône de croissance et le nombre de filopodes présents à sa surface. De plus, l’injection d’un gradient d’agoniste du récepteur CB2 produit la répulsion du cône de croissance tandis qu’un analogue de l’AMPc (db-AMPc) produit son attraction. Les effets du récepteur CB2 sur le cône de croissance sont produits en modulant l’activité de la protéine kinase A(PKA), influençant la présence à la membrane cellulaire d’un récepteur à la nétrine-1 nommé Deleted in Colorectal Cancer (DCC). Notamment, pour que le récepteur CB2 puisse moduler le guidage du cône de croissance, la présence fonctionnelle du récepteur DCC est essentielle.. Suite à une injection intra-occulaire d’un agoniste inverse du récepteur CB2, nous avons remarqué une augmentation de la longueur des branches collatérales des axones rétiniens au niveau du LTN (noyau lateral terminal). Nous avons également remarqué une diminution de la ségrégation des projections ganglionnaires au niveau du dLGN, le noyau genouillé lateral dorsal, chez les animaux transgéniques cnr2-/-, ayant le gène codant pour le récepteur CB2 inactif. Nos données suggèrent l’implication des endocannabinoïdes et de leur récepteur CB2 dans la modulation des processus de navigation axonale et de ségrégation lors du développement du système visuel.
Resumo:
Document intégré à la collection Archives en mouvement. Cette collection vise à explorer la diffusion par l'utilisation de documents d'archives. Ce document fut préalablement réalisé dans le cadre du cours SCI6113 Description et diffusion des archives, donné à l’EBSI au trimestre d’automne 2009 par François Cartier dans le cadre du programme de maîtrise en sciences de l'infomation.
Resumo:
Les nétrines sont une petite famille de protéines de guidage axonal qui peuvent attirer des axones ou en repousser d’autres lors du développement neuronal. Lors du développement de la rétine, les axones des cellules ganglionnaires de la rétine (CGR) sont attirés vers une source de nétrines au niveau du disque optique leur permettant de quitter la rétine et de former le nerf optique. Afin de pouvoir caractériser le rôle des nétrines dans le système visuel adulte, nous avons investigué l’expression des nétrines et leurs récepteurs dans la rétine de souris adulte. Alors qu’aucune expression de la nétrine-1 n’a été détectée dans la rétine adulte, l’expression de la nétrine-3 a été abondamment détectée au niveau des CGR et des cellules amacrines. Nous démontrons aussi que les récepteurs des nétrines sont exprimés dans la rétine adulte. Alors que DCC semble être confiné au niveau des axones des CGR, néogénine est retrouvé dans les dendrites des CGR et des cellules horizontales. Quant aux protéines de la famille des récepteurs homologues à UNC-5, UNC5B a été détecté dans les somas des CGR et UNC5C dans les cellules de Müller. La découverte que nétrine-3 et ses récepteurs sont abondamment exprimés dans plusieurs types cellulaires de la rétine adulte leur suggère un rôle dans le fonctionnement du système visuel mature.
Resumo:
Les avancés dans le domaine de l’intelligence artificielle, permettent à des systèmes informatiques de résoudre des tâches de plus en plus complexes liées par exemple à la vision, à la compréhension de signaux sonores ou au traitement de la langue. Parmi les modèles existants, on retrouve les Réseaux de Neurones Artificiels (RNA), dont la popularité a fait un grand bond en avant avec la découverte de Hinton et al. [22], soit l’utilisation de Machines de Boltzmann Restreintes (RBM) pour un pré-entraînement non-supervisé couche après couche, facilitant grandement l’entraînement supervisé du réseau à plusieurs couches cachées (DBN), entraînement qui s’avérait jusqu’alors très difficile à réussir. Depuis cette découverte, des chercheurs ont étudié l’efficacité de nouvelles stratégies de pré-entraînement, telles que l’empilement d’auto-encodeurs traditionnels(SAE) [5, 38], et l’empilement d’auto-encodeur débruiteur (SDAE) [44]. C’est dans ce contexte qu’a débuté la présente étude. Après un bref passage en revue des notions de base du domaine de l’apprentissage machine et des méthodes de pré-entraînement employées jusqu’à présent avec les modules RBM, AE et DAE, nous avons approfondi notre compréhension du pré-entraînement de type SDAE, exploré ses différentes propriétés et étudié des variantes de SDAE comme stratégie d’initialisation d’architecture profonde. Nous avons ainsi pu, entre autres choses, mettre en lumière l’influence du niveau de bruit, du nombre de couches et du nombre d’unités cachées sur l’erreur de généralisation du SDAE. Nous avons constaté une amélioration de la performance sur la tâche supervisée avec l’utilisation des bruits poivre et sel (PS) et gaussien (GS), bruits s’avérant mieux justifiés que celui utilisé jusqu’à présent, soit le masque à zéro (MN). De plus, nous avons démontré que la performance profitait d’une emphase imposée sur la reconstruction des données corrompues durant l’entraînement des différents DAE. Nos travaux ont aussi permis de révéler que le DAE était en mesure d’apprendre, sur des images naturelles, des filtres semblables à ceux retrouvés dans les cellules V1 du cortex visuel, soit des filtres détecteurs de bordures. Nous aurons par ailleurs pu montrer que les représentations apprises du SDAE, composées des caractéristiques ainsi extraites, s’avéraient fort utiles à l’apprentissage d’une machine à vecteurs de support (SVM) linéaire ou à noyau gaussien, améliorant grandement sa performance de généralisation. Aussi, nous aurons observé que similairement au DBN, et contrairement au SAE, le SDAE possédait une bonne capacité en tant que modèle générateur. Nous avons également ouvert la porte à de nouvelles stratégies de pré-entraînement et découvert le potentiel de l’une d’entre elles, soit l’empilement d’auto-encodeurs rebruiteurs (SRAE).
Resumo:
La consommation de poisson et de mammifères marins représente une source importante d’acides gras oméga-3 connus pour leurs effets bénéfiques sur le développement des fonctions cérébrales et notamment, sur le développement du système visuel. Afin de tester l’hypothèse selon laquelle l’exposition prénatale aux acides gras oméga-3 a des effets bénéfiques à long terme, nous avons examiné les fonctions visuelles chez des enfants Inuits d’âge scolaire exposés à de grandes quantités d’oméga-3 durant la période de gestation. Des enfants Inuits (n = 136; moyenne d’âge = 11.3 ans) du nord du Québec (Nunavik) ont participé à cette étude. Un protocole de potentiels évoqués visuels (PEVs) utilisant des stimuli en couleur et en mouvement a été employé afin d’appréhender les réponses parvo- et magnocellulaires respectivement. Les concentrations d’acide docosahexaénoïque (ADH) ont été mesurées à la naissance à partir du sang de cordon ombilical et au moment du testing, reflétant ainsi les expositions pré- et post-natales. Les relations entre les niveaux sanguins d’ADH et les PEVs ont été examinées à l’aide d’analyses de régression multiples, en tenant compte des contaminants environnementaux et d’autres variables potentiellement confondantes. Aucune association significative n’a été trouvée en ce qui concerne les stimuli de mouvement. Cependant, après ajustement pour les covariables, les concentrations d’ADH à la naissance étaient associées à une latence plus courte des composantes N1 et P1 des PEVs couleur. Notre étude démontre, pour la première fois, des effets bénéfiques de l’exposition prénatale à l’ADH sur le système parvocellulaire à l’âge scolaire.
Resumo:
Lors d’une tâche de pointage manuel, la présence de corrections rapides, adaptées, automatiques et même réflexes (Franklin et Wolpert, 2008) suite à une perturbation par saut de curseur a pu être observée dans de nombreuses études. Ici, nous avons souhaité déterminer si ces corrections étaient purement réflexes où si elles étaient amorcées seulement lorsque la perturbation mettait en péril l’atteinte de la cible ; ces corrections ont-elles aussi un aspect fonctionnel ? Dans une première expérience nous avons fait varier la taille des cibles (5 ou 30 mm de diamètre) et des sauts du curseur (5, 15 ou 25 mm) de manière à obtenir certaines combinaisons où la cible pourrait être atteinte sans qu’aucune correction du mouvement pour contrecarrer l’effet du saut du curseur ne soit nécessaire. Des corrections réduisant l’erreur d’environ 65% ont été observées dans toutes les conditions. Dans une seconde expérience, les participants devaient atteindre une très grande cible (arc de 30°) et un saut de curseur de 15 mm était introduit pour certains essais peu de temps après l’amorce du mouvement. Les participants ont modifié leur mouvement dans le sens opposé à celui de la perturbation, et cela même s’ils n’avaient pas détecté consciemment le saut. Cependant, ces corrections étaient moins rapides et plus petites (42% de l’amplitude du saut de curseur) que celles observées lors de la première expérience. Nos résultats supportent le fait que l’amorce des corrections pour des erreurs de trajectoire induites expérimentalement soit de nature réflexe. Un deuxième processus serait alors responsable du déroulement de ces corrections ; ce deuxième processus est basé, entre autres, sur les caractéristiques de la cible.
Resumo:
La vision est un élément très important pour la navigation en général. Grâce à des mécanismes compensatoires les aveugles de naissance ne sont pas handicapés dans leurs compétences spatio-cognitives, ni dans la formation de nouvelles cartes spatiales. Malgré l’essor des études sur la plasticité du cerveau et la navigation chez les aveugles, les substrats neuronaux compensatoires pour la préservation de cette fonction demeurent incompris. Nous avons démontré récemment (article 1) en utilisant une technique d’analyse volumétrique (Voxel-Based Morphometry) que les aveugles de naissance (AN) montrent une diminution de la partie postérieure de l’hippocampe droit, structure cérébrale importante dans la formation de cartes spatiales. Comment les AN forment-ils des cartes cognitives de leur environnement avec un hippocampe postérieur droit qui est significativement réduit ? Pour répondre à cette question nous avons choisi d’exploiter un appareil de substitution sensorielle qui pourrait potentiellement servir à la navigation chez les AN. Cet appareil d’affichage lingual (Tongue display unit -TDU-) retransmet l’information graphique issue d’une caméra sur la langue. Avant de demander à nos sujets de naviguer à l’aide du TDU, il était nécessaire de nous assurer qu’ils pouvaient « voir » des objets dans l’environnement grâce au TDU. Nous avons donc tout d’abord évalué l’acuité « visuo »-tactile (article 2) des sujets AN pour les comparer aux performances des voyants ayant les yeux bandées et munis du TDU. Ensuite les sujets ont appris à négocier un chemin à travers un parcours parsemé d’obstacles i (article 3). Leur tâche consistait à pointer vers (détection), et contourner (négociation) un passage autour des obstacles. Nous avons démontré que les sujets aveugles de naissance non seulement arrivaient à accomplir cette tâche, mais encore avaient une performance meilleure que celle des voyants aux yeux bandés, et ce, malgré l’atrophie structurelle de l’hippocampe postérieur droit, et un système visuel atrophié (Ptito et al., 2008). Pour déterminer quels sont les corrélats neuronaux de la navigation, nous avons créé des routes virtuelles envoyées sur la langue par le biais du TDU que les sujets devaient reconnaitre alors qu’ils étaient dans un scanneur IRMf (article 4). Nous démontrons grâce à ces techniques que les aveugles utilisent un autre réseau cortical impliqué dans la mémoire topographique que les voyants quand ils suivent des routes virtuelles sur la langue. Nous avons mis l’emphase sur des réseaux neuronaux connectant les cortex pariétaux et frontaux au lobe occipital puisque ces réseaux sont renforcés chez les aveugles de naissance. Ces résultats démontrent aussi que la langue peut être utilisée comme une porte d’entrée vers le cerveau en y acheminant des informations sur l’environnement visuel du sujet, lui permettant ainsi d’élaborer des stratégies d’évitement d’obstacles et de se mouvoir adéquatement.
Resumo:
Le phénomène de Clignement Attentionnel (Attentional Blink, AB), fait référence à une diminution transitoire du rapport exact d’une deuxième cible (C2) si celle-ci est présentée trop tôt après une première cible (C1) lors d’une présentation visuelle sérielle rapide (rapid serial visual presentation, RSVP), et ce, quand les deux cibles doivent être rapportées. Cette étude a examiné l’existence possible d’asymétries hémisphèriques dans le traitement attentionnel ainsi que l’éventualité que la présentation de cibles à deux hémisphères différents puisse diminuer le AB chez des participants neurologiquement sains et l’abolir dans le cas d’un patient callosotomisé. Pour ce faire, nous avons employé un paradigme modifié du AB dans lequel les cibles pouvaient apparaître dans n’importe quelle de quatre RSVP, une dans chaque quadrant du champ visuel, pour permettre des essais dans lesquels les deux cibles puissent être présentées au même hémisphère et d’autres où chaque cible était présentée à un hémisphère différent. Bien que nous n’ayons trouvé aucune diminution de l’effet AB lors de présentation inter-hémisphérique, dans les deux populations à l’étude, le taux de bonnes réponses globales à la deuxième cible était plus élevé quand les cibles étaient présentées à des hémisphères différents. Nous avons également trouvé un avantage de l’hémisphère gauche chez le patient callosotomisé.
Resumo:
La texture est un élément clé pour l’interprétation des images de télédétection à fine résolution spatiale. L’intégration de l’information texturale dans un processus de classification automatisée des images se fait habituellement via des images de texture, souvent créées par le calcul de matrices de co-occurrences (MCO) des niveaux de gris. Une MCO est un histogramme des fréquences d’occurrence des paires de valeurs de pixels présentes dans les fenêtres locales, associées à tous les pixels de l’image utilisée; une paire de pixels étant définie selon un pas et une orientation donnés. Les MCO permettent le calcul de plus d’une dizaine de paramètres décrivant, de diverses manières, la distribution des fréquences, créant ainsi autant d’images texturales distinctes. L’approche de mesure des textures par MCO a été appliquée principalement sur des images de télédétection monochromes (ex. images panchromatiques, images radar monofréquence et monopolarisation). En imagerie multispectrale, une unique bande spectrale, parmi celles disponibles, est habituellement choisie pour générer des images de texture. La question que nous avons posée dans cette recherche concerne justement cette utilisation restreinte de l’information texturale dans le cas des images multispectrales. En fait, l’effet visuel d’une texture est créé, non seulement par l’agencement particulier d’objets/pixels de brillance différente, mais aussi de couleur différente. Plusieurs façons sont proposées dans la littérature pour introduire cette idée de la texture à plusieurs dimensions. Parmi celles-ci, deux en particulier nous ont intéressés dans cette recherche. La première façon fait appel aux MCO calculées bande par bande spectrale et la seconde utilise les MCO généralisées impliquant deux bandes spectrales à la fois. Dans ce dernier cas, le procédé consiste en le calcul des fréquences d’occurrence des paires de valeurs dans deux bandes spectrales différentes. Cela permet, en un seul traitement, la prise en compte dans une large mesure de la « couleur » des éléments de texture. Ces deux approches font partie des techniques dites intégratives. Pour les distinguer, nous les avons appelées dans cet ouvrage respectivement « textures grises » et « textures couleurs ». Notre recherche se présente donc comme une analyse comparative des possibilités offertes par l’application de ces deux types de signatures texturales dans le cas spécifique d’une cartographie automatisée des occupations de sol à partir d’une image multispectrale. Une signature texturale d’un objet ou d’une classe d’objets, par analogie aux signatures spectrales, est constituée d’une série de paramètres de texture mesurés sur une bande spectrale à la fois (textures grises) ou une paire de bandes spectrales à la fois (textures couleurs). Cette recherche visait non seulement à comparer les deux approches intégratives, mais aussi à identifier la composition des signatures texturales des classes d’occupation du sol favorisant leur différentiation : type de paramètres de texture / taille de la fenêtre de calcul / bandes spectrales ou combinaisons de bandes spectrales. Pour ce faire, nous avons choisi un site à l’intérieur du territoire de la Communauté Métropolitaine de Montréal (Longueuil) composé d’une mosaïque d’occupations du sol, caractéristique d’une zone semi urbaine (résidentiel, industriel/commercial, boisés, agriculture, plans d’eau…). Une image du satellite SPOT-5 (4 bandes spectrales) de 10 m de résolution spatiale a été utilisée dans cette recherche. Puisqu’une infinité d’images de texture peuvent être créées en faisant varier les paramètres de calcul des MCO et afin de mieux circonscrire notre problème nous avons décidé, en tenant compte des études publiées dans ce domaine : a) de faire varier la fenêtre de calcul de 3*3 pixels à 21*21 pixels tout en fixant le pas et l’orientation pour former les paires de pixels à (1,1), c'est-à-dire à un pas d’un pixel et une orientation de 135°; b) de limiter les analyses des MCO à huit paramètres de texture (contraste, corrélation, écart-type, énergie, entropie, homogénéité, moyenne, probabilité maximale), qui sont tous calculables par la méthode rapide de Unser, une approximation des matrices de co-occurrences, c) de former les deux signatures texturales par le même nombre d’éléments choisis d’après une analyse de la séparabilité (distance de Bhattacharya) des classes d’occupation du sol; et d) d’analyser les résultats de classification (matrices de confusion, exactitudes, coefficients Kappa) par maximum de vraisemblance pour conclure sur le potentiel des deux approches intégratives; les classes d’occupation du sol à reconnaître étaient : résidentielle basse et haute densité, commerciale/industrielle, agricole, boisés, surfaces gazonnées (incluant les golfs) et plans d’eau. Nos principales conclusions sont les suivantes a) à l’exception de la probabilité maximale, tous les autres paramètres de texture sont utiles dans la formation des signatures texturales; moyenne et écart type sont les plus utiles dans la formation des textures grises tandis que contraste et corrélation, dans le cas des textures couleurs, b) l’exactitude globale de la classification atteint un score acceptable (85%) seulement dans le cas des signatures texturales couleurs; c’est une amélioration importante par rapport aux classifications basées uniquement sur les signatures spectrales des classes d’occupation du sol dont le score est souvent situé aux alentours de 75%; ce score est atteint avec des fenêtres de calcul aux alentours de11*11 à 15*15 pixels; c) Les signatures texturales couleurs offrant des scores supérieurs à ceux obtenus avec les signatures grises de 5% à 10%; et ce avec des petites fenêtres de calcul (5*5, 7*7 et occasionnellement 9*9) d) Pour plusieurs classes d’occupation du sol prises individuellement, l’exactitude dépasse les 90% pour les deux types de signatures texturales; e) une seule classe est mieux séparable du reste par les textures grises, celle de l’agricole; f) les classes créant beaucoup de confusions, ce qui explique en grande partie le score global de la classification de 85%, sont les deux classes du résidentiel (haute et basse densité). En conclusion, nous pouvons dire que l’approche intégrative par textures couleurs d’une image multispectrale de 10 m de résolution spatiale offre un plus grand potentiel pour la cartographie des occupations du sol que l’approche intégrative par textures grises. Pour plusieurs classes d’occupations du sol un gain appréciable en temps de calcul des paramètres de texture peut être obtenu par l’utilisation des petites fenêtres de traitement. Des améliorations importantes sont escomptées pour atteindre des exactitudes de classification de 90% et plus par l’utilisation des fenêtres de calcul de taille variable adaptées à chaque type d’occupation du sol. Une méthode de classification hiérarchique pourrait être alors utilisée afin de séparer les classes recherchées une à la fois par rapport au reste au lieu d’une classification globale où l’intégration des paramètres calculés avec des fenêtres de taille variable conduirait inévitablement à des confusions entre classes.
Resumo:
Ce mémoire porte sur le recueil de poèmes La terre est ici d’Élise Turcotte. Il s’attache à analyser les modalités par lesquelles le foyer de perception des sujets poétiques engendre un déplacement de la notion de « paysage » dans l’œuvre de Turcotte. Le premier chapitre étudie l’énonciation afin de retracer comment les subjectivités de La terre est ici investissent le langage et construisent le réel qui les entoure pour en donner une perception singulière. Le second chapitre analyse la création de cet espace visuel unique qui se déploie autour de la notion de « détail », tandis que le troisième et dernier chapitre s’intéresse à la remise en cause du statisme de la vision engendrant un « art de faire » qui tend plutôt vers la mise en scène et le mouvement. L’étude de cette scène comme convocation des sujets dans le langage permet de développer la conception de l’espace comme lieu pratiqué, où les multiples perceptions des sujets composent un « paysage » à la fois visuel, tout en donnant lieu à une possibilité d’action.