11 resultados para Vision-based

em Université de Montréal, Canada


Relevância:

70.00% 70.00%

Publicador:

Resumo:

L’analyse de la marche a émergé comme l’un des domaines médicaux le plus im- portants récemment. Les systèmes à base de marqueurs sont les méthodes les plus fa- vorisées par l’évaluation du mouvement humain et l’analyse de la marche, cependant, ces systèmes nécessitent des équipements et de l’expertise spécifiques et sont lourds, coûteux et difficiles à utiliser. De nombreuses approches récentes basées sur la vision par ordinateur ont été développées pour réduire le coût des systèmes de capture de mou- vement tout en assurant un résultat de haute précision. Dans cette thèse, nous présentons notre nouveau système d’analyse de la démarche à faible coût, qui est composé de deux caméras vidéo monoculaire placées sur le côté gauche et droit d’un tapis roulant. Chaque modèle 2D de la moitié du squelette humain est reconstruit à partir de chaque vue sur la base de la segmentation dynamique de la couleur, l’analyse de la marche est alors effectuée sur ces deux modèles. La validation avec l’état de l’art basée sur la vision du système de capture de mouvement (en utilisant le Microsoft Kinect) et la réalité du ter- rain (avec des marqueurs) a été faite pour démontrer la robustesse et l’efficacité de notre système. L’erreur moyenne de l’estimation du modèle de squelette humain par rapport à la réalité du terrain entre notre méthode vs Kinect est très prometteur: les joints des angles de cuisses (6,29◦ contre 9,68◦), jambes (7,68◦ contre 11,47◦), pieds (6,14◦ contre 13,63◦), la longueur de la foulée (6.14cm rapport de 13.63cm) sont meilleurs et plus stables que ceux de la Kinect, alors que le système peut maintenir une précision assez proche de la Kinect pour les bras (7,29◦ contre 6,12◦), les bras inférieurs (8,33◦ contre 8,04◦), et le torse (8,69◦contre 6,47◦). Basé sur le modèle de squelette obtenu par chaque méthode, nous avons réalisé une étude de symétrie sur différentes articulations (coude, genou et cheville) en utilisant chaque méthode sur trois sujets différents pour voir quelle méthode permet de distinguer plus efficacement la caractéristique symétrie / asymétrie de la marche. Dans notre test, notre système a un angle de genou au maximum de 8,97◦ et 13,86◦ pour des promenades normale et asymétrique respectivement, tandis que la Kinect a donné 10,58◦et 11,94◦. Par rapport à la réalité de terrain, 7,64◦et 14,34◦, notre système a montré une plus grande précision et pouvoir discriminant entre les deux cas.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

L’amblyopie est un trouble développemental de la vision binoculaire. Elle est typiquement caractérisée par des atteintes de l’acuité visuelle et de la stéréoscopie. Toutefois, de plus en plus d’études indiquent la présence d’atteintes plus étendues telles que les difficultés d’attention visuelle ou de lecture. L’amblyopie est généralement expliquée par une suppression interoculaire au niveau cortical, considérée comme chronique ou permanente à l’extérieur de la période développementale. Or, un nombre croissant d’études suggèrent que des interactions binoculaires normales seraient présentes chez les amblyopes adultes. Dans une première étude, nous avons tenté d’identifier un marqueur électrophysiologique de la vision binoculaire. Nous avons enregistré des potentiels évoqués visuels chez des observateurs normaux à qui l’on a induit une dysfonction binoculaire. Les interactions binoculaires étaient caractérisées à l’aide de patrons (facilitation, moyennage et suppression) en comparant les réponses monoculaires et binoculaires. De plus, ces interactions étaient quantifiées à partir d’index d’intégration continus en soustrayant la somme des réponses monoculaires de la réponse binoculaire. Les résultats indiquaient que les patrons d’interaction n’étaient pas optimaux pour estimer les performances stéréoscopiques. Ces dernières étaient, en revanche, mieux expliquées par notre index d’intégration binoculaire. Ainsi, cette étude suggère que l’électrophysiologie est un bon prédicteur de la vision binoculaire. Dans une deuxième étude, nous avons examiné les corrélats neuronaux et comportementaux de la suppression interoculaire chez des amblyopes adultes et des observateurs normaux. Des potentiels évoqués visuels stationnaires ont été enregistrés en utilisant un paradigme de suppression par flash. La suppression était modulée par un changement de contraste du stimulus flash (10, 20, 30, ou 100%), ou le suppresseur, qui était présenté soit dans l’œil dominant ou non-dominant (ou amblyope). Sur le plan comportemental, la suppression interoculaire était observée indépendamment de l’œil stimulé par le flash chez les contrôles. Au contraire, chez les amblyopes, la suppression était asymétrique (c’est-à-dire supérieure lorsqu’elle provenait de l’œil dominant), ce qui suggérait une suppression chronique. De manière intéressante, l’œil amblyope a supprimé l’œil dominant à haut niveau de contraste. Sur le plan électrophysiologique, l’effet de suppression interoculaire observé à la région occipitale était équivalent dans chaque groupe. Toutefois, les réponses électrophysiologiques à la région frontale chez les amblyopes n’étaient pas modulées comme celles des contrôles; la suppression de l’œil amblyope était manifeste même à bas contraste. Nous résultats supportent ainsi l’existence d’interaction binoculaire fonctionnelle chez les amblyopes adultes ainsi que l’implication d’un réseau cortical étendu dans la suppression interoculaire. En somme, l’amblyopie est une condition complexe dont les atteintes corticales et les déficits fonctionnels semblent globaux. L’amblyopie ne doit plus être considérée comme limitée à une dysfonction de l’aire visuelle primaire. La suppression interoculaire semble un point central de cette problématique, mais encore beaucoup d’études seront nécessaires afin de déterminer l’ensemble des mécanismes impliqués dans celle-ci.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les tâches de vision artificielle telles que la reconnaissance d’objets demeurent irrésolues à ce jour. Les algorithmes d’apprentissage tels que les Réseaux de Neurones Artificiels (RNA), représentent une approche prometteuse permettant d’apprendre des caractéristiques utiles pour ces tâches. Ce processus d’optimisation est néanmoins difficile. Les réseaux profonds à base de Machine de Boltzmann Restreintes (RBM) ont récemment été proposés afin de guider l’extraction de représentations intermédiaires, grâce à un algorithme d’apprentissage non-supervisé. Ce mémoire présente, par l’entremise de trois articles, des contributions à ce domaine de recherche. Le premier article traite de la RBM convolutionelle. L’usage de champs réceptifs locaux ainsi que le regroupement d’unités cachées en couches partageant les même paramètres, réduit considérablement le nombre de paramètres à apprendre et engendre des détecteurs de caractéristiques locaux et équivariant aux translations. Ceci mène à des modèles ayant une meilleure vraisemblance, comparativement aux RBMs entraînées sur des segments d’images. Le deuxième article est motivé par des découvertes récentes en neurosciences. Il analyse l’impact d’unités quadratiques sur des tâches de classification visuelles, ainsi que celui d’une nouvelle fonction d’activation. Nous observons que les RNAs à base d’unités quadratiques utilisant la fonction softsign, donnent de meilleures performances de généralisation. Le dernière article quand à lui, offre une vision critique des algorithmes populaires d’entraînement de RBMs. Nous montrons que l’algorithme de Divergence Contrastive (CD) et la CD Persistente ne sont pas robustes : tous deux nécessitent une surface d’énergie relativement plate afin que leur chaîne négative puisse mixer. La PCD à "poids rapides" contourne ce problème en perturbant légèrement le modèle, cependant, ceci génère des échantillons bruités. L’usage de chaînes tempérées dans la phase négative est une façon robuste d’adresser ces problèmes et mène à de meilleurs modèles génératifs.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thése a été réalisée dans le cadre d'une cotutelle avec l'Institut National Polytechnique de Grenoble (France). La recherche a été effectuée au sein des laboratoires de vision 3D (DIRO, UdM) et PERCEPTION-INRIA (Grenoble).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En octobre 2005, l’assemblée générale de l’UNESCO adoptait la Déclaration universelle sur la bioéthique et les droits de l’Homme. Le projet de cette déclaration a été élaboré par le Comité international de bioéthique (CIB) en consultation avec le Comité intergouvernemental de bioéthique (CIGB), les États membres, le comité interagences des Nations Unies, des organisations gouvernementales et non gouvernementales, des comités nationaux d’éthiques et de multiples acteurs impliqués en bioéthique. Cette déclaration faisait suite à deux autres textes sur le même sujet produits en 1997 et 2003, la Déclaration sur le génome humain et les droits de l’homme et la Déclaration internationale sur les données génétiques humaines. Les nouvelles questions éthiques que suscitaient les développements scientifiques et technologiques ainsi que la mondialisation de la recherche avaient incité cette organisation à se doter d’instruments normatifs pouvant rejoindre toutes les nations. Seule organisation mondiale ayant une vocation spécifique en éthique, l’UNESCO a voulu par cette dernière déclaration fournir à ses États membres un cadre normatif susceptible de les aider à formuler des lois et des lignes directrices. Ayant été impliquée, à titre de présidente du Comité international de bioéthique dans la préparation de cet instrument nous nous sommes posée la question suivante : Dans un contexte de mondialisation, une bioéthique qui vise le bien commun universel est-elle possible au sein de la diversité et de la pluralité culturelle des nations ? L’exemple de l’élaboration de la déclaration universelle sur la bioéthique et les droits de l’homme de l’UNESCO. Le bien commun étant un concept fréquemment mentionné et à peu près jamais défini clairement, il nous a semblé intéressant d’en retracer l’histoire et de dégager un cadre conceptuel qui a ensuite servi à étudier et dégager le sens donné à ces concepts dans la préparation de la déclaration. Un premier chapitre présente le contexte et la problématique. Le deuxième chapitre présente la revue de la littérature et la définition des concepts ainsi que le cadre conceptuel. Le troisième chapitre présente le cadre théorique et les données analysées et la méthodologie. Le quatrième chapitre présente l’analyse détaillée des différentes étapes de l’élaboration de la déclaration. Le cinquième chapitre présente la portée et les limites de la thèse et le cinquième chapitre la conclusion. Nous concluons que la déclaration en ayant utilisé une méthode de consultation, de délibération et de consensus pragmatique, offre un texte avec une vision d’un bien commun universel susceptible d’être utilisé dans tous les contextes culturels et par toutes les nations, spécialement les nations en développement. En effet, son architecture flexible et son souci de ne pas catégoriser les principes, mais plutôt de les utiliser en complémentarité les uns avec les autres, en fait un texte souple et adaptable au plan mondial. Ce travail pourra aussi contribuer à enrichir la réflexion et l’action des organisations internationales impliquées en bioéthique. Il pourra aussi inspirer les recherches actuelles en sciences politiques et en droit alors que sont explorés de nouveaux modèles de gouvernance et de nouvelles façons de construire les législations et les normes et de faire face aux défis actuels qui se posent aux droits de l’homme.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En observant le foisonnement de métaphores de la lumière et de la vision dans l’œuvre de Reinaldo Arenas – l’accentuation de la couleur, l’éblouissement, la brûlure et le dédoublement – cette thèse s’interroge sur la vision de l’écriture formulée dans et à partir de ces images, et sur les implications de cette vision. Constatant à travers cette réflexion l’inscription à même le langage des images de la lumière et de la vision – de la réflexion à la clarté, en passant par l’image et la lucidité – cette thèse délibère, à travers l’œuvre de Reinaldo Arenas et celle de Jorge Luis Borges, sur une définition de l’écriture comme intensité, notion et image empruntées au registre du sensible par le détour de la physique. Le premier chapitre s’intéresse à la couleur comme phénomène de la vision, du sensible, de l’affect et de la nuance, ainsi qu’à la métaphore de la cécité abordée par Borges et par Paul de Man comme phénomène de la lecture, points d’entrée à une réflexion sur l’écriture. Le second chapitre aborde la notion d’éblouissement en tant qu’intensité de la lumière et temporalité de la prise de conscience lucide, définissant ainsi une vision du temps et les affinités entre la temporalité de l’écriture et celle de l’image poétique. Le troisième chapitre, réitérant la question de la relation au temps – historique et narratif –, réaffirme les inflexions du langage en fonction de la lumière, c’est-à-dire la relation entre l’aspect « lumineux » du langage, l’intensité de la lumière et l’intensité de l’écriture (entendue comme écriture littéraire), en explorant le seuil (la destruction par le feu) mis en lumière par l’image du phénix, figure mythique et littéraire de la transformation des images, selon la définition de l’imagination proposée par Gaston Bachelard. Enfin, la double conclusion (une conclusion en deux parties, ou deux conclusions réfléchies l’une dans l’autre), relie les images poétiques de la lumière évoquées et leurs implications en examinant la portée d’une vision de l’écriture comme intensité. Cette idée est élaborée à travers l’image finale du double, figure littéraire constitutive et omniprésente à la fois chez Arenas et chez Borges, image non seulement de la relation entre le personnage et son double (qui relève de l’hallucination ou de l’imagination, images, encore une fois, de la vision), mais aussi de la relation entre l’auteur et le texte, le lecteur et le texte, l’écriture et le temps. La double conclusion vise le dédoublement et redoublement comme figures de l’intensité dans l’écriture. Le lien entre la vision métaphorique et l’écriture comme intensité est donc articulé par la métaphore, telle qu’entendue par Borges, élargie à l’image poétique dans la perspective de Gaston Bachelard ; elle s’appuie sur la vision de la littérature pensée et écrite par Arenas. La réflexion est double : dans le texte et sur le texte, au plan poétique et au plan d’une réflexion sur l’écriture d’Arenas ; sur l’écriture et, implicitement, sur la littérature.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’étude que nous avons entreprise dans le cadre de notre mémoire porte sur la domesticité juvénile en Haïti. S’agissant d’une pratique où l’enfant placé en domesticité, en plus d’accomplir des travaux ménagers qui nuisent à son éducation, est généralement victime de mauvais traitements, l’objectif principal de notre recherche était de mettre en lumière les normes existant en matière d’éducation et de traitement physique des jeunes travailleurs domestiques. Inspirée du pluralisme juridique, qui s’intéresse aux divers niveaux de normes existant au sein d’une société, la démarche entreprise pour y parvenir allie recherche théorique et recherche sur le terrain. Dans un premier temps, nous présenterons les informations que notre recherche théorique nous a révélées. Après avoir précisé la notion d’« enfant domestique haïtien », dressé le profil social des acteurs impliqués dans la pratique de la domesticité et identifié les facteurs contingents les plus déterminants, nous dresserons un tableau des principales normes nationales et internationales garantissant aux enfants le droit à l’instruction scolaire et le respect de leur intégrité physique. Dans un second temps, nous exposerons les normes de conduite locales relatives à l’éducation et au traitement physique des jeunes travailleurs domestiques que notre recherche empirique en Haïti nous a permis de découvrir. Sur la base des normes applicables déterminées, nous serons mieux à même de mesurer l’importance de chacune dans la conduite des familles qui reçoivent des enfants domestiques sous leur toit et d’identifier les actions les plus susceptibles d’améliorer la qualité de vie de ceux-ci.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ce mémoire est une étude sur le développement local comme stratégie de lutte contre la pauvreté en Haïti. C'est une étude de cas sur une stratégie qui a été implantée par la WVI dans plusieurs communautés pauvres en Haïti, le Programme de Développement de zone (PDZ). Nous avons cherché à savoir comment le PDZ a permis de mettre en place un projet de développement local de lutte contre la pauvreté dans ces communautés. Plus spécifiquement, nous avons analysé, à l'aide de la perspective de Klein et al. (2011), le type de stratégie de développement local auquel le PDZ correspond et vu comment il implique les communautés visées. En effet, plusieurs dimensions, dont la majorité proposée par Klein et al. ont été analysées : le transfert de la stratégie aux leaders locaux ; le processus de leadership local (individuel, organisationnel et socio-territorial) ; la mobilisation des ressources endogènes et exogène ; l'utilisation créative des programmes publics ; la gestion locale des conflits et apprentissage collectif ; et la construction d'une identité positive et d'un sentiment d'appartenance. Ce mémoire fait ressortir une critique souvent adressée à l'endroit des interventions des ONGI, à savoir que la situation de dépendance qu'elles engendrent compte tenu de l'approche assistentialiste sur laquelle elles sont souvent échafaudées. Particulièrement, l'étude du PDZ, nous renseigne que dans un contexte de grande pauvreté, de cumulation de désavantages (en termes de ressources humaines, économiques, politiques), ou d'obstacles objectifs, le développement par initiatives locales soulève des défis et enjeux majeurs. Les données montrent que la stratégie du PDZ __ bien qu'elle soit parvenue à développer un leadership local ; à favoriser une circulation limité de ressources économiques ; à permettre la construction d'une identité positive chez certaines personnes ; __ ne permet pas une mobilisation locale co-construite qui viendrait maintenir les actions mises de l'avant en faveur des priorités dégagées par les communautés elles-mêmes. Enfin, à travers l'analyse nous avons pu conclure qu'elle correspond à un modèle top-down.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’objectif de cette thèse par articles est de présenter modestement quelques étapes du parcours qui mènera (on espère) à une solution générale du problème de l’intelligence artificielle. Cette thèse contient quatre articles qui présentent chacun une différente nouvelle méthode d’inférence perceptive en utilisant l’apprentissage machine et, plus particulièrement, les réseaux neuronaux profonds. Chacun de ces documents met en évidence l’utilité de sa méthode proposée dans le cadre d’une tâche de vision par ordinateur. Ces méthodes sont applicables dans un contexte plus général, et dans certains cas elles on tété appliquées ailleurs, mais ceci ne sera pas abordé dans le contexte de cette de thèse. Dans le premier article, nous présentons deux nouveaux algorithmes d’inférence variationelle pour le modèle génératif d’images appelé codage parcimonieux “spike- and-slab” (CPSS). Ces méthodes d’inférence plus rapides nous permettent d’utiliser des modèles CPSS de tailles beaucoup plus grandes qu’auparavant. Nous démontrons qu’elles sont meilleures pour extraire des détecteur de caractéristiques quand très peu d’exemples étiquetés sont disponibles pour l’entraînement. Partant d’un modèle CPSS, nous construisons ensuite une architecture profonde, la machine de Boltzmann profonde partiellement dirigée (MBP-PD). Ce modèle a été conçu de manière à simplifier d’entraînement des machines de Boltzmann profondes qui nécessitent normalement une phase de pré-entraînement glouton pour chaque couche. Ce problème est réglé dans une certaine mesure, mais le coût d’inférence dans le nouveau modèle est relativement trop élevé pour permettre de l’utiliser de manière pratique. Dans le deuxième article, nous revenons au problème d’entraînement joint de machines de Boltzmann profondes. Cette fois, au lieu de changer de famille de modèles, nous introduisons un nouveau critère d’entraînement qui donne naissance aux machines de Boltzmann profondes à multiples prédictions (MBP-MP). Les MBP-MP sont entraînables en une seule étape et ont un meilleur taux de succès en classification que les MBP classiques. Elles s’entraînent aussi avec des méthodes variationelles standard au lieu de nécessiter un classificateur discriminant pour obtenir un bon taux de succès en classification. Par contre, un des inconvénients de tels modèles est leur incapacité de générer deséchantillons, mais ceci n’est pas trop grave puisque la performance de classification des machines de Boltzmann profondes n’est plus une priorité étant donné les dernières avancées en apprentissage supervisé. Malgré cela, les MBP-MP demeurent intéressantes parce qu’elles sont capable d’accomplir certaines tâches que des modèles purement supervisés ne peuvent pas faire, telles que celle de classifier des données incomplètes ou encore celle de combler intelligemment l’information manquante dans ces données incomplètes. Le travail présenté dans cette thèse s’est déroulé au milieu d’une période de transformations importantes du domaine de l’apprentissage à réseaux neuronaux profonds qui a été déclenchée par la découverte de l’algorithme de “dropout” par Geoffrey Hinton. Dropout rend possible un entraînement purement supervisé d’architectures de propagation unidirectionnel sans être exposé au danger de sur- entraînement. Le troisième article présenté dans cette thèse introduit une nouvelle fonction d’activation spécialement con ̧cue pour aller avec l’algorithme de Dropout. Cette fonction d’activation, appelée maxout, permet l’utilisation de aggrégation multi-canal dans un contexte d’apprentissage purement supervisé. Nous démontrons comment plusieurs tâches de reconnaissance d’objets sont mieux accomplies par l’utilisation de maxout. Pour terminer, sont présentons un vrai cas d’utilisation dans l’industrie pour la transcription d’adresses de maisons à plusieurs chiffres. En combinant maxout avec une nouvelle sorte de couche de sortie pour des réseaux neuronaux de convolution, nous démontrons qu’il est possible d’atteindre un taux de succès comparable à celui des humains sur un ensemble de données coriace constitué de photos prises par les voitures de Google. Ce système a été déployé avec succès chez Google pour lire environ cent million d’adresses de maisons.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette recherche avait pour but de déterminer quelle était l’influence de l’administration d’un atelier de prise de notes dans le cadre du premier cours de philosophie du collégial qui se donnait au début de la deuxième session des apprenants. Elle se situait dans le cadre d’une recherche intervention et le point de vue des parties prenantes, à savoir les apprenants et les enseignants, était recueilli de façon qualitative. Les premiers, forts d’une expérience d’une session au niveau collégial, ont exprimé le besoin de suivre une formation formelle liée à la prise de notes, quand bien même celle-ci leur demanderait un effort supplémentaire. Les deuxièmes nous ont fait part de leurs préoccupations en ce qui a trait à la qualité des notes de leurs étudiants. Nous avons demandé aux répondants de restituer les thèmes principaux de deux textes équivalents distribués de façon simultanée en fonction des rangées (première rangée – premier texte, deuxième rangée – deuxième texte, etc.), puis nous avons interverti l’ordre de distribution des textes après l’atelier. Lors de l’analyse des résultats, nous avons constaté que les répondants avaient restitué les thèmes dans un ordre d’importance plus approprié après l’atelier qu’avant celui-ci, mais nous avons surtout remarqué une amélioration significative dans l’emploi des stratégies de prise de notes et dans la constance de leur utilisation tout au long du second texte étudié.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Certaines recherches ont investigué le traitement visuel de bas et de plus hauts niveaux chez des personnes neurotypiques et chez des personnes ayant un trouble du spectre de l’autisme (TSA). Cependant, l’interaction développementale entre chacun de ces niveaux du traitement visuel n’est toujours pas bien comprise. La présente thèse a donc deux objectifs principaux. Le premier objectif (Étude 1) est d’évaluer l’interaction développementale entre l’analyse visuelle de bas niveaux et de niveaux intermédiaires à travers différentes périodes développementales (âge scolaire, adolescence et âge adulte). Le second objectif (Étude 2) est d’évaluer la relation fonctionnelle entre le traitement visuel de bas niveaux et de niveaux intermédiaires chez des adolescents et des adultes ayant un TSA. Ces deux objectifs ont été évalué en utilisant les mêmes stimuli et procédures. Plus précisément, la sensibilité de formes circulaires complexes (Formes de Fréquences Radiales ou FFR), définies par de la luminance ou par de la texture, a été mesurée avec une procédure à choix forcés à deux alternatives. Les résultats de la première étude ont illustré que l’information locale des FFR sous-jacents aux processus visuels de niveaux intermédiaires, affecte différemment la sensibilité à travers des périodes développementales distinctes. Plus précisément, lorsque le contour est défini par de la luminance, la performance des enfants est plus faible comparativement à celle des adolescents et des adultes pour les FFR sollicitant la perception globale. Lorsque les FFR sont définies par la texture, la sensibilité des enfants est plus faible comparativement à celle des adolescents et des adultes pour les conditions locales et globales. Par conséquent, le type d’information locale, qui définit les éléments locaux de la forme globale, influence la période à laquelle la sensibilité visuelle atteint un niveau développemental similaire à celle identifiée chez les adultes. Il est possible qu’une faible intégration visuelle entre les mécanismes de bas et de niveaux intermédiaires explique la sensibilité réduite des FFR chez les enfants. Ceci peut être attribué à des connexions descendantes et horizontales immatures ainsi qu’au sous-développement de certaines aires cérébrales du système visuel. Les résultats de la deuxième étude ont démontré que la sensibilité visuelle en autisme est influencée par la manipulation de l’information locale. Plus précisément, en présence de luminance, la sensibilité est seulement affectée pour les conditions sollicitant un traitement local chez les personnes avec un TSA. Cependant, en présence de texture, la sensibilité est réduite pour le traitement visuel global et local. Ces résultats suggèrent que la perception de formes en autisme est reliée à l’efficacité à laquelle les éléments locaux (luminance versus texture) sont traités. Les connexions latérales et ascendantes / descendantes des aires visuelles primaires sont possiblement tributaires d’un déséquilibre entre les signaux excitateurs et inhibiteurs, influençant ainsi l’efficacité à laquelle l’information visuelle de luminance et de texture est traitée en autisme. Ces résultats supportent l’hypothèse selon laquelle les altérations de la perception visuelle de bas niveaux (local) sont à l’origine des atypies de plus hauts niveaux chez les personnes avec un TSA.