819 resultados para Visual surveillance, Human activity recognition, Video annotation
Resumo:
Relatório da Prática de Ensino Supervisionada, Mestrado em Ensino da Filosofia, Universidade de Lisboa, 2014
Resumo:
Thesis (Master's)--University of Washington, 2016-03
Resumo:
Relatório de estágio apresentado ao Instituto de Contabilidade e Administração do Porto para a obtenção do grau de Mestre em Empreendedorismo e Internacionalização, sob orientação de Doutora Ana Azevedo.
Resumo:
This paper describes the TURTLE project that aim to develop sub-systems with the capability of deep-sea long-term presence. Our motivation is to produce new robotic ascend and descend energy efficient technologies to be incorporated in robotic vehicles used by civil and military stakeholders for underwater operations. TURTLE contribute to the sustainable presence and operations in the sea bottom. Long term presence on sea bottom, increased awareness and operation capabilities in underwater sea and in particular on benthic deeps can only be achieved through the use of advanced technologies, leading to automation of operation, reducing operational costs and increasing efficiency of human activity.
Resumo:
RESUMO - Os nanomateriais manufaturados (NMs), isto é, fabricados deliberadamente para fins específicos, apresentam propriedades físico-químicas únicas como a dimensão, área superficial ou funcionalização, que lhes conferem caraterísticas mecânicas, óticas, elétricas e magnéticas muito vantajosas para aplicações industriais e biomédicas. Efetivamente, a tecnologia baseada nos NMs, ou nanotecnologia, foi identificada como uma key enabling technology, impulsionadora do crescimento económico dos países industrializados, devido ao seu potencial para melhorar a qualidade e desempenho de muitos tipos de produtos e de processos. Contudo, a expansão da utilização de NMs contrasta com a insuficiente avaliação de risco para a saúde humana e para o ambiente, sendo considerados como um risco emergente para a saúde pública. As incertezas sobre a segurança dos NMs para a saúde pública advêm sobretudo de estudos epidemiológicos em humanos expostos a nanomateriais produzidos como consequência dos processos e atividades humanas e da poluição. Uma das principais preocupações relativamente aos efeitos adversos dos NMs na saúde humana é o seu potencial efeito carcinogénico, que é sugerido por alguns estudos experimentais, como no caso dos nanomateriais de dióxido de titânio ou dos nanotubos de carbono. Para avaliar em curto termo as propriedades carcinogénicas de um composto, utilizam-se frequentemente ensaios de genotoxicidade em linhas celulares de mamífero ou ensaios em modelos animais, em que se analisa uma variedade de lesões genéticas potencialmente relacionados com o processo de carcinogénese. No entanto, a investigação sobre as propriedades genotóxicas dos NMs não foi, até hoje, conclusiva. O presente estudo tem por objectivo principal caracterizar os efeitos genotóxicos associados à exposição a nanomateriais manufaturados, de forma a contribuir para a avaliação da sua segurança. Constituíram objectivos específicos deste estudo: i) avaliar a genotoxicidade dos NMs em três tipos de células humanas expostas in vitro: linfócitos humanos primários, linha celular de epitélio brônquico humano (BEAS-2B) e linha celular de adenocarcinoma epitelial de pulmão humano (A549); ii) avaliar a sua genotoxicidade num modelo de ratinho transgénico; iii) investigar alguns mecanismos de acção que poderão contribuir para a genotoxicidade dos nanomateriais, como a contribuição de lesões oxidativas para a genotoxicidade induzida pelos NMs in vitro, e a investigação da sua bioacumulação e localização celular in vivo. Foram analisados os efeitos genotóxicos associados à exposição a duas classes de NMs, dióxido de titânio e nanotubos de carbono de parede múltipla, bem como a um NM de óxido de zinco, candidato a ser utlilizado como controlo positivo de dimensão nanométrica. Os xx NMs utilizados foram previamente caracterizados com detalhe relativamente às suas características físico-químicas e também relativamente à sua dispersão em meio aquoso e no meio de cultura. A metodologia incluiu ensaios de citotoxicidade e de genotoxicidade in vitro, designadamente, ensaios de quebras no DNA (ensaio do cometa) e nos cromossomas (ensaio do micronúcleo) em células humanas expostas a várias concentrações de NMs, por comparação com células não expostas. Também foram realizados ensaios in vivo de quebras no DNA, quebras cromossómicas e ainda um ensaio de mutações em vários órgãos de grupos de ratinhos transgénicos LacZ, expostos por via intravenosa a duas doses de dióxido de titânio. Foi investigada a existência de uma relação dose-resposta após exposição das células humanas ou dos animais a NMs. A contribuição de lesões oxidativas para a genotoxicidade após exposição das células aos NMs in vitro foi explorada através do ensaio do cometa modificado com enzima. Realizaram-se estudos histológicos e citológicos para deteção e localização celular dos NMs nos órgãos-alvo dos ratinhos expostos in vivo. Os resultados demonstraram efeitos genotóxicos em alguns dos NMs analisados em células humanas. No entanto, os efeitos genotóxicos, quando positivos, foram em níveis reduzidos, ainda que superiores aos valores dos controlos, e a sua reprodutibilidade era dependente do sistema experimental utilizado. Para outros NMs, a evidência de genotoxicidade revelou-se equívoca, conduzindo à necessidade de esclarecimento através de ensaios in vivo. Para esse fim, recorreu-se a uma análise integrada de múltiplos parâmetros num modelo animal, o ratinho transgénico baseado em plasmídeo contendo o gene LacZ exposto a um NM de dióxido de titânio, NM-102. Embora tenha sido demonstrada a exposição e a acumulação do NM no fígado, não se observaram efeitos genotóxicos nem no fígado, nem no baço nem no sangue dos ratinhos expostos a esse NM. Neste estudo concluiu-se que algumas formas de dióxido de titânio e nanotubos de carbono de parede múltipla produzem efeitos genotóxicos em células humanas, contribuindo para o conjunto de evidências sobre o efeito genotóxico desses NMs. As diferenças observadas relativamente à genotoxicidade entre NMs do mesmo tipo, mas distintos em algumas das suas características físico-quimicas, aparentemente não são negligenciáveis, pelo que os resultados obtidos para um NM não devem ser generalizados ao grupo correspondente. Para além disso, a genotoxicidade equívoca verificada para o NM-102 em células humanas expostas in vitro, não foi confirmada no modelo in vivo, pelo que o valor preditivo da utilização dos ensaios in vitro para a identificação de NMs com efeitos genotóxicos (e portanto potencialmente carcinogénicos) ainda tem de ser esclarecido antes de ser possível extrapolar as conclusões para a saúde humana. Por sua vez, como a informação aqui produzida pelas metodologias in vitro e in vivo não reflete os efeitos de exposição continua ou prolongada, que poderá conduzir a efeitos genotóxicos distintos, esta xxi deverá ser complementada com outras linhas de evidência relativamente à segurança dos NMs. Perante a incerteza dos níveis de exposição real do organismo humano e do ambiente, a segurança da utilização dos NMs não pode ser garantida a longo prazo e, tendo em conta a elevada produção e utilização destes NMs, são prementes futuros estudos de monitorização ambiental e humana.
Resumo:
In the literature, introduced taxa are assumed to be present, more abundant, and occupy greater physical space in portions of ecosystems disturbed by human activity. This study tested this principle in two sites, Short Hills provincial Park ("SHU) and Backus Woods ("B~l"). spatial distribution of introduced taxa of vegetation, isopods, and earthworms was determined with the runs test along 300m transects encompassing gradients of anthropogenic disturbance severity. The hypothesis was that introduced taxa would be aggregated along these transects; the null hypothesis was that they would not be aggregated. The null hypothesis was rejected for the introduced taxa as a unit, and vegetation and earthworms individually. Introduced taxa were aggregated along 53.33% (N~30) and 57.14% (N~21) of the transects in SH and BW (respectively). Introduced vegetation (90.00%, N~10 and 100.00%, N~7) and earthworms (50.00%, N~10 and 50.00%, N~8) were also significantly aggregated within the sites. Introduced isopods, however, were not significantly aggregated at either place (20. 00%, N-=10 and 16. 67%, ~J~6). This study demonstrated that introduced taxa are aggregated within ecosystems disturbed by human activity. However, since introduced isopods were not significantly aggregated it was also shown that taxa respond differently.
Resumo:
Crawford Lake, Ontario, provides an ideal natural laboratory to study the response of freshwater dinoflagellates to cultural eutrophication. The anoxic bottom waters that result from meromixis in this small (2.4 ha) but deep (24 m) lake preserve varved sediments that host an exceptional fossil record. These annual layers provide dates for human activity (agriculture and land disturbance) around the lake over the last millennium by both Iroquoian village farmers (ca. A.D. 1268-1486) and Canadian farmers beginning ~A.D. 1883. The well established separate intervals of human activity around Crawford Lake, together with an abundance of available data from other fossil groups, allow us to further investigate the potential use of the cyst of freshwater dinoflagellates in studies of eutrophication. Cyst morphotypes observed have been assigned as Peridinium willei Huitfeldt-Kaas, Peridinium wisconsinense Eddy and Peridinium volzii Lemmermann and Parvodinium inconspicuum (Lemmermann) Carty. The latter two cyst-theca relationships were determined by culturing and by the exceptional preservation of thecae of P. inconspicuum in varves deposited at times of anthropogenic reductions in dissolved oxygen.
Resumo:
Lexical processing among bilinguals is often affected by complex patterns of individual experience. In this paper we discuss the psychocentric perspective on language representation and processing, which highlights the centrality of individual experience in psycholinguistic experimentation. We discuss applications to the investigation of lexical processing among multilinguals and explore the advantages of using high-density experiments with multilinguals. High density experiments are designed to co-index measures of lexical perception and production, as well as participant profiles. We discuss the challenges associated with the characterization of participant profiles and present a new data visualization technique, that we term Facial Profiles. This technique is based on Chernoff faces developed over 40 years ago. The Facial Profile technique seeks to overcome some of the challenges associated with the use of Chernoff faces, while maintaining the core insight that recoding multivariate data as facial features can engage the human face recognition system and thus enhance our ability to detect and interpret patterns within multivariate datasets. We demonstrate that Facial Profiles can code participant characteristics in lexical processing studies by recoding variables such as reading ability, speaking ability, and listening ability into iconically-related relative sizes of eye, mouth, and ear, respectively. The balance of ability in bilinguals can be captured by creating composite facial profiles or Janus Facial Profiles. We demonstrate the use of Facial Profiles and Janus Facial Profiles in the characterization of participant effects in the study of lexical perception and production.
Resumo:
Les nanosciences et les nanotechnologies (NST) s’inscrivent dans un champ technoscientifique, le nanomonde, qui a pour socle l’hybridation autant conceptuelle que pratique entre le domaine de la nature et celui de la technique. Dans ce mémoire nous nous intéressons au basculement de la distinction entre le naturel et l’artificiel qui s’ensuit. Un retour socio-historique sur la construction du dualisme nature/artifice propre aux sociétés modernes nous aide alors à saisir les enjeux socio-culturels impliqués dans sa remise en question. La déconstruction, à travers la méthode d’analyse de discours, d’entretiens réalisés avec les principaux chercheurs en NST au Québec illustre empiriquement, tout en le systématisant, le double processus d’artificialisation de la nature et de naturalisation de la technique, pointé théoriquement comme caractéristique de la remise en cause de la distinction entre nature et artifice qu’opère le nanomonde. Nous suggérons que l’artificialisation de la nature et la naturalisation de la technique, loin d’être contradictoires, constituent des éléments d’une dynamique synergique dont le résultat est une désontologisation de la nature comme catégorie de la pensée et une déqualification du monde qui distingue l’activité humaine.
Resumo:
La zeitgesit contemporaine sur la reconnaissance des visages suggère que le processus de reconnaissance reposerait essentiellement sur le traitement des distances entre les attributs internes du visage. Il est toutefois surprenant de noter que cette hypothèse n’a jamais été évaluée directement dans la littérature. Pour ce faire, 515 photographies de visages ont été annotées afin d’évaluer l’information véhiculée par de telles distances. Les résultats obtenus suggèrent que les études précédentes ayant utilisé des modifications de ces distances ont présenté 4 fois plus d’informations que les distances inter-attributs du monde réel. De plus, il semblerait que les observateurs humains utilisent difficilement les distances inter-attributs issues de visages réels pour reconnaître leurs semblables à plusieurs distances de visionnement (pourcentage correct maximal de 65%). Qui plus est, la performance des observateurs est presque parfaitement restaurée lorsque l’information des distances inter-attributs n’est pas utilisable mais que les observateurs peuvent utiliser les autres sources d’information de visages réels. Nous concluons que des indices faciaux autre que les distances inter-attributs tel que la forme des attributs et les propriétés de la peau véhiculent l’information utilisée par le système visuel pour opérer la reconnaissance des visages.
Resumo:
Cette thèse propose une analyse croisée du cinéma et du jeu vidéo sous un angle interdisciplinaire afin de montrer la réappropriation et le remédiatisation des structures narratives et formelles du jeu vidéo dans le cinéma d’effets visuels du tournant du XXIe siècle. Plus spécifiquement, la thèse porte sur l’analyse de trois figures majeures du jeu vidéo et de l’animation dans la trilogie Matrix (Larry et Andy Wachowski, 1999-2003), dans Avalon (Mamoru Oshii, 2001) et dans Kung-Fu Hustle (Stephen Chow, 2004). La première section de la thèse consiste en une mise en place théorique par la présentation de certains paramètres esthétiques du cinéma d’effets visuels et du jeu vidéo. Quelques réflexions préliminaires sur l’esthétique du cinéma d’effets visuels sont d’abord esquissées avant de présenter les principales relations transmédiales entre le cinéma et le jeu vidéo. Ensuite, c’est le cinéma transludique qui est défini alors que le terme découle de la synergie singulière entre le cinéma et le jeu vidéo. Puisque le cinéma transludique concerne spécifiquement la récupération de l’esthétique du jeu vidéo dans le cinéma contemporain, les prémisses d’une esthétique du jeu vidéo sont alors établies. Dans la deuxième section, ce sont les figures et sous-figures au cœur de cette réflexion qui sont développées, pour ensuite les appliquer aux films du corpus. La première figure à l’étude est celle de l’exploration, alors que l’analyse de la signification de cette figure dans la conception de jeu vidéo et dans les récits cinématographiques de science-fiction montre l’importance de la navigation comme expérience spatio-temporelle dans les univers virtuels. Ensuite, c’est l’utilisation récurrente de la figure vidéoludique du niveau (level) dans le cinéma hybride contemporain qui est soulignée, figure qui structure autant le récit que la forme représentationnelle des films transludiques. Enfin, la figure de la métamorphose, indissociable du cinéma d’animation, est étudiée afin de souligner l’importance de cette figure dans la création numérique et d’expliquer la transformation de l’image qui affecte le cinéma transludique, image qualifiée d’image-frontière.
Resumo:
La vision est un élément très important pour la navigation en général. Grâce à des mécanismes compensatoires les aveugles de naissance ne sont pas handicapés dans leurs compétences spatio-cognitives, ni dans la formation de nouvelles cartes spatiales. Malgré l’essor des études sur la plasticité du cerveau et la navigation chez les aveugles, les substrats neuronaux compensatoires pour la préservation de cette fonction demeurent incompris. Nous avons démontré récemment (article 1) en utilisant une technique d’analyse volumétrique (Voxel-Based Morphometry) que les aveugles de naissance (AN) montrent une diminution de la partie postérieure de l’hippocampe droit, structure cérébrale importante dans la formation de cartes spatiales. Comment les AN forment-ils des cartes cognitives de leur environnement avec un hippocampe postérieur droit qui est significativement réduit ? Pour répondre à cette question nous avons choisi d’exploiter un appareil de substitution sensorielle qui pourrait potentiellement servir à la navigation chez les AN. Cet appareil d’affichage lingual (Tongue display unit -TDU-) retransmet l’information graphique issue d’une caméra sur la langue. Avant de demander à nos sujets de naviguer à l’aide du TDU, il était nécessaire de nous assurer qu’ils pouvaient « voir » des objets dans l’environnement grâce au TDU. Nous avons donc tout d’abord évalué l’acuité « visuo »-tactile (article 2) des sujets AN pour les comparer aux performances des voyants ayant les yeux bandées et munis du TDU. Ensuite les sujets ont appris à négocier un chemin à travers un parcours parsemé d’obstacles i (article 3). Leur tâche consistait à pointer vers (détection), et contourner (négociation) un passage autour des obstacles. Nous avons démontré que les sujets aveugles de naissance non seulement arrivaient à accomplir cette tâche, mais encore avaient une performance meilleure que celle des voyants aux yeux bandés, et ce, malgré l’atrophie structurelle de l’hippocampe postérieur droit, et un système visuel atrophié (Ptito et al., 2008). Pour déterminer quels sont les corrélats neuronaux de la navigation, nous avons créé des routes virtuelles envoyées sur la langue par le biais du TDU que les sujets devaient reconnaitre alors qu’ils étaient dans un scanneur IRMf (article 4). Nous démontrons grâce à ces techniques que les aveugles utilisent un autre réseau cortical impliqué dans la mémoire topographique que les voyants quand ils suivent des routes virtuelles sur la langue. Nous avons mis l’emphase sur des réseaux neuronaux connectant les cortex pariétaux et frontaux au lobe occipital puisque ces réseaux sont renforcés chez les aveugles de naissance. Ces résultats démontrent aussi que la langue peut être utilisée comme une porte d’entrée vers le cerveau en y acheminant des informations sur l’environnement visuel du sujet, lui permettant ainsi d’élaborer des stratégies d’évitement d’obstacles et de se mouvoir adéquatement.
Resumo:
Dans cette thèse de sociologie du droit, nous étudions l'influence du droit de l'État sur les sujets de droit. Notre hypothèse générale est que les intermédiaires du droit de l'État contribuent de façon importante à façonner le« rapport au droit» des sujets de droit. C'est-à-dire qu'ils auraient une incidence sur la construction de la relation d'influence du droit sur ces acteurs sociaux et, par là, un effet marqué sur la « légitimité empirique » du droit. Par leurs pratiques professionnelles les intermédiaires du droit auraient une incidence notable, quoique non exclusive, sur les formes concrètes de «rapports au droit» des sujets de droit. Dans l'étude de ce phénomène, nous comparons empiriquement les liens existant entre différents « rapports au droit » des sujets de droit et un droit caractérisé par une rationalité juridique fort différente selon qu'il aurait été porté par un avocat ou un médiateur. Ces deux groupes de professionnels sont les intermédiaires du droit qui font 1’objet de notre observation, laquelle n'est ni générale, ni globale, mais spécifique au divorce, géographiquement localisée à Montréal et historiquement située au début des années 1990. L'intérêt de cette période pour une étude de l'influence du droit sur les sujets de droit est qu'elle constitue un moment unique de l'histoire à Montréal. À cette époque, les différences entre les pratiques professionnelles des avocats et des médiateurs auraient été les plus extrêmes, ce qui favorise un travail de comparaison d'autant plus éclairant. En effet, au début des années 1990, après une dizaine d'années d'expérience, le Service de médiation à la famille de Montréal avait réussi à assurer une solide pratique professionnelle. Par ailleurs, la pratique professionnelle des avocats dans le domaine du divorce était déjà fort « modernisée », mais elle demeurait encore très peu influencée par la médiation familiale. Puisque le « rapport au droit » des personnes qui ont consulté ces intermédiaires du droit en vue de leur divorce est au cœur de 1 'étude, c'est auprès d'eux que nous avons réalisé des entretiens, et c'est l'analyse de ces entretiens qui permet de comprendre leur « rapport au droit». La sociologie de Max Weber est la perspective scientifique dans laquelle nous avons inscrit notre recherche. Une telle ambition exigeait que nous ne restions pas confinée aux seuls concepts les plus populaires. Par conséquent, une partie importante de cette thèse est consacrée à une présentation substantielle de la sociologie wébérienne. Sur cette base, nous avons construit notre stratégie d'enquête et nos instruments d'analyse idéal typiques. Non seulement il n'y a pas, chez Weber, de théorie systémique générale composée de lois explicatives des relations sociales, mais il n'y a pas non plus de modèle de cadre d'analyse particulier préfabriqué qui serait constitué comme un «prêt-à-porter» applicable en vue de réaliser des recherches empiriques, que ce soit dans le domaine du droit ou dans n'importe quel autre domaine d'activité humaine. En revanche, la sociologie wébérienne fournit plusieurs séries de repères conceptuels. Ils permettent d'organiser la recherche empirique sans jamais limiter les objets d'enquêtes possibles, ni l'imagination du chercheur, en autant que celui-ci a pour but de comprendre l'action sociale en l'interprétant et, par-là, de l'expliquer causalement dans son déroulement et ses effets. C'est là le projet de connaissance que Weber désigne par « sociologie ». Il vise ce projet de connaissance, non pas de manière générale et globale, mais toujours de manière particulière selon les domaines d'activité, les lieux, les époques, les sphères de valeurs, etc. Dans cette thèse, nous proposons un cadre d'analyse qui peut servir à poser et à approfondir toutes sortes de questions sur le droit et son influence, sans jamais qu'il soit considéré comme un système de lois à la manière du droit positif. Ce cadre d'analyse vise à appréhender le droit comme une sorte de relation sociale que l'on peut comprendre sociologiquement en considérant, notamment, les représentations juridiques des différentes catégories d'acteurs sociaux. C'est là la première, non pas la seule, condition à rencontrer en vue de respecter les exigences de la connaissance empirique du droit parce que le « droit empirique » ne se trouve pas dans la règle de droit positif. Il se trouve là où il est « porté » par des êtres humains et, en particulier, par des groupes d'humains qui détiennent une importante dose d'influence sociale. Nous souhaitons que cette étude, grâce à 1 'immense apport de la sociologie de Max Weber, contribue à la compréhension sociologique d'un aspect du « droit empirique» de l’État contemporain.
Resumo:
L’œuvre philosophique de Kierkegaard s’apparente à une dialectique du paradoxe. De fait, dans son cheminement existentiel, l’individu parcourt trois sphères d’existence – l’esthétique, l’éthique et le religieux –, chacune d’elle étant une modalité de l’activité humaine qui comporte un paradoxe particulier. Il s’agit d’un itinéraire de l’intériorité qui vise, dans l’existence, le télos qu’est le devenir soi-même. Ainsi l’esthéticien est-il déchiré entre les idées et la réalité dans la réalité immédiate, tandis que l’éthicien, par la médiation du langage, préfère s’affirmer comme individu dans l’immanence concrète, ignorant toutefois qu’il intériorise des règles sociales qui lui sont impersonnelles. Quant au religieux, non seulement découvre-t-il que la vérité vers laquelle il tend ne se trouve pas en son sein, mais il fait face au plus élevé des paradoxes, fondé sur la transcendance – à savoir le paradoxe absolu, où l’éternité se temporalise sous la forme de l’Homme-Dieu. Du reste, le présent mémoire se penche spécifiquement sur le concept du paradoxe, mis de l’avant par Kierkegaard afin de brosser un portrait du devenir individuel de chaque existant.
Resumo:
Dans le cadre de cette thèse, nous investiguons la capacité de chaque hémisphère cérébral à utiliser l’information visuelle disponible lors de la reconnaissance de mots. Il est généralement convenu que l’hémisphère gauche (HG) est mieux outillé pour la lecture que l’hémisphère droit (HD). De fait, les mécanismes visuoperceptifs utilisés en reconnaissance de mots se situent principalement dans l’HG (Cohen, Martinaud, Lemer et al., 2003). Puisque les lecteurs normaux utilisent optimalement des fréquences spatiales moyennes (environ 2,5 - 3 cycles par degré d’angle visuel) pour reconnaître les lettres, il est possible que l’HG les traite mieux que l’HD (Fiset, Gosselin, Blais et Arguin, 2006). Par ailleurs, les études portant sur la latéralisation hémisphérique utilisent habituellement un paradigme de présentation en périphérie visuelle. Il a été proposé que l’effet de l’excentricité visuelle sur la reconnaissance de mots soit inégal entre les hémichamps. Notamment, la première lettre est celle qui porte habituellement le plus d’information pour l’identification d’un mot. C’est aussi la plus excentrique lorsque le mot est présenté à l’hémichamp visuel gauche (HVG), ce qui peut nuire à son identification indépendamment des capacités de lecture de l’HD. L’objectif de la première étude est de déterminer le spectre de fréquences spatiales utilisé par l’HG et l’HD en reconnaissance de mots. Celui de la deuxième étude est d’explorer les biais créés par l’excentricité et la valeur informative des lettres lors de présentation en champs divisés. Premièrement, nous découvrons que le spectre de fréquences spatiales utilisé par les deux hémisphères en reconnaissance de mots est globalement similaire, même si l’HG requière moins d’information visuelle que l’HD pour atteindre le même niveau de performance. Étonnament toutefois, l’HD utilise de plus hautes fréquences spatiales pour identifier des mots plus longs. Deuxièmement, lors de présentation à l’HVG, nous trouvons que la 1re lettre, c’est à dire la plus excentrique, est parmi les mieux identifiées même lorsqu’elle a une plus grande valeur informative. Ceci est à l’encontre de l’hypothèse voulant que l’excentricité des lettres exerce un biais négatif pour les mots présentés à l’HVG. De façon intéressante, nos résultats suggèrent la présence d’une stratégie de traitement spécifique au lexique.