5 resultados para Visual perception tests
em ArchiMeD - Elektronische Publikationen der Universität Mainz - Alemanha
Resumo:
Abstract Originalsprache (englisch) Visual perception relies on a two-dimensional projection of the viewed scene on the retinas of both eyes. Thus, visual depth has to be reconstructed from a number of different cues that are subsequently integrated to obtain robust depth percepts. Existing models of sensory integration are mainly based on the reliabilities of individual cues and disregard potential cue interactions. In the current study, an extended Bayesian model is proposed that takes into account both cue reliability and consistency. Four experiments were carried out to test this model's predictions. Observers had to judge visual displays of hemi-cylinders with an elliptical cross section, which were constructed to allow for an orthogonal variation of several competing depth cues. In Experiment 1 and 2, observers estimated the cylinder's depth as defined by shading, texture, and motion gradients. The degree of consistency among these cues was systematically varied. It turned out that the extended Bayesian model provided a better fit to the empirical data compared to the traditional model which disregards covariations among cues. To circumvent the potentially problematic assessment of single-cue reliabilities, Experiment 3 used a multiple-observation task, which allowed for estimating perceptual weights from multiple-cue stimuli. Using the same multiple-observation task, the integration of stereoscopic disparity, shading, and texture gradients was examined in Experiment 4. It turned out that less reliable cues were downweighted in the combined percept. Moreover, a specific influence of cue consistency was revealed. Shading and disparity seemed to be processed interactively while other cue combinations could be well described by additive integration rules. These results suggest that cue combination in visual depth perception is highly flexible and depends on single-cue properties as well as on interrelations among cues. The extension of the traditional cue combination model is defended in terms of the necessity for robust perception in ecologically valid environments and the current findings are discussed in the light of emerging computational theories and neuroscientific approaches.
Resumo:
Die Detektion von Bewegung stellt eine der fundamentalsten Fähigkeiten der visuellen Wahrnehmung dar. Um zu klären, ob das System zur Bewegungswahrnehmung Eingang nur durch einen Zapfentyp erhält, oder ob eine Kombination von verschiedenen Zapfentypen vorliegt, wurde eine rotierende zwei-armige archimedische Spiralscheibe verwendet (reale Bewegung), bei der sich Spirale und Hintergrund farblich unterschieden. Durch Veränderung der Intensität farbiger Leuchtstoffröhren konnte eine Beleuchtungssituation geschaffen werden, bei der die (radiale) Bewegung der Spirale nicht mehr wahrgenommen werden konnte, obwohl Spirale und Hintergrund farblich verschieden waren. Die Bestimmung der Zapfenerregungen im 3-D Rezeptorraum ließ einen Beitrag sowohl des L– als auch des M-Zapfens bei normalsichtigen Trichromaten (dominiert durch L), jedoch einen alleinigen Beitrag des M-Zapfens bei Protanopen erkennen. Die Ermittlung der spektralen Empfindlichkeit basierend auf einer Vektor Analyse im 3D-Rezeptorraum zeigte schließlich, dass dem neuronalen Bewegungsdetektor ein additiver Beitrag des L- und M-Zapfens, in Übereinstimmung mit der Hellempfindlichkeitsfunktion (Vλ), zugrunde liegt. Als Ergebnis schreiben wir die Detektion von Objektbewegung einem farbenblinden Mechanismus zu. Es ist sehr wahrscheinlich, dass der Magnozelluläre-Kanal das neuronale Substrat dieses Bewegungsdetektors repräsentiert.
Resumo:
Die Frage, wie es zur visuellen Wahrnehmung räumlicher Tiefe kommt, wenn das Retinabild nur zweidimensional ist, gehört zu den grundlegenden Proble-men der Hirnforschung. Für Tiere, die sich aktiv in ihrer Umgebung bewegen, herrscht ein großer Selektionsdruck Entfernungen und Größen richtig einzu-schätzen. Ziel der vorliegenden Arbeit war es, herauszufinden, ob und wie gut Goldfische Objekte allein aufgrund des Abstandes unterscheiden können und woraus sie Information über den Abstand gewinnen. Hierzu wurde ein Ver-suchsaufbau mit homogen weißem Hintergrund entworfen, in dem die Akkom-modation als Entfernungsinformationen verwendet werden kann, weniger je-doch die Bewegungsparallaxe. Die Goldfische lernten durch operante Konditio-nierung einen Stimulus (schwarze Kreisscheibe) in einem bestimmten Abstand zu wählen, während ein anderer, gleichgroßer Stimulus so entfernt wie möglich präsentiert wurde. Der Abstand zwischen den Stimuli wurde dann verringert, bis die Goldfische keine sichere Wahl für den Dressurstimulus mehr treffen konnten. Die Unterscheidungsleistung der Goldfische wurde mit zunehmendem Abstand des Dressurstimulus immer geringer. Eine Wiederholung der Versuche mit unscharfen Stimu¬lus¬kon¬turen brachte keine Verschlechterung in der Unter-scheidung, was Akkommodation wenig wahrscheinlich macht. Um die Größen-konstanz beim Goldfisch zu testen, wurden die Durchmesser der unterschiedlich entfernten Stimuli so angepasst, dass sie für den Goldfisch die gleiche Retina-bildgröße hatten. Unter diesen Bedingungen waren die Goldfische nicht in der Lage verschieden entfernte Stimuli zu unterscheiden und somit Größenkonstanz zu leisten. Es fand demnach keine echte Entfernungsbestimmung oder Tiefen-wahrneh¬mung statt. Die Unterscheidung der verschieden entfernten Stimuli erfolgte allein durch deren Abbildungsgröße auf der Retina. Dass die Goldfische bei diesem Experiment nicht akkommodieren, wurde durch Infrarot-Photoretinoskopie gezeigt. Somit lässt sich Akkommodation für die Entfer-nungsbestimmung in diesen Versuchen ausschließen. Für diese Leistung und die Größenkonstanz ist vermutlich die Bewegungsparallaxe entscheidend.
Resumo:
In der vorliegenden Arbeit werden verschiedene, insbesondere zeitliche Aspekte des Blickrichtungsnacheffekts (gaze aftereffect) untersucht. Dieser Effekt besagt, dass nach längerer Betrachtung von Bildern, die Personen mit abgewandtem Blick zeigen, die Wahrnehmung von Blickrichtungen in Richtung des adaptierten Blickes verschoben ist. Betrachter halten dann zugewandte Blicke fälschlicherweise für in die Gegenrichtung verschoben, und Blicke in die Adaptationsblickrichtung fälschlicherweise für geradeaus, d.h. sie fühlen sich angeschaut, obwohl sie es nicht werden. In dieser Dissertation wird der Blickrichtungsnacheffekt mit vier psychophysischen Experimenten untersucht, in denen die Probanden einfache kategoriale Urteile über die Blickrichtung der Testbilder abzugeben hatten.rnrnDas erste Experiment untersucht die Induktion des Blickrichtungsnacheffekts. Es wird gezeigt, dass keine separate Adaptationsphase für die Induktion des Nacheffekts notwendig ist. Auch die alleinige, relativ kurze Darbietung des zur Adaptation verwendeten Reizes (TopUp-Display) vor der Präsentation eines Testbildes führt im Laufe wiederholter experimenteller Darbietungen zu einer Verschiebung der allgemeinen Blickrichtungs-Tuningkurve, sowie zu ihrer Verbreiterung. In einem zweiten Experiment wird nachgewiesen, dass die Ausprägung des Blickrichtungsnacheffekts von der jeweiligen Darbietungszeit des Adaptationsreizes abhängt. Zwar ist der Nacheffekt umso stärker, je länger das TopUp-Display gezeigt wird. Aber auch bei sehr kurzen Darbietungszeiten von einer Sekunde kommt der Effekt bereits zustande, hier zeigt sich eine lokal begrenztere Wirkung. Die Auswertung des zeitlichen Verlaufs ergibt, dass sich der Effekt rasch vollständig aufbaut und bereits innerhalb der ersten Darbietungen entsteht. Das dritte Experiment zeigt, dass dem Nacheffekt sowohl kurzfristige Einwirkungen der direkt vor dem Testbild erfolgten Reizung zugrunde liegen, als auch langfristige Memory-Effekte, die über die im Laufe des Experiments gegebenen Wiederholungen akkumuliert werden. Bei Blickwinkeln von 5° halten sich kurzfristige und langfristige Einwirkungen in etwa die Waage. Bei Blickwinkeln von 10° aber sind nur knapp 20% kurzfristig, und etwa 80% langfristige Einwirkungen für den Effekt verantwortlich. In einem vierten Experiment wird die zeitliche Rückbildung des Effekts untersucht und gezeigt, dass sich der Blickrichtungsnacheffekt im Kontrast zu seiner schnellen Entstehung langsam, nämlich innerhalb mehrerer Minuten zurückbildet.rnrnDie Diskussion der Ergebnisse kommt zu dem Schluss, dass die hier gefundene zeitliche Dynamik des Blickrichtungsnacheffekts Adaptationsprozesse auf höheren Schichten der visuellen Informationsverarbeitung als die zugrunde liegenden Mechanismen nahe legt.
Resumo:
Flowers attract honeybees using colour and scent signals. Bimodality (having both scent and colour) in flowers leads to increased visitation rates, but how the signals influence each other in a foraging situation is still quite controversial. We studied four basic questions: When faced with conflicting scent and colour information, will bees choose by scent and ignore the “wrong” colour, or vice versa? To get to the bottom of this question, we trained bees on scent-colour combination AX (rewarded) versus BY (unrewarded) and tested them on AY (previously rewarded colour and unrewarded scent) versus BX (previously rewarded scent and unrewarded colour). It turned out that the result depends on stimulus quality: if the colours are very similar (unsaturated blue and blue-green), bees choose by scent. If they are very different (saturated blue and yellow), bees choose by colour. We used the same scents, lavender and rosemary, in both cases. Our second question was: Are individual bees hardwired to use colour and ignore scent (or vice versa), or can this behaviour be modified, depending on which cue is more readily available in the current foraging context? To study this question, we picked colour-preferring bees and gave them extra training on scent-only stimuli. Afterwards, we tested if their preference had changed, and if they still remembered the scent stimulus they had originally used as their main cue. We came to the conclusion that a colour preference can be reversed through scent-only training. We also gave scent-preferring bees extra training on colour-only stimuli, and tested for a change in their preference. The number of animals tested was too small for statistical tests (n = 4), but a common tendency suggested that colour-only training leads to a preference for colour. A preference to forage by a certain sensory modality therefore appears to be not fixed but flexible, and adapted to the bee’s surroundings. Our third question was: Do bees learn bimodal stimuli as the sum of their parts (elemental learning), or as a new stimulus which is different from the sum of the components’ parts (configural learning)? We trained bees on bimodal stimuli, then tested them on the colour components only, and the scent components only. We performed this experiment with a similar colour set (unsaturated blue and blue-green, as above), and a very different colour set (saturated blue and yellow), but used lavender and rosemary for scent stimuli in both cases. Our experiment yielded unexpected results: with the different colours, the results were best explained by elemental learning, but with the similar colour set, bees exhibited configural learning. Still, their memory of the bimodal compound was excellent. Finally, we looked at reverse-learning. We reverse-trained bees with bimodal stimuli to find out whether bimodality leads to better reverse-learning compared to monomodal stimuli. We trained bees on AX (rewarded) versus BY (unrewarded), then on AX (unrewarded) versus BY (rewarded), and finally on AX (rewarded) and BY (unrewarded) again. We performed this experiment with both colour sets, always using the same two scents (lavender and rosemary). It turned out that bimodality does not help bees “see the pattern” and anticipate the switch. Generally, bees trained on the different colour set performed better than bees trained on the similar colour set, indicating that stimulus salience influences reverse-learning.