...

Skript Allgemeine Psychologie I - Wintersemester 1. „Handeln“ (Wahrnehmung und Verhaltenssteuerung)

by user

on
Category: Documents
399

views

Report

Comments

Transcript

Skript Allgemeine Psychologie I - Wintersemester 1. „Handeln“ (Wahrnehmung und Verhaltenssteuerung)
Skript Allgemeine Psychologie I - Wintersemester
(1) Basale Prozesse der visuellen Wahrnehmung
1. „Handeln“ (Wahrnehmung und Verhaltenssteuerung)
-
Orientierung des eigenen Körpers im Raum
Orientierung auf Signale
Erkennen von Objekten
Koordination eigener Bewegungen im Raum und im Kontext anderer (bewegter) Objekte
2. „Erkennen“ (Wahrnehmung und bewusster Eindruck)
-
Wie ist das Verhältnis von objektivem Reiz und subjektivem Eindruck? (Bsp. Hollow-face-Illusion)
 Bedingen sich gegenseitig, aber können dissoziieren
Beispiel für Dissoziation: Kohlers Umkehrbrillenversuche
Uni Innsbruck, 1951. Probanden konnten nach einigen Tagen kleinere Fahrradtouren
unternehmen, bevor Wahrnehmungseindruck adaptierte  Bewegungsverhalten adaptiert
vor der Wahrnehmung; Bewegung auf anderer Ebene als Wahrnehmung
-
Basisbezugssystem Wahrnehmung:
Drei rechtwinklige Koordinaten = Rahmen Wahrnehmung
Orientiert an Richtung Schwerkraft
Aufbau kognitiver Landkarten („wo?“)
Umweltobjekte nach Inhalt/ Bedeutung in Klassen ordnen („was?“)  Erkennen, Begriffsordnung
im Gedächtnis fortlaufend modifizieren
Wahrnehmung von Zeit, sozialer Interaktion (Erfassen nichtverbaler Kommunikation)
Basale Verarbeitungsprozesse. / neurophysiologische Basis
Reizmuster an Rezeptoren
In konkreter Situation wird von verfügbarer Reizinformation nur ein Teil aufgenommen; im Moment des
Hinblickens wird das Lichtmuster des entsprechenden Ausschnitts auf dem Hintergrund der Augen
scharf abgebildet. (retinale Abbildung)
Keine Bildübertragung, sondern Übermittlung der Informationen, die für das Handeln signifikant sind;
Reizmuster, die auf Rezeptorflächen treffen, sind sog. Proximale Reize (Nahreize), hieraus wird
Information über Objekt gewonnen. Gegenstandsmerkmale = distale Reize (Fernreize)
-
Transduktion
Aufnahme Reizmuster, Umwandlung in bioelektrische Signale durch Rezeptoren; vier unterschiedliche
Typen, die unterschiedlich sensitiv und verschieden auf der Retina verteilt sind
Licht als Träger der Information  bioelektrische Antwort der Sinneszellen
-
Verarbeitung
Umwandlung der bioelektrischen Signale in den Neuronen in Nervenimpulse / Spikes. Neuronale Signale
erreichen nach mehreren Verarbeitungsstufen die primären sensorischen Areale des Cortex, dann
weitere Verarbeitungsbereiche. Zu einem bestimmten Zeitpunkt ist also größere Anzahl von Neuronen
aktiv auf mehreren Ebenen  komplexes Netz, in dem neue Information mit gespeicherter Information
verbunden, verglichen und verarbeitet wird; Signalfluss zwischen den Neuronen
Zapfen
Vorkommen gehäuft in der Fovea
Stäbchen
Vorkommen nur außerhalb der Fovea
Farbe
Maximale Empfindlichkeit: im Schnitt bei hoher
Wellenlänge
Hell-Empfindlichkeit hoch
Dunkel-Empfindlichkeit niedrig,
Dunkel-Adaption schnell
Schwarz-weiß
Maximale Empfindlichkeit bei niedriger
Wellenlänge
Hell-Empfindlichkeit niedrig
Dunkel-Empfindlichkeit hoch,
Dunkel-Adaption langsam
-
Rezeptive Felder: Bereich von Sinnesrezeptoren, der an ein nachgeschaltetes Neuron Information
weiterleitet. Bestehend aus verschiedenen Zonen, entweder erregend (exzitatorisch) oder
hemmend (inhibitorisch). Bsp. On-Center-Off-Surround-Verschaltung: wird der on-center-Bereich
vollständig gereizt, der inhibitorische off-surround-Bereich hingegen nicht, feuert das Neuron am
stärksten; wird zusätzlich der off-surround-Bereich (inhibitorische Zone) gereizt, sinkt die
Feuerrate wieder ab.
-
Laterale Inhibition: wenn ein Neuron feuert (weil es beispielsweise sensitiv auf dunkle Farben
reagiert), wird die Feuerrate benachbarter Neurone gesenkt – sie werden inhibiert. Hemmung, die
sich in neuronalem Schaltkreis seitlich ausbreitet. Folge: Kontrastverstärkung; „Kanten“ von
einheitlich gefärbten Flächen erscheinen heller oder dunkler, je nach Helligkeit der angrenzenden
Fläche.
-
Hermann-Gitter und laterale Inhibition. Die Knotenpunkte der "Linien", die durch die
Anordnung der schwarzen Quadrate gebildet werden, erscheinen grau, weil sie, anders als die
Linien, die auf einer Höhe mit den Quadraten verlaufen, aus allen Richtungen
laterale Inhibition erfahren.
Zwei weiße Linien kreuzen sich: Mehr Neuronen in der Umgebung haben ihr
rezeptives Feld auf einer weißen Fläche --> Neurone mit rezeptivem Feld auf
dem Knotenpunkt werden stärker inhibiert, als Neurone, deren rezeptive
Felder auf den Linien liegen, die direkt an die schwarzen Quadrate grenzen,
denn benachbarte Neurone mit rezeptivem Feld auf der schwarzen Fläche werden
nicht angeregt und inhibieren die Neurone, die für die Linien "zuständig"
sind dementsprechend auch nicht.
Die Feuerrate der Neuronen mit rezeptiven Feldern auf den Knoten ist also
niedriger als die der Neurone, deren rezeptive Felder von den Kästchen
eingegrenzt werden.
-
Der Pfad der visuellen Verarbeitung
o
Zwei visuelle Verarbeitungsbahnen:
sehr simplifizierende Annahme; aber: zunehmende Spezialisierung und
vermutlich zwei Hauptwege (Querverbindungen und vielfältiges feedback)
Parietale (dorsale) Bahn („wo bzw. wie?“,
Bewegungswahrnehmung):
Temporale (ventrale) Bahn („was?“, Farb- und
Formwahrnehmung)
M-Ganglienzellen  Magnozelluläre Schichten 
visuelle Areale Cortex  Mediotemporales Areal 
Parietalcortex
P-Ganglienzellen  Parvozelluläre Schichten 
visuelle Areale Cortex  Inferotemporales Areal
Magnozellulärer Pfad
Parvozellulärer Pfad
-
Bewegung
Input hauptsächlich durch Stäbchen
-
Ungerleider & Mishkin: Welche Information wird in den beiden Pfaden verarbeitet?
o
-
Farbe
Details
Input hauptsächlich durch Zapfen
Läsionsstudien an Affen, Ungerleider & Mishkin (1982)
Experiment: Zwei Formen von Aufgaben, (a) Aufgabe zur Objektunterscheidung,
(b) Aufgabe zur Ortsunterscheidung. Außerdem entweder (a) Entfernung von
Teilen des Parietallappens, oder (b) Entfernung von Teilen des Temporallappens.
Ergebnis: In den Aufgaben zur Objektunterscheidung hatten Affen mit
entferntem Temporallappen große Schwierigkeiten, in den Aufgaben zur
Ortsunterscheidung jedoch nicht. Umgekehrt bei den Affen ohne Parietallappen:
Schwierigkeiten bei den Aufgaben zur Ortsunterscheidung.
In die Temporallappen führender Verarbeitungsstrom  verantwortlich für
Bestimmung der Identität eines Objekts (ventraler Verarbeitungsstrom)
Der in die Parietallappen führende Verarbeitungsstrom  verantwortlich für
Bestimmung der Position eines Objekts (dorsaler Verarbeitungsstrom)
-
Milner & Goodale: Wozu dient die Information in den beiden Pfaden?
o
Annahme: unterschiedliche zugrunde liegende Mechanismen: ventrale Bahn:
bewusste Objekterkennung und parietale Bahn: visuelle Steuerung von
Handlungen, nicht notwendig bewusst
Patientin D.F., Schädigung des ventralen Verarbeitungsstroms.
Experiment: Zwei Aufgaben, einmal ein Vergleich visueller Orientierung, einmal
ein visuell-motorischer Abgleich. (a) Karte mit verschiedenen Orientierungen
eines Schlitzes in Übereinstimmung bringen, (b) Karte durch den Schlitz stecken.
Ergebnis: Große Schwierigkeiten bei der ersten, fast keine bei der zweiten
Aufgabe. unterschiedliche zugrunde liegende Mechanismen.
o
Die Titchener-Illusion
Experiment: Optische Täuschung (zwei gleich große Kreise, einmal umringt von
kleineren, einmal von größeren Kreisen). Vpn sollten zunächst einschätzen, wie
groß die mittleren Kreise sind, dann danach greifen, während der Abstand der
Finger in der Greifbewegung gemessen wurde.
Ergebnis: In der ersten Aufgabe (der Abgleichaufgabe) ließ sich die optische
Täuschung zeigen: der Kreis inmitten der kleinen wurde zu groß, der andere zu
klein eingeschätzt. In der Greifaufgabe unterlief den Vpn dieser Fehler
erstaunlicherweise nicht.
Abgleichaufgabe unter Beteiligung des ventralen Stroms, Greifaufgabe unter
Beteiligung des dorsalen Stroms. Der Größenunterschied muss unbewusst
wahrgenommen und motorisch umgesetzt worden sein.
Evidenz Dissoziation ventraler, dorsaler Strom
-
Bewegungssensible und formsensible Neuronen
o
Strukturen entlang der Wege der ventralen und dorsalen Ströme sind oft auf Verarbeitung von
spezifischen visuellen Informationen spezialisiert  „Modularität“
o
Mediotemporales Areal: bewegungssensible Neuronen

o
Inferotemporales Areal: formsensible Neuronen

-
Affen können lernen, die dominante Bewegungsrichtung (beispielsweise
„Punkte bewegen sich nach oben“) anzugeben, auch wenn die Kohärenz
lediglich 1-2 % beträgt. Affen mit zerstörtem mediotemporalem Areal
benötigten mindestens 10-20% Kohärenz.
Bsp. Neurone, die stark auf Gesichter, aber kaum auf alle anderen Arten
von Stimuli antworten. Befunde wie diese führen zu der Sichtweise,
dass der IT-Kortex ein Modul für die Formwahrnehmung ist.
Zusammenfassung der zwei Pfade
Ventrales System
Wiedererkennen /
Funktion
Geschwindigkeit
Bewusstheit
Referenzrahmen
Identifikation
Hohe räumliche Frequenzen
(d.h. Details der Struktur)
Relativ langsam
Typischerweise hoch
Objekt-zentriert (allozentrisch)
Visueller Input
Foveal, parafoveal
Sensitiv für..
Dorsales System
Visuell gesteuerte Handlungen
Hohe zeitliche Frequenzen
(d.h. Bewegung)
Relativ schnell
Typischerweise niedrig
Körper-zentriert
(egozentrisch)
Komplettes Sehfeld
Zwei Verarbeitungswege – Trennung von bewusster Objekterkennung und visuo-motorischer
Steuerung?
(2) Wahrnehmung – Wahrnehmung und Bewusstsein
-
Psychophysik

Aufgabe: die Beziehung zwischen Reiz und (bewusster) Wahrnehmung
beschreiben. Wahrnehmungsschwellen, kleinste wahrnehmbare
Unterschiede, Beziehung zwischen objektiver und subjektiver
Intensitätsveränderung.
o
Wahrnehmungsschwellen. Methoden zur Bestimmung von
Wahrnehmungsschwellen entwickelt von Fechner (1801-1887). Klassische naive
Schwellentheorie: „scharfe Wahrnehmungsschwelle“: Nicht hören bis Reizintensität
bestimmten Punkt erreicht, dann Reiz hören; von 0% zu 100%. (nicht gültig)
o
Drei Methoden zur Schwellenbestimmung:
(a) Grenzmethode
(b) Herstellungsmethode
(c) Konstanzmethode
Zu (a): Grenzmethode (Fechner: Methode der eben merklichen Unterschiede).
Versuchsleiter bietet Stimuli in auf- oder absteigender Anordnung dar; bei jedem
wahrgenommenen Reiz („ja“ Vpn) wird die Intensität des Reizes verringert, bis er
nicht mehr wahrgenommen wird. Schwelle Mittelwert aus der untersten
wahrgenommenen und obersten nicht wahrgenommenen Intensität. Mehrere
Durchgänge, Bestimmung Mittelwert.
Zu (b): Herstellungsmethode (Fechner: Methode der mittleren Fehler).
Kontinuierliche Veränderung der Reizintensität (Vpn selbst oder Versuchsleiter).
(Unterschied Grenzmethode: nicht diskret.) So lange, bis Vpn angibt, den Stimulus
gerade eben noch zu entdecken. Diese Intensität entspricht der absoluten Schwelle.
Mehrfach wiederholen, Schwelle dann Durchschnitt der Intensitäten.
Zu (c): Konstanzmethode (Fechner: Methode der richtigen und falschen Fälle). Stimuli
in zufälliger Reihenfolge, jeweils zehnmal darbieten, anschließend Bestimmung
prozentualer Anteil an Entdeckungen des Stimulis. Schwelle entspricht der Intensität,
die in 50% der Durchgänge entdeckt wurde.
Aber: trennt nicht zwischen tatsächlicher Diskriminationsleistung und Urteilstendenzen der Vpn
Signalentdeckungstheorie.
-
Signalentdeckungstheorie
o Berücksichtigt Sensitivitätsschwankungen und Entscheidungskriterien
o
Technische Analogie: Geräusch, Weiterleitung und Verarbeitung, Anzeige mit Zeiger.
Durch kleine Zufallseinflüsse in der Weiterverarbeitung wackelt der Zeiger ohne
Signal um einen bestimmten Wert x, mit Signal um den Wert x + d´. Ist d‘ groß genug,
wird das Signal ohne Probleme entdeckt, ist d‘ klein, stellt sich die Frage: ab welchem
Ausschlag des Zeigers gehe ich von einem Signal aus? (Normalverteilung entspricht
der Annahme, dass Rauschen („wackeln“) normalverteilt ist, d.h. Wackeln ist eng um
x. Übertragen: Beobachter entscheidet ab bestimmtem Zeigerstand auf „Signal war
da“.
Beobachterurteil „ja“
Reiz vorhanden (Signal +
Rauschen)
Treffer (Hits)
Beobachterurteil „nein“
Verpasser (Misses)
Ohne Reiz (Rauschen)
Falsche Alarme (false
alarms)
Korrekte Ablehnungen
(correct rejections)
 Distanz der Verteilungen Rauschen und Signal + Rauschen ergibt sich aus
Wahrscheinlichkeit der Treffer und Wahrscheinlichkeit falscher Alarme
 Sensitivitätsparameter d‘ ist dann d‘=z(T)-z(F). d‘ ist gleich 0, wenn der
Beobachter gar nicht diskriminieren kann, und sehr groß, wenn er sehr gut
diskriminieren kann (sollte der Fall sein, wenn die Reizintensität erhöht wird).
 Zweiter Parameter = Antworttendenz (response bias) c. c = 0,5 ((z(T)+z(F)). C ist
gleich 0, wenn der Beobachter seine Antwortfehler in gleichem Maß auf
Verpasser und falsche Alarme verteilt. Negativ: Tendenz „ja“-Antwort.
 Parameter unabhängig voneinander!
-
Receiver Operating Curve
o
Kurven gleicher Sensitivität d‘, aber unterschiedlicher Kriteriumswahl c. Krümmung
der ROC-Kurve entspricht Sensitivität (je stärker gekrümmt, umso sensitiver der
Proband); je nachdem, welche Antworttendenzen der Proband hat, befindet er sich
weiter unten oder oben auf dieser Kurve. (Ist p Treffer gleich p falsche Alarme, liegt
Proband auf der Diagonalen im Schaubild, Kurve hat keine Krümmung, d‘ ist gleich 0.)
 Übertragen auf Schwellenwahrnehmung: bei welchem Reiz wird d‘ 0; ist der
Unterschied zwischen Signal und keinem Signal nicht mehr diskriminierbar?
 Insgesamt aber universeller in ihrer Anwendbarkeit als nur auf
Reizdiskriminierung. Für jede Art von Kategorisierungsleistung und
diagnostischen Fragestellungen nutzbar.
-
Unbewusste Wahrnehmung



o
Nachweis, dass ein Reiz eine Wirkung auf das Verhalten hat bei gleichzeitiger
subjektiver oder objektiver Unbewusstheit des Reizes?
Subjektive Unbewusstheit: Reize / Reizeigenschaften können nicht subjektiv
berichtet werden
Objektive Unbewusstheit: Reizanwesenheit / Reizeigenschaften können
nicht über Zufallsniveau hinaus kategorisiert werden.
Direkter Test: Primes in verschiedener Dauer darbieten (zwischen 0 und 200 ms),
Reizerfassung testen (gesehen? Ja / nein), indem geprüft wird, ab wann Trefferrate
über Zufallsniveau liegt.
Ergebnis hier: bei 43ms ist die Höhe der Treffer, weil es einen Prime gab, und der
falschen Alarme, obwohl es keinen gab, noch vergleichbar hoch. Ab 57ms übersteigt
die Trefferrate die Rate falscher Alarme signifikant: Dazwischen muss die
Wahrnehmungsschwelle liegen. (subjektive (Un)bewusstheit)
o
Indirekter Test: Schwelle unterhalb Wahrnehmungsgrenze verwenden (43ms), um
Prime (Zahlwort) darzubieten, später beurteilen: war die Zahl höher oder niedriger
als das Target (Ziffer), das danach angezeigt wird? Das Zahlwort (der unbewusst
verarbeitete Prime) ist ein „maskierter Reiz“. Ergebnis: Es gibt eine nachweisbare
Beeinflussung des maskierten Reizes auf die Antwort (überzufällig oft richtig),
obwohl er nicht bewusst verarbeitet wurde. (würde nun direkt getestet werden,
wäre d‘ = 0, im indirekten Test ist d‘ >0.)
weiterer Hinweis auf unbewusste Verarbeitung: EEG-Kurven bei Anzeige maskierter Prime
und Target vergleichbar.
o
Response Priming
d‘ für die direkte Aufgabe = 0 (keine direkte Erkennung der maskierten Zahl,
unterhalb bewusster Wahrnehmung) bei gleichzeitigem d‘ für die Priming-Aufgabe
größer 0 (indirekte Wirkung der maskierten Zahl).
wurde für viele Stimulusarten nachgewiesen!
Alternatives Experiment Jacoby: Wörter kurz einblenden (Variation Zeit: 50ms,
150ms, Kontrollgruppe mit Zufallsbuchstaben), dann Wortergänzungstest mit
Aufgabe: Vermeide Verwendung der Wörter, die kurz eingeblendet wurden.
Ergebnis: Bei langer Einblendung (150ms) werden die Worte selten verwendet
(konnten bewusst verarbeitet werden), bei 50ms werden die Worte bedeutend
häufiger verwendet als in der Kontrollgruppe (unbewusst beeinflusst, Wörter können
nicht bewusst ausgelassen werden, müssen aber auf einer anderen Ebene
verarbeitet worden sein) (vgl. SS 09, (14).)
o
Das Phänomen der Blindsicht
Manche Patienten mit einer Schädigung im primären visuellen Kortex bei fehlender
bewusster Wahrnehmung in bestimmten Bereichen des Gesichtsfeldes können
trotzdem auf Reize in angemessener Form reagieren (beispiel bei visuo-motorischen
Greifhandlungen).
Aber: wird kontrovers diskutiert.
-
Wahrnehmungsunterschiede
o
Weber und der eben merkliche Unterschied
Weber (1804-1891) entdeckte, dass Vpn bei geringen Gewichtsunterschieden
Probleme hatten, anzugeben, ob eines schwerer war, bei großen Unterschieden
weniger. (Eben merklicher Unterschied = Unterschiedsschwelle). Entdeckte, dass mit
steigender Ausprägung des Reizes (bsp Gewicht) die Höhe der Unterschiedsschwelle
zunimmt (für 100g beispielsweise 2g Unterschied entdeckbar, für 200g 4g).
 Größe Unterschiedsschwelle steigt proportional zur Intensität des Standardreizes
o
Der Weber’sche Quotient
In einem großen Intervall des Standardreizes ist der Quotient zwischen dem „eben
merklichen Reizunterschied“ und dem Standardreiz (für eine gegebene Person)
konstant. Unterschiedsschwelle / Standardreiz = Konstante (siehe Beispiel 100g,
200g).
Beispiele: Weber-Quotient für unterschiedliche Sinnesmodalitäten, bsp
Elektroschocks (0,01), Lautstärke (0,04), Gewicht (0,02) etc. (bleibt innerhalb der
Modalität rel. Konstant, Modalitäten haben aber je eigene Weber-Quotienten)
Zeigt die Empfindlichkeit eines sensorischen Systems für Wahrnehmung von
Veränderungen an.
o
Das Fechner’sche Gesetz
Stimulusintensität und wahrgenommene Reizstärke zueinander in Beziehung gesetzt:
Nutzt man den Weber’schen Quotienten, um die psychische gegen die physische
Reizintensität abzutragen, erhält man eine logarithmische Beziehung.
o
Methode der direkten Größeneinschätzung
Gleicher Anspruch wie Fechner’sches Gesetz. Verfahren: Versuchsleiter bietet
Standardreiz dar (beispielsweise Lichtreiz mittlerer Intensität), weist diesem Reiz
einen Wert zu, bsp. 10. Anschließend Darbietung verschieden intensiver Lichtreize,
Vpn soll Zahlen zuweisen, die proportional zur Helligkeit des Lichts sind. Erscheint
das Licht gegenüber dem Standardreiz doppelt so hell, bekommt er also einen Wert
von 20. Grundprinzip: Vpn weist Stimuli Zahlen zu, die proportional zur
wahrgenommenen Reizgröße sind.
o
Das Potenzgesetz von Stevens
Die wahrgenommene Reizintensität W entspricht einer Konstanten K multipliziert
mit der n-fach potenzierten Reizintensität. W = K x S hoch n
Potenzfunktionen:
Verdichtung der Antwortdimension. Einschätzung Helligkeit / Lichtintensität.
Abwärts gekrümmte Kurve: Verdopplung Intensität führt nicht notwendigerweise zu
Verdopplung wahrgenommener Helligkeit: mit höherer Intensität steigt die
Wahrnehmung, aber nicht so schnell wie die Intensität (besonders bei hohen
Intensitäten)
Spreizung der Antwortdimension. Empfindung eines Elektroschocks / Stärke
Elektroschock. Aufwärts gekrümmte Kurve: Verdopplung der Reizintensität führt zu
mehr als verdoppelter Wahrnehmung, besonders bei hohen Intensitäten.
Einschätzung Länge einer Geraden: Zunahme Reizintensität (Länge) entspricht fast
genau der Wahrnehmung, Diagonale.
(3) Wahrnehmung – Räumliche Tiefe und Größenkonstanz
Wie erhalten wir einen Eindruck räumlicher Tiefe, obwohl wir nur zweidimensionale Netzhautbilder
haben?
-
Analytische Herangehensweise: Welche Informationen stehen prinzipiell zur Verfügung?
Empirische Herangehensweise: Nutzen wir diese Quellen?
o
Okulomotorische Informationen


o
Veränderung der Form der Augenlinse beim Fokussieren von Objekten in
unterschiedlicher Distanz  scharfstellen, Akkommodation der Linsen
Konvergenz der Augen, um ein Objekt zu fokussieren (nach innen gerichtet,
wenn das Objekt nahe ist)
Monokulare Informationen (können auch nur mit einem Auge genutzt werden)

Verdecken von Objekten
Das zum Teil verdeckte Objekt wird als weiter entfernt gesehen (keine absolute, nur
relative Entfernung)

Relative Höhe im Gesichtsfeld
Objekte, deren tiefster Punkt im Gesichtsfeld höher liegt, werden in der Regel als
weiter entfernt gesehen

Relative Größe im Gesichtsfeld
Dasjenige von zwei gleich großen Objekten, das weiter entfernt ist, nimmt weniger
von meinem Gesichtsfeld in Anspruch als das nähere

Gewohnte Größe
Aufgrund unseres Vorwissens Beurteilung der Größe; Beispiel Münzen: vertraute
Größen, als kleiner bekannte Münze wird als weiter entfernt gesehen

Lineare Perspektive
Parallele Linien vor dem Betrachter werden mit zunehmender Distanz als
konvergierend, sich annähernd wahrgenommen.

Texturgradient
Elemente, die in einer Szenerie gleiche Abstände aufweisen, erscheinen mit
zunehmender Distanz dichter gepackt (Bodentextur) siehe Tiefenreiz relative
Größe; Objekte erscheinen in weiterer Entfernung kleiner.

Atmosphärische Perspektive
Entfernte Objekte wirken oft weniger scharf. Je weiter ein Objekt entfernt ist, desto
mehr Luft und fein schwebende Partikel (Staub, Wassertröpfchen etc.) befinden sich
zwischen Beobachter und Objekt. (Stünde man auf dem Mond, wo es keine
Atmosphäre gibt, könnte man alle fernen Krater ebenso klar sehen wie nahe Krater.)
o
Zum Texturgradienten: Grubenexperiment
Frage: Inwieweit nutzen Probanden den Texturgradienten zur
Entfernungseinschätzung?
Experiment: Entfernungen einschätzen (entweder die entsprechende Distanz gehen
oder geschätzte Entfernung mitteilen); in einer Bedingung nur Bodenfläche, in der
anderen eine Grube dazwischen.
Ergebnis: Probanden schätzen Entfernung gut ein, wenn der Boden gleichmäßige
Textur hatte. In der Experimentalbedingung, in der sich die Grube im Boden befand,
wurde diese Bodentextur unterbrochen und die Einschätzung wurde weniger genau
geschätzt.
-
Bewegungsinduzierte Informationen
o
o
o
Bewegungsparallaxe: während unserer Fortbewegung weit entfernte Objekte langsamer an
uns vorbeiziehen sehen, nähere schneller (Im Auto oder Zug)
Fortschreitendes Auf- und Zudecken von Flächen: weit entferntes Objekt wird von näherem
Objekt verdeckt, weil Beobachter sich relativ zu den Objekten seitlich bewegt.
Visual cliff
Raum mit zwei Ebenen, Kinder krabbeln auf der oberen. Die Bodenfläche ist kariert,
ein Teil aber durch eine durchsichtige Platte ersetzt (darunter sieht man die untere
Ebene, die die gleiche karierte Fläche fortsetzt). Annahme: ab 6. Monat Entwicklung
von Tiefenwahrnehmung.
Krabbelkinder ab 6. Monat zögern und weigern sich, über die durchsichtige
Fläche zu krabbeln
Aber:
Kinder, die 3 Monate und jünger waren, wurden mit dem Gesicht nach unten
über die Glasplatte gehalten; Herzfrequenz ist niedriger über dem „Abgrund“
(spricht indirekt für eine Tiefenwahrnehmung)
Hinweise, dass es Bewegungs-cues sind, die hier zur Tiefenwahrnehmung
genutzt werden.
-
Stereoskopische Information
o Die Tiefeninformation, die in den leicht unterschiedlichen Bildern derselben Szene
auf den Netzhäuten der beiden Augen bestehen (diese Information heißt
Querdisparation)
o Querdisparation
= der Unterschied zwischen den Abbildern im linken und rechten Auge
o
o
Korrespondierende Netzhautpunkte
= Orte auf jeder der beiden Netzhäute, die sich überlagern würden, wenn
man eine Retina auf die andere legen könnte (beispielsweise die Foveae sind
korrespondierende Netzhautpunkte)
Horopter
= gedachter Kreis, der durch die Mittelpunkte der beiden Augenoptiken des
Beobachters und durch den Fixationspunkt verläuft und die Position von
Objekten anzeigt, deren Abbilder auf korrespondierende Netzhautpunkte
fallen. Abbilder von Punkten, die sich innerhalb des Kreises befinden (nicht
auf dem Horopter), fallen auf nichtkorrespondierende Netzhautpunkte
(Distanz zwischen solchen Punkten ist Querdisparität).
Je weiter ein Objekt vom Horopter entfernt ist, desto größer die
Querdisparität. Ausmaß an Disparität zeigt an, wie weit entfernt sich die
Punkte vom Fixationspunkt befinden; der Fixationspunkt selbst hat die
Disparität 0.
o
o
-
Gekreuzte und ungekreuzte Disparität:
 Befinden sich Objekte vor dem Horopter, bezeichnet man die entstehende
Disparität als gekreuzte Querdisparität (Netzhautposition Randbezirk)befinden sie sich hinter dem Horopter, als ungekreuzte Querdisparität. (Je
weiter hinten das Objekt liegt, desto weiter innen befinden sich seine
Abbilder auf den Retinae, also näher zur Nase hin größere Disparität.)
Panum-Areal:
 bei Objekten, die im Panum-Areal liegen, werden die Abbilder zu einem
Objekt „fusioniert“: Areal um den Horopter herum, nahe des
Fixationspunkts. (Beispiel: Finger nah aneinanderhalten  „schwebende
Würstchen“)
Querdisparation: Nutzen wir diese Information zur Tiefenwahrnehmung?
o
Julesz-Stereogramme
Prinzip: Erstellung von Punktemustern (zunächst identisch, dann ein quadratischer
Ausschnitt der Punkte um je eine Einheit nach rechts verschoben). Erzeugung
Querdisparation. Erkennen ein kleines, schwebendes Quadrat, das vor dem
Hintergrund schwebt.
Einzige Tiefeninformation Querdisparität; Abwesenheit anderer Formen von
Tiefeninformation!
-
Lässt sich Querdisparation auf neuronaler Ebene nachweisen?
o Auf allen Stufen des visuellen Systems entlang des dorsalen Pfades (der parietalen
Bahn) finden sich querdisparationsempfindliche Neuronen.
o
De Angelis et al. (1998), Affen
Experiment: Abfolge: 1. Fixation, 2. „random-dot“-Stereogramm (Punkte für das
linke, Punkte für das rechte Auge), 3. Zwei Targetpunkte; der Affe wurde trainiert,
das weiter entfernte Target anzuschauen, wenn die Punkte als entfernt, das nahe
Target, wenn sie nah erschienen.
Ergebnis: Es wurde ein Cluster von Neuronen im mediotemporalen Areal gefunden,
dass auf die Querdisparation reagiert. disparate Bilder aktivieren auf den Retinae
querdisparationsempfindliche Neuronen im Kortex (verschiedene Grade an
Querdisparation aktivieren verschiedene Neuronen, die auf diese Grad empfindlich
reagieren)
-
Übersicht räumliche Tiefenwahrnehmung
Informationen für
räumliche Tiefe
Verdeckung
Relative Größe
Akkomodation und
Kovergenz
Bewegung
Querdisparation
Relative Höhe im
Gesichtsfeld
Atmosphärische
Perspektive
0-2 m
2-30m
Über 30m
……
…..
…..
…..
…..
…..
…..
…..
…..
…..
…..
…..
…..
…..
Wie schaffen wir es, die Größe von Objekten als konstant wahrzunehmen, obwohl sich die Größe des
Abbildes ändert?
-
Größenkonstanz
o
Ames-Raum
Zwei Menschen im Ames-Raum, die gleich groß sind, wirken stark unterschiedlich
groß.
Prinzip: Konstruktionsweise des Raums: linke Ecke des Raums ist fast doppelt so weit
vom Betrachter entfernt wie die rechte. Wand und Fenster sind aber so geformt,
dass der Raum von einem bestimmten Betrachtungspunkt aus wie ein normales
rechteckiges Zimmer wirkt.
Erklärung: 1. deutlich kleinerer Sehwinkel für die Frau im weit entfernten Teil,
deutlich größerer für die Frau im nahen (gleich große Objekte, andere Entfernung =
unterschiedlicher Sehwinkel und retinale Abbilder). 2. Relative Größe: relativ zum
Fenster, der Wand etc. wirkt die eine Frau deutlich größer.
o
Holway & Boring (1941), Fehlwahrnehmung Größe ohne Tiefeninformation
Experiment: Vp sitzt am Kreuzungspunkt zweier Flure und sehen beim Blick in den
rechten Flur eine leuchtende Testscheibe sowie beim Blick in den linken Flur eine
leuchtende Vergleichsscheibe. Vergleichsscheibe immer in derselben Entfernung von
ca. 3 Metern positioniert, die Testscheiben in Entfernungen zwischen 3 und 36
Metern. Aufgabe Vp: Durchmesser Vergleichsscheibe so einstellen, dass er mit der
Testscheibe übereinstimmt.
Variationen:
(1)
(2)
(3)
(4)
Ohne Einschränkung
Mit einem Auge
Durch eine Lochblende
Flur mit Vorhängen ausgestattet, um Reflexionen zu verhindern
Ergebnis & Erklärung: Wenn man von der Linse des Auges aus Linien zum obersten
und untersten Punkt des betrachteten Objekts zieht, ist der Winkel dazwischen der
Sehwinkel. Er hängt sowohl von der Entfernung des Objekts als auch von seiner
Größe ab (weiter weg oder kleines Objekt: kleinerer Sehwinkel, näher oder großes
Objekt: größerer). Ein nahes kleines Objekt und ein weiter entferntes größeres
Objekt können also denselben Sehwinkel haben und gleich große Abbilder auf den
Retinae erzeugen.
Im Experiment:
(1) Zunächst waren viele Tiefenreize zur Verfügung gestellt; Entfernung konnte leicht beurteilt
werden.
(2) Immer noch gute Beurteilung
(3) Unpräzisere Bestimmung
(4) Schlechteste Größeneinschätzung
Abwesenheit anderer Tiefeninformation machte die Beurteilung der
physikalischen Größe der Scheiben schwieriger; Größenwahrnehmung hing dann
von der Größe ihrer retinalen Abbilder ab, die ja gleich groß waren; also in
Abwesenheit anderer Information auch als gleich groß beurteilt wurden.
Wenn andere Tiefeninformation fehlt, wird Größeneinschätzung stark vom
Sehwinkel beeinflusst.
o
Ponzo-Täuschung (Bahnschienen)
Perspektivisches Bild (Bahnschienen, die sich vom Betrachter zum Horizont ziehen).
Zwei exakt gleich lange eingezeichnete Linien, eine näher beim Betrachter, eine
weiter weg auf den Bahnschienen. Fehlwahrnehmung: hintere Linie wird als deutlich
länger wahrgenommen.
Erklärung: Obwohl gleicher Sehwinkel, bewirkt die andere vorhandene
Tiefeninformation, dass die hintere Linie weiter entfernt zu sein scheint. Ist sie dann
gleich lang, müsste sie, wenn man sie näher zu sich heranzieht, deutlich länger als die
andere sein.
o
Müller-Lyer-Täuschung (Längentäuschung)
Erstellung Standardstimulus (beispielsweise Linie); dann nach außen gerichtete
Winkel dazu und als Vergleich nach innen gerichtete Winkel. Die Linie mit nach
außen gerichteten Winkeln wirkt länger, obwohl sie exakt gleich lang ist.
Mögliche Erklärung: Mechanismen, die für dreidimensionale Wahrnehmung hilfreich
sind, können störend wirken bei der Wahrnehmung zweidimensionaler Bilder:
Winkel an der rechten Linie lassen sie als Teil einer Innenecke wirken, die an der
Linken als Außenecke. Da Innenecken üblicherweise weiter entfernt sind als
Außenecken, nehmen wir die rechte Linie als weiter entfernt wahr, und durch die
Größen-Distanz-Skalierung scheint sie länger.
o
Mondtäuschung
Befindet sich der Mond nah am Horizont, wirkt er größer als hoch am Himmel.
(Mondtäuschung).
Erklärung: Erklärung durch die wahrgenommene Entfernung. Wird der Mond am
Horizont über dem Gelände gesehen (das Tiefeninformation enthält!), wirkt er
näher, als wenn er am Himmel durch leeren Raum hinweg betrachtet wird (der keine
Tiefeninformation enthält). Horizont wird also als weiter entfernt wahrgenommen
als der Himmel: Himmelsgewölbe „abgeflacht“ wahrgenommen; Mond als weiter
weg gedeutet (Sehwinkel gleich!).
Urteil, dass Horizontmond näher ist, ist eine top-down-Korrektur : Man weiß, dass es
sich immer um denselben Mond handelt, also muss er näher sein.
Größenkonstanz wird durch die kompensierende Verrechnung von Distanz und Sehwinkel erreicht.
Fehlen andere Tiefeninformationen (oder sind sie fehlleitend), unterliegen wir
Größentäuschungen. Meist nie nur eine Erklärung!
(5) Wahrnehmung – Objekterkennung
-
Das Problem
Ausschließliche Wahrnehmung verschiedener (Farb)intensitäten führt zum Erkennen
eines Objekts (bsp. Gesicht)?
Zweidimensionale Zeichnung von Holzklötzen, die sich gegenseitig verdecken: warum
nehmen wir verschiedene, sich überlagernde Objekte war?
-
Gestaltprinzipien
o
Die Gestaltpsychologie der Wahrnehmung antwortete auf die bis dahin
vorherrschende Lehrmeinung, dass Wahrnehmung aus kleinsten elementaren
Empfindungen zusammengesetzt ist.
„Das Ganze ist mehr als die Summe seiner Teile.“ (mehr als die Wahrnehmung der
elementaren Empfindungen)

Phi-Phänomen, Wertheimer
Scheinbewegung zwischen zwei aufblitzenden Lichtstreifen, wenn diese unter
optionalen Verhältnissen ein- und ausgeschaltet werden. (Beispiel kreisförmiges
Punktemuster, Aufblinken der Punkte nacheinander: Bewegungsillusion.)
Der Eindruck von Bewegung lässt sich nicht aus den Einzelreizen erklären.
o
Figur-Grund-Trennung: Rubins Becher
Wahrnehmung entweder der beiden Gesichter oder des Bechers in der Mitte. Je
nachdem was wahrgenommen wird, erscheint der Rest als formloser Hintergrund.
(Wahrnehmung „kippt“ hin und her) Beleg dafür, dass Wahrnehmung nicht nur
datengetrieben ist, sondern dass Objekte als einheitlich wahrgenommen und von
anderen Objekten oder einem Hintergrund abgegrenzt werden.
Weißstein & Wong (1986)
Experiment: Projektion von Linien auf entweder Gesichter oder den Becher.
Ergebnis: Kategorisierungsleistung war deutlich besser, wenn die Linien auf die gerade saliente und
wahrgenommene Figur der Versuchsperson projiziert wurden wahrnehmungstechnisch ggü. Der
Umgebung hervorgehoben, mehr Aufmerksamkeit auf die jeweilige Figur.
 Scheinkonturen (bsp Kanisza-Dreieck)
Drei schwarze Kreise scheinen von einem weißen, gleichschenkligen Dreieck
überlagert zu sein, obwohl das Dreieck nicht im physikalischen Reizmuster
vorhanden ist. (ganze Reizkonfiguration wird verarbeitet, nicht nur Einzelteile (Dreieck ist ja
eigentlich nicht vorhanden)
 Kontexteinflüsse
Erstes Bild: nicht erkennbar, scheinbar wahllose Fetzen, zweites Bild: „Klecks“ über
den Fetzen, erscheinen jetzt wie vom Klecks überlagerte B’s (obwohl es auch keine
B’s im physikalischen Reizmuster gibt!)
 Prägnanz („gute Gestalt“)
Übergeordnetes Prinzip in der Gestaltpsychologie: statt einer komplexen,
unregelmäßigen Form nimmt man zwei sich überlappende, einfache Formen wahr.
(im Beispiel Dreieck, Rechteck; auch: Olympische Ringe)
Jedes Reizmuster wird so gesehen, dass die resultierende Struktur so einfach wie
möglich ist.




Ähnlichkeit (Ähnliche Dinge erscheinen zu Gruppen geordnet)
Nähe
Geschlossenheit
Kontinuität (Beispiel Verkehrsschild mit sich überschneidenden
„Fahrlinien“: Faktor falsch eingesetzt; auch: Prinzip der fortgesetzt
durchgehenden Linie, Linien tendenziell so sehen, als folgten sie dem
einfachsten Weg)
 Gemeinsames Schicksal (Pfeile, Bewegungsrichtungen: gleiche
Bewegungsrichtung: scheinen als zusammengehörig)
o
Probleme
(1) Beschreibung, keine Erklärung (nur das Phänomen der Wahrnehmung beobachtet, nicht
erklärt)
(2) Manchmal post hoc, zum Beispiel Bild konvexe Linien vs. Symmetrische: hier werden die
konvexen schneller und bevorzugt wahrgenommen.
(3) Was ist „Einfachheit“?
Mögliche Definition: je geringer der Informationsgehalt, desto „besser“ die Gestalt (am Beispiel
Kanisza-Dreieck: sehr einfach zu beschreiben, wenn das überlagernde Dreieck wahrgenommen
wird, ziemlich komplex, wenn die Kreise ihre Aussparungen in die andere Richtung haben.
(4) Was ist „Ähnlichkeit“?
Beispiel Bild Kanten, T’s und gekippte T’s: die gekippten werden als separater wahrgenommen als
Kanten und gerade T’s, obwohl sie die exakt selbe Form wie die anderen T’s aufweisen – nur
gekippt.
(5) Zu große Betonung von bottom-up-Prozessen
Vecera & Farah, x auf der Figur?
Experiment: Sich überlappende, transparente Buchstaben. Aufgabe Vpn: Erkennen, ob
zwei x auf ein- und demselben Buchstaben liegen. uV: Buchstaben einmal gerade, einmal
auf dem Kopf.
Ergebnis: Lösen der Aufgabe ging schneller, wenn die Buchstaben aufrecht standen, als
wenn einer auf dem Kopf stand. konzeptgetrieben: durch mein Vorwissen beurteile ich
die „normalen“ Buchstaben schneller; eben nicht nur datengetrieben und
wahrnehmungsgesteuert (könnte auch geprimed sein, s. die obigen Beispiele)
-
Objekterkennung
o
Die Pandämonium-Metapher von Selfridge
Auf der untersten Ebene werden parallel arbeitende Merkmalsdämonen
angenommen, die auf einfache Reizmerkmale reagieren (z.B. senkrechte, schräge
Linie, rechtwinklig, spitzwinklig, geschlossener Kreis, offener Kreis etc.).
Weitergabe an kognitive Dämonen, die hier einfache Buchstabenanalysatoren
repräsentieren (kognitiver Dämon des Buchstabends A wird aktiviert, wenn „schräge
Linie nach links / rechts“ und „waagerechte Linie“ und „spitzer Winkel“ aktiviert
sind.) kognitiver Dämon A „schreit am lautesten“
Entscheidungsdämon identifiziert den Reiz als A.
 Aktuell an diesem Modell ist, dass es die Wahrnehmung herunterbrechen möchte auf
einzelne kognitive Prozesse, die hierarchisch organisiert sind. (Teile des Systems auf ganz
bestimmte Art von Input spezialisiert), allerdings stark vereinfacht.
o
Der algorithmische Ansatz von Marr
Ebenen der Problemdefinition:


„computational theory“: Formulierung des Wahrnehmungsproblems – wie
erkennt das Wahrnehmungssystem Körper aus Bewegungsmustern?
Repräsentation und Algorithmus: Wie kann das Ziel in ein Programm
umgesetzt werden? / Wie kann das Problem algorithmisch, also vom System
her gelöst werden?
Hardware implementation: Wie kann diese Lösungsvorschrift umgesetzt
werden?
Betrachten 3-dimensionaler Skizze:
1. Retinales Abbild
Räumliche, retinale Verteilung der verschiedenen Lichtwellen und deren
Intensitäten. Ausgangspunkt der Verarbeitung.
Algorithmus „zero-crossings“: Der Prozess, der Veränderung im Netzhautbild (retinales Eingangssignal)
in Konturen und Kanten in der primären Rohskizze überführt. Intensitätsänderung durch zweifache
Ableitung mittels Differentialrechnung: A: Gerade für Übergang von stabil geringer zu stabil höherer
Intensität. B: 1. Ableitung: Maximum, wo die Steigung am größten ist, also in der Veränderung. C: 2.
Ableitung: Änderungsinformation aus Kurve B; zunächst positiver Ausschlag, dann negativer. Beim
Übergang von positiv zu negativ wird die x-Achse gekreuzt diese Kreuzungen der 0-Schnittpunkte
sind Teil dessen, was nach Marrs Vorstellung den Übergang vom Netzhautbild zur primären Rohskizze
kennzeichnen könnte.
2. Primäre Rohskizze (primal sketch)
Elementarmerkmale einer Szene berechnen, wie sie sich aus den
Intensitätsübergängen im Netzhautbild ergeben: Konturen, Kanten, Ecken,
Kantenenden, dunkle und helle Bereiche etc.
3. 2,5-dimensionale Skizze
Elementarmerkmale aus der primären Rohskizze werden auf dieser
Verarbeitungsstufe gruppiert (wobei hier durchaus Gesetze angewendet werden, die den
Gestaltgesetzen ähnlich sind). Repräsentation der Flächen und ihrer Anordnung mit grober
Tiefencharakteristik, die Marr als 2,5-dimensionale Skizze bezeichnet.
Nutzung der Tiefeninformationen von Schatten, Bewegung, Textur, Querdisparation.
Es gibt aber noch keinen Bezug zur externen Umwelt.
(Beispiel: Teile, die ich nicht sehen kann, weil sie verdeckt sind, sind noch nicht Bestandteil
der Skizzen, perspektivisch noch nicht unabhängig)
4. 3-dimensionale Modellrepräsentation
Zusammenfassung der Flächen in ihrer Anordnung zu Repräsentationen der
dreidimensionalen Umweltobjekte. Objektzentrierung; Objekte werden jetzt auch
unabhängig von ihrer spezifischen Position oder Orientierung auf der Netzhaut
repräsentiert: Modell der real existierenden Welt. Top-down-Ergänzung dessen, was
ich nicht sehe.
 Wahrnehmung also in aufeinanderfolgenden Verarbeitungsstufen –
von Berechnungen der schemenhaften Konturen in der primären
Rohskizze zu Berechnungen, die zu ausgereiften dreidimensionalen
Objektrepräsentationen führen.
o
Elementare Teilkörper (Biederman)
Kanten-Extraktion
Analyse von „nicht-zufälligen“ Eigenschaften
Analyse von konkaven Regionen
Bestimmung der Komponenten
Vergleich der Komponenten mit Objektrepräsentationen
Objekterkennung
Analyse von nicht-zufälligen Eigenschaften: Netzhautbilder haben überzufällig oft
bestimmte Kanteneigenschaften (durch Erfahrung mit dreidimensionalen Objekten) =
nichtzufällige Merkmale, perspektivenunabhängig. Gerade Linien = gerader Körper,
gekrümmte = gekrümmter Körper etc.)
Beispiel für eine Fehlleitung durch Annahme nichtzufälliger Eigenschaften: Ames-Raum.
Analyse von konkaven Regionen: Zusammentreffen zweier Linien, lässt auf Zusammentreffen
zweier Teile des 3-D-Körpers schließen, verdeckte Regionen können ergänzt werden.
Annahmen: Grundlegende Kategorien von Teilobjekten = Geons. Dienen wie ein
Alphabet zum Aufbau von Objekten; das Erkennen eines Geons ist mit dem Erkennen
eines Buchstabens vergleichbar. Das Objekt wird als dasjenige Muster erkannt, das
aus diesen Teilen zusammengesetzt ist; mit dem Erkennen eines Wortes
vergleichbar. Aus 36 Geons kann jedes beliebige Objekt zusammengesetzt werden.
Objekterkennung durch die Erkennung der Komponenten des Objekts.
Experiment: Aufgabe Vpn: Erkennen von Objekten in veränderten Abbildungen. uV1:
entweder einige Komponenten vollständig gelöscht oder alle Komponenten
vorhanden, aber Teile der Komponenten fehlen. uV2: Darbietungszeit. Entweder
sehr kurz (65ms) oder länger (200ms).
Ergebnis: Waren die Abbildungen nur sehr kurz zu sehen, wurden die Objekte, deren
Komponenten vollständig gelöscht waren, schneller erkannt (in der kurzen Zeit nicht
in der Lage, die Komponenten zu erkennen, Objekterkennung an sich schwierig). Bei
längerer Zeit kehrte sich dieser Befund um: die Objekte, die alle Komponenten
beinhalteten, die aber unterbrochen waren, wurden besser erkannt (mehr
Komponenten zur Verfügung; mehr Information für die Objekterkennung).
-
Perspektivenunabhängigkeit
o Sowohl die Theorie von Marr als auch die von Biederman macht die Annahme, dass
die Leichtigkeit der Objekterkennung perspektivenunabhängig ist.
Aber: Mentale Rotation
Dreidimensionales Objekt „im Kopf drehen“, bis es mit einem anders gedrehten zur
Deckung kommt. Die Zeit, die man dafür braucht, hängt ab vom Winkel, den man es
drehen muss (linearer Zusammenhang: höherer Winkel, längere Zeit; nicht aus jeder
Perspektive wird das Objekt gleich schnell erkannt)
o
Mittlerweile wird angenommen, dass nicht entweder-oder diskutiert werden muss,
sondern durch sowohl-als-auch ersetzt werden muss; die Frage ist dann: unter
welchen Umständen ist Ojekterkennen abhängig von der Perspektive?
o
Vanné et al. (2002); Wann perspektivenabhängig?
Experiment: Aufgabe Vpn: Objekte verschiedener Orientierung mental zur Deckung
bringen. uV: verschiedene Änderungen: (a) invariance condition: Komponenten
versetzt (in non-matching) (b) rotation condition (in non-matching) : Spiegelbild
Ergebnis: Muss ich zwei Objekte anhand einfacher Merkmale auseinanderhalten,
muss ich nicht rotieren; perspektivenunabhängig. Muss ich ein Objekt und sein
Spiegelbild auseinanderhalten, muss ich mental rotieren; perspektivenabhängig.
-
Kognitive Neuropsychologie
o Apperzeptive Agnosie
Störung der Formidentifikation
o Assoziative Agnosie
Bei intakter Formidentifikation Störung des Zugriffs auf die Bedeutung
Modell Riddoch & Humphrey (2001)
1. Objekt  Analysieren von Bewegung, Farbe, Form, Tiefe.
2. Von Forminformationen aus Kanten gruppieren, Merkmalsinformationen
einbinden, mit bekannten Formen abgleichen
3. Von endgültiger visueller Repräsentation zu struktureller Einbindung ins
semantische System, Verknüpfung mit semantischen Repräsentationen
Apperzeptive Agnosie ist eine Störung innerhalb der Verarbeitungsphasen in
Schritt 2, assoziative Agnosie unter Schritt 3.
-
Gesichterwahrnehmung
o
„Thatcher-Illusion“
Augen- und Mundpartie ausgeschnitten und um 180° gedreht erneut an ihre Stelle
gesetzt. Wird das manipulierte Gesicht als Ganzes auf den Kopf gestellt, bemerkt
man die Veränderung oft nicht: die Identifizierungsrate und Geschwindigkeit, die
man dafür braucht, nähert sich dem nicht-veränderten Original an, wenn es auf dem
Kopf steht.
Die aus der Beobachtungsperspektive stimmigen Merkmale (Augen und Mund)
dominieren den Wahrnehmungseindruck.
o
Gesichtsinversionseffekt
Die Wiedererkennung von Gesichtern in Gedächtnisexperimenten leidet deutlich
stärker durch Vertauschen der Merkmale als die Wiedererkennung anderer Objekte.
Verarbeitung konfiguraler Merkmale bei Gesichtern vermutlich deutlich höheres
Gewicht.
o
Thesen von Farah
 Objekterkennung basiert auf einer holistischen Analyse, bei der die
Konfiguration des Objekts verarbeitet wird und
 Einer Analyse der Komponenten.
 Die meisten Objekterkennungen basieren auf beiden Prozessen,
 Das Lesen von Wörtern vorwiegend auf der Komponentenanalyse und
 Gesichter vorwiegend auf der holistischen Analyse.
o
Farah et al. (1998), Ganz- vs. Teilmaske
Experiment: Stimulusfolge: Prime/-/Ganz- oder Teilmaske /-/Target. Aufgabe
Probanden: entscheiden, ob Prime und Target gleich sind. uV1 Art der Maske: (a)
„Ganzmaske“, normales Gesicht oder normales Wort, (b) „Teilmaske“, Gesichter mit
vertauschten Ohren, Mündern, Augen, Nase oder Wörter durcheinander. uV2: (a)
Gesichter oder (b) Wörter.
Ergebnis: Die Ganzmasken störten mehr bei der Verarbeitung der Items.
(holistische Verarbeitung) Bei den Wörtern ergab sich kein Unterschied
(Komponentenverarbeitung). (Es wurde allerdings auch ein minimaler, aber signifikanter
Unterschied bei normalen Häusern (Ganzmaske) und Häusern mit vertauschten Merkmalen (Fenster,
Tür etc, Teilmaske) gefunden.)
-
Neurophysiologische Evidenz
o Im inferotemporalen Cortex scheint eine Struktur (Gyrus fusiformis; fusiformes
Gesichtsareal) auf die Analyse von Gesichtern spezialisiert zu sein.
Gesichter also bevorzugte Stimulusklasse?
o
Greebles, Gauthier et al. (1998, 1999) Wie das Antwortverhalten von Neuronen
durch Erfahrung geformt werden kann.
Experiment: aV: Bestimmung des Aktivierungsniveaus im Gyrus fusiformis als
Antwort auf das Betrachten von Gesichtern vs. „Greebles“. Test zu Beginn des
Trainings, dann vier Tage lang stundenlanges Training mit „Greebles“ –
Unterscheiden. Weiterer Test zu Trainingsende.
Ergebnis: Im ersten Test sprachen die Neuronen im fusiformen Gesichtsareal stark
auf die Gesichter und kaum auf die Greebles an. Im zweiten Test war die Antwort der
Neurone fast ebenso stark, wenn ein Greeble, wie wenn ein Gesicht gezeigt wurde.
Kein spezielles „Gesichter-Areal“, eher ein „Expertise-Areal“.
(6) Wahrnehmung – Bewegung und Handeln
Beispiel Baseballspieler: Abstimmung von Wahrnehmung und Handeln
-
Die ökologische Perspektive
o Grundannahmen: Gibson (1904-1979):

„direkte Wahrnehmung“: Information steckt direkt in der Anordnung, die
sich dem Betrachter bietet (Beispiel Texturgradient)


Information bietet sich vor allem dem sich bewegenden Betrachter (Beispiel
Wahrnehmung durch Bewegung, vgl. (4)).
Oberflächen in Umwelten werden in ihrer Struktur wahrgenommen;
Strukturen vermitteln Information. (Beispiel Texturgradient: wichtige
Umgebungsinformation, auch dann konstant, wenn Beobachter sich bewegt)
o
Optisches Fließen
Veränderung im optischen Feld durch die eigene Bewegung produziert. Information,
mittels derer Geschwindigkeit und Richtung der eigenen Bewegung festgestellt
werden kann (Beispiel Pilot Landeanflug). Unterschied im Ausmaß des Flusses: fährt
ein Auto über eine Brücke, ziehen die Geländer in unmittelbarer Umgebung schneller
vorbei, in einiger Entfernung in Fahrtrichtung langsamer (Funktion der Entfernung
vom Auto; Bewegungsgradient).
Punkt, in dem keine Bewegung sichtbar ist (Zentrum des Auseinanderfließens):
Zielpunkt der Bewegung ; Information über die Bewegungsrichtung.
Expansionspunkt.
o
Optisches Fließen und Bewegungssteuerung
Reziproke Beziehung zwischen Wahrnehmung und eigener Bewegung: optisches
Fließen liefert Information, die bei der Kontrolle weiterer Bewegung hilft. (Wir
müssen wahrnehmen, um uns zu bewegen, und uns bewegen, um wahrzunehmen.)
(Sollen Probanden Bilder von optischem Fließen beurteilen – also in welche Richtung die Bewegung
läuft – konnten sie das mit großer Sicherheit.)
o
Aber: Experiment Land & Lee (1994)
Experiment: Auto mit Messinstrumenten ausgestattet, Blickrichtung der
Versuchsperson gemessen.
Annahme nach Gibson: Expansionspunkt zeigt Zielpunkt der Bewegung an. In einer
Kurve sollte Zielpunkt sich dauernd ändern.
Ergebnis: Vpn blickten geradeaus, aber nicht auf den Expansionspunkt. Fuhren sie
eine Kurve, schauten sie auf die Tangente der Kurve am Straßenrand.
Autofahrer müssen außer dem optischen Fluss noch andere Informationen
benutzen, um ihre Bewegungsrichtung zu ermitteln.
o
Affordances

o
„später“ Gibson: Objekte oder Oberflächen werden nicht intern
repräsentiert, sondern haben einen direkten Aufforderungsgehalt; ihre
Möglichkeiten werden direkt vom Beobachter mit seinen Zielen und seiner
Eigenwahrnehmung wahrgenommen
Erste Näherung Bruce et al. (2003)
„to primitive men each thing says what it is and what he ought to do with it.. a fruit says “eat
me”, water says “drink me”, thunder says “fear me..”
o
Führt das Konzept der Affordances auf gestaltpsychologische Überlegungen
zurück.
Zweite Näherung: Beispiele aus der Alltagswelt.
(1) ZEIT-Artikel: „So ist das mit dem Vatersein, alles ist anders.. Ein Balkon ist nicht mehr nur
ein Balkon (..) bedeutet der eine Kletter- und Absturzgefahr, der andere relative
Sicherheit (…).
Affordance „Balkon“ ändert sich
(2) Design von Alltagsgegenständen (Bsp. Marmeladengläser)
o
-
Evaluation der Theorie
Stärken
Wichtig auf philosophischem Level:
gleiche Betonung von Organismus und
Umwelt
Gibson hat gezeigt, dass visuelle Reize
mehr Information liefern als zuvor
gedacht
Betonung des Zusammenspiels von
Wahrnehmung und Handlung
(Vorwegnahme der Bedeutung des
dorsalen Pfads! (vgl (2))
Schwächen
Beteiligte Wahrnehmungsprozesse sind
komplexer als von Gibson angenommen
Rolle von Gedächtnis und internen
Repräsentationen wird nicht
berücksichtigt.
Theoretischer Ansatz erfüllt effektiv nicht
alle Aspekte der Wahrnehmung (gilt
insbesondere für die Funktionen des
ventralen Pfades!)
Bewegungswahrnehmung: Neuronale Korrespondenz
o
Störung der Bewegungswahrnehmung: Akinetopsie
Welt erscheint wie durch ein Stroboskop-Licht: Keine flüssige Bewegung
wahrnehmbar, sondern nur verschiedene Bewegungs-„Level“, die wie einzelne Bilder
ablaufen. (Beispiel Daumenkino mit zu großen Sprüngen)
o
Newsome et al. (1989): Affen
Frage: Zusammenhang Fähigkeit eines Affen zum Entdecken von Bewegungsmustern
und dem Feuern von MT-Neuronen?
Experiment: Simultane Untersuchung von (a) Fähigkeit des Affen zur Beurteilung
der Bewegungsrichtung von Punkten, (b) die Antwort eines Neurons im
mediotemporalen Kortex des Affen.
Ergebnis: Bei zunehmend gleicher Bewegungsrichtung beurteilte (a) der Affe die
Bewegung schneller und (b) feuerte das Neuron, das für die Bewegungsrichtung
sensitiv war, schneller. Großer Zusammenhang (Beurteilungsfähigkeit kann aus der
Feuerrate einiger weniger MT Neuronen vorhergesagt werden!)
o
Zusatz: Salzman et al. (1990): Affen 2
Experiment: s.o., aber in der Hälfte der Fälle wurde das entsprechende Neuron
stimuliert.
Ergebnis: Stimulation des Neurons hatte Effekt auf die Entscheidung des Affen!
(Nahm mehr Bewegung wahr)
o
Probleme:
(1) Wie verrechnet das kognitive System Objekt- und Augenbewegungen?
Bewegtes Objekt: Auge bewegt sich bei der Betrachtung, das Abbild auf
der Netzhaut bleibt stationär; es wird Bewegung wahrgenommen.
Stationäres Objekt: Auge bewegt sich ebenfalls bei der Betrachtung,
Abbild auf der Netzhaut bewegt sich; es wird keine Bewegung
wahrgenommen.
(2) Wie gelangt das kognitive System aufgrund der zunächst nur lokalen
Auswertung von Bewegungssignalen zu eindeutigen
Bewegungswahrnehmungen komplexer Objekte?
(a) Feldausschnittproblem. Es gibt Neurone, deren rezeptives Feld
jeweils für einen Teil des Gesichtsfeldes für Bewegung in eine
bestimmte Richtung empfindlich ist. Aber eben jeweils nur für Teil
des Gesichtsfelds zuständig  wie kann Bewegung eines größeren
Objekts wahrgenommen werden? (Information muss irgendwo
weitergeleitet und integriert werden.)
(b) Korrespondenzproblem. Zwei korrespondierende Punkte eines
Objekts auf zwei Bildern aus unterschiedlichen Perspektiven
identifizieren. Bewegt sich ein Objekt, wird es an anderer Stelle auf
der Netzhaut abgebildet  wie können wir erkennen, dass es
dasselbe Objekt ist (denn unterschiedliche Stelle auf der Netzhaut
heißt auch, dass unterschiedliche Neurone zuständig sind)? Beispiel
Julesz-Stereogramm: mit zwei Augen gesehen, entsteht Illusion des
schwebenden Quadrates, bei sequentieller Präsentation auf nur
einem Auge: sich bewegendes Quadrat. Oder ZufallsKinematogramme (im Kreis aufblinkende Punkte): in schneller
Abfolge aufblinken, Entstehung einer Bewegungsillusion. (Störung
Akinetopsie: Wahrnehmung veränderter Einzelbilder, Information
scheint nicht integriert zu werden)
-
Die Rolle von Bewegungsschemata
o Top-down-Einflüsse
Rolle von Algorithmen, Heuristiken, Bewegungsschemata
o
Algorithmus, Beispiel Rad
(a) Gedachtes Rad, das Linie entlangrollt; Punkt sichtbar am Rahmen des Rades
(Wahrnehmung: hüpfender Punkt); (b) Gedachtes Rad, das Linie entlangrollt; Punkt
sichtbar im Zentrum des Rads und Punkt auf dem Kreis (Rahmen des Rads)
Wahrnehmung: sich bewegendes Rad.
Bewegte Einzelpunkte, die sich relativ zueinander bewegen, erzeugen gemeinsam
eine visuelle Struktur, die in keiner der Einzelbewegungen vorhanden ist (siehe (a)).
o
Johansson-Figuren
Kleine Lichter am Körper einer Person befestigen, Lichter in einem dunklen Raum
beobachten. Steht der Körper still, ergibt sich ein bedeutungsloses Muster; bewegt
er sich, wird sofort eine gehende Person wahrgenommen; Erkennen der Form aus
der Bewegung.
Wir sehen ständig biologische Bewegung; leicht in bedeutungshaltige
Wahrnehmung organisierbar (leicht kategorisierbar nach Geschlecht, Gewicht,
Stimmung, Anspannung etc.) Spezialisiertes Gehirnareal?
wenig Information notwendig, sehr schnell
 andere Hirnareale aktiv, Patienten mit Akinetopsie haben relativ gute
Wahrnehmung biologischer Bewegungen (scheint auf anderen Prozessen zu beruhen
als andere Bewegungswahrnehmung)
sehr früh vorhanden: angeborene Schemata?
o
Johansson-Figuren und Autismus
Blake et al. (2003)
Experiment: Vergleich von gesunden Kindern mit autistischen. Aufgabe: JohanssonFiguren von Kontrollfiguren unterscheiden.
Ergebnis: Gesunde Kinder können recht zuverlässig Aussagen über Geschlecht und
Stimmung machen, wenn sie Johansson-Figuren sehen; in einem nicht-biologischen
Kontrollmuster erkennen sie solche Strukturen nicht. Autistische Kinder zeigen
keinen Unterschied in den Bedingungen: Sie sehen keine Person in dem Lichtmuster
und sind außerstande, transportierte Stimmungen aus diesen Mustern
wahrzunehmen.
- Die Rolle der Aufmerksamkeit
o Inattentional Blindness
Simon & Chabris (1999)
Experiment: Video mit ballspielenden Kindern in weißen oder schwarzen T-Shirts,
Aufgabe (a) zählen, wie oft die Kinder in weißen Shirts sich den Ball zuwerfen, (b) wie
oft die Kinder in schwarzen Shirts sich den Ball zuwerfen. aV: Wieviele Probanden
bemerken den Mann im schwarzen Gorillakostüm, der währenddessen zwischen den
Kindern durchläuft?
Ergebnis: (a) 42% in der Weiß-Bedingung, (b) 83% in der Schwarz-Bedingung.
o
Change Blindness
Experiment: Jemanden nach dem Weg fragen, die Sicht für einen Moment stören
(Bauarbeiter tragen Holzplatte vorbei), Person auswechseln: Viele Probanden
bemerken nicht, dass ihnen jemand anderes gegenübersteht.
Vorübergehende Verdeckung; Sakkadische Suppression: Wahrnehmbarkeit eines
optischen Reizes während einer Sakkade stark verringert (Augenbewegung, Blinzeln
etc.)
(7) Wahrnehmung – Sprachwahrnehmung und Lesen
-
Leseforschung: Blickbewegungsmessung als zentrale Methode der Leseforschung, Auflösung
des Blickverhaltens in Fixationen und Sakkaden
o
o
Jumbled-Words-Effekt
Texte auch dann noch ohne Probleme zu lesen, wenn die Buchstaben vertauscht
wurden?
o
Rayner et al. (2006), jumbled words
Experiment: Aufgabe Probanden: Text lesen, aV: Anzahl der Fixationen, %
Rücksprünge, mittlere Fixationsdauer. uV:
1.
2.
3.
4.
Normaler Text (The boy could not solve the problem.)
Verschiebung interner Buchstaben (The boy cuold not slove the probelm.)
Verschiebung von Endbuchstaben (The boy coudl not sloev the problme.)
Verschiebung von Buchstaben am Wortanfang (The boy oculd not oslve the rpoblem.)
Ergebnis: In Bedingung (1) weniger Fixationen, Rücksprünge und mittlere
Fixationsdauern; mit ansteigender Veränderung (für Bed. 4 am stärksten)
deutlich mehr Fixationen, Rücksprünge etc.
Aussage kann so nicht aufrechterhalten werden, aber zum Teil (Effekt der Verschiebung interner
Buchstaben ist relativ klein, und auch in Bedingung 4 sind die Worte noch lesbar).
-
Interactive Activation Model (IAM)
o
Modell der Worterkennung. Grundannahmen: Visuelle Worterkennung besteht aus
sich gegenseitig fördernden und hemmenden Prozessen von datengetriebener
(bottom-up) und konzeptgetriebener (top-down) Wahrnehmung.
1. Wahrnehmungseinheiten auf drei Ebenen: Merkmalsebene, Buchstabenebene,
Wortebene.
2. Wird ein Merkmal in einem Buchstaben entdeckt, werden alle
Buchstabeneinheiten, auf die dieses Merkmal zutrifft, aktiviert (vgl.
Pandämonium-Modell, (5)) und alle anderen gehemmt.
3. Position des Buchstaben innerhalb des Worts identifizieren, alle Wortebenen,
für Vier-Buchstaben-Wörter-Einheiten, in denen der Buchstabe an dieser
Position auftaucht, werden aktiviert, die anderen gehemmt.
4. Wörter werden auf der Wortebene erkannt. Top-down-Verbindungen zwischen
Wort- und Buchstabenebene.
Auf jeder Ebene des Systems führt die Aktivierung einer bestimmten Einheit
zur Hemmung aller anderen, konkurrierenden Einheiten.
einflussreiches Modell, kann einige Effekte gut erklären
(Wortüberlegenheitseffekt, Pseudowortüberlegenheitseffekt)
o
Wortüberlegenheitseffekt
Experiment: Kurze Präsentation Stimulus, Maske, dann Frage zum Stimulus (an
dritter Stelle ein O oder ein U?). uV: Stimulus entweder Wort (Blume) oder
Pseudowort. aV: Reizdiskriminierung (richtige Antworten).
Ergebnis: Wörter hatten eindeutig einen Vorteil und wurden besser erkannt als
Pseudowörter. Nach IAM: Top-down-Einflüsse der Wortebene auf die
Buchstabenebene (Einheit „Blume“ ist aktiviert und hemmt damit die Einheit „O“ auf
dem Buchstabenlevel).
o
Pseudowortüberlegenheitseffekt
Experiment: s.o., aber Stimulus entweder aussprechbares Pseudowort (PLUZE) oder
unaussprechbares Pseudowort.
Ergebnis: Auch die aussprechbaren Pseudoworte hatten einen Vorteil ggü den
unaussprechbaren Pseudoworten.  Nach IAM: Überschneidung von Schreibweisen
(Mustern, wie buchstabiert wird) zwischen richtigen Wörtern und aussprechbaren
Pseudoworten. (Top-down-Einfluss). Diese Überschneidung kann zusätzliche
Aktivierung der gezeigten Buchstaben hervorrufen und so zu dem Effekt führen.
Aber: einige Befunde sind durch das IAM nicht gut zu erklären: jumbled-words-Effekt, die
Bedeutung der Phonologie (Erklärung nur visuell)
o
IAM und der jumbled-words-Effekt
Im Prinzip kann der Grundgedanke des IAM (Pandämonium-Metapher!!) den Effekt
verständlich machen, aber im Speziellen nicht, weil die Verbindungen zwischen
Buchstaben- und Wortebene im Modell auf Buchstaben an der richtigen Position
beschränkt sind.
-
Die Rolle der Phonologie
o
Hypothese von Frost (1998)
Phonologische Verarbeitung ist obligatorisch beim Lesen von Wörtern.
o
Evidenz: Stroop-Farbbenennungsaufgabe, Tzeldov et al. (1996)
Ausgangsbefund: Stroop-Effekt: Man braucht länger, um Farbe eines Wortes zu
benennen, wenn Wort selbst ein anderes Farbwort ist (Wort rot in grüner Schrift,
„grün“ sagen – dauert länger als Wort groß in grüner Schrift, „grün“ sagen).
Experiment Tzeldov: Probanden zweisprachig (englisch, hebräisch), Aufgabe: Farben
von Nichtwörtern benennen; Nichtwörter waren aber in der jeweils anderen Sprache
vorgelesen eine Farbbezeichnung (also: „Adorn“ ist kein englisches Wort, bedeutet
auf Hebräisch aber „rot“). aV: RZ.
Ergebnis: Der Stroop-Effekt ließ sich trotzdem nachweisen! Probanden übersetzten
das Wort also automatisch in sein auditives Format, auch wenn es eher zum Nachteil
für die Bewältigung dieser Aufgabe war.
-
o
Aber Gegenevidenz Frost: Phänomen der Phonologischen Dyslexie
o
Phänomen: Personen können unbekannte Wörter oder aussprechbare Nicht-Wörter
nicht aussprechen. Mechanismus, der es erlaubt, visuelle Information in auditive
Information umzuwandeln, muss gestört sein. Nach Frost müssten diese Menschen
nicht lesen können; das tun sie aber. Bekannte und häufig vorkommende Wörter
können ausgesprochen werden; es muss also auch einen alternativen
Verarbeitungsweg geben.
Typen von Dyslexien
o
Dyslexie allgemein: Beeinträchtigung der Leseleistung, die deutlich höher ausfällt als
aufgrund des allgemeinen Intelligenzniveaus der Person erwartet werden könnte.
o
o
Phonologische Dyslexie
Oberflächendyslexie
o
Tiefendyslexie

Dual-route cascaded model
Drei Wege zwischen gedrucktem Wort und Sprache. Zuerst gemeinsame
Basis: Wortbestandteile identifizieren. Schlüsselunterscheidung der
Verarbeitungswege: lexical vs. Non-lexical.
Non-lexical: Buchstaben in Geräusch umwandeln
Lexical: Basierend auf gedanklichem Wörterbuch
In der Regel verwenden wir die lexical route beim Wörterlesen, die nonlexical-Route bei Nichtwörtern.
o
Erklärung der Dyslexien:

Phonologische Dyslexie
Hauptproblem der Betroffenen: Nicht-Wörter und unbekannte Wörter lesen.
Intakte lexikalische Route, aber Schädigungen der nonlexikalischen:
Wortbestandteile identifiziert, mit gedanklichem Wörterbuch im
semantischen System abgeglichen, Aussprache erinnert  Sprache.
Besondere Form von phonologischer Dyslexie: Hauptproblem der Betroffenen: semantische
Beurteilungen fällen, Nicht-Wörter lesen.
Form von phonologischer Dyslexie, bei der das (korrekte) Lesen von Wörtern nicht von
semantischem Verständnis begleitet ist. Nur Zugang zu Teilen der lexikalischen Route, nicht
zur nonlexikalischen. Es gibt ein Lexikon und erinnerte Ausspracheregeln, aber keinen Zugriff
auf das semantische System.

Oberflächendyslexie
Hauptproblem der Betroffenen: Aussprache nichtregulärer Wörter / Lesen
irregulär auszusprechender Wörter. Nur Zugang zur non-lexical-route:
Wortbestandteile identifizieren  Ausspracheregeln  Sprache. Kein
Zugang zu gedanklichem Wörterbuch etc.; regelmäßig aussprechbare Wörter
sind kein Problem (auch Nichtwörter).

Tiefendyslexie
Hautproblem der Betroffenen: Lesen seltener oder Nichtwörter.
Charakteristisch: sogenannte semantische Paralexien („Krug“ soll gelesen
werden, Antwort ist „Flasche“). Visuelle und semantische Fehler (visuell:
„mouth“, gelesen „month“, semantisch: „heart“, gelesen „blood“).
Argumentation Coltheart et al. (2001): Patienten mit Tiefendyslexie nutzen
nicht das normale Lesesystem in gestörter Form, sondern kompensatorisch
ein alternatives Lesesystem, das in der rechten Hemisphäre lokalisiert ist.
Alternative Erklärung: Störung der nonlexikalischen Route und spezifische
Störungen des semantischen Systems (beispielsweise zu schwache
Hemmung von konkurrierenden semantischen Einträgen).
-
Parallel-verteiltes Modell von Plaut et al. (1996)
o
o
o
Weniger erklärungsmächtig als das dual-route-cascaded-model, aber: Im Gegensatz
zu anderen Modellen lernt es Eingabe-Ausgabe-Muster.
Idee: Das Netzwerk lernt, Wörter richtig auszusprechen, wenn sich Verbindungen
knüpfen zwischen der visuellen Form von Buchstaben und
Buchstabenkombinationen (grapheme units) und ihren entsprechenden Phonemen
(phoneme units).
Architektur:
61 phoneme units(Output)
100 hidden units
105 grapheme units(Input)
o
o
-
Hochgradige Vernetzung, hemmende und aktivierende Verbindungen (Start mit
Zufallsgewichten, Ausbildung von „Verbindungsgewichten“; dieses grapheme unit
wird statistisch häufiger so ausgesprochen als so)
„hidden units“ sind Einheiten, denen a priori keine Bedeutung zugeordnet wird; wird
für komplexere Lernprozesse benötigt.
Worterkennung im Kontext
o In der realen Sprachverarbeitung findet Worterkennung fast ausschließlich im
Kontext anderer Wörter statt.
o
Semantisches Priming
Frage: Ist Wortidentifikation vom Kontext beeinflusst?
Experiment: Zuerst Prime darbieten (Beispiel BLUME), dann entweder (a) semantisch
verwandtes Wort als Target (Tulpe), (b) nichtverwandtes Wort, (c) Nichtwort.
Aufgabe Probanden: entscheiden, ob Wort oder Nichtwort. aV: RZ.
Ergebnis: RZ ist dann geringer, wenn ein semantisch verwandtes Wort vorangeht.
Aber möglicherweise nur, weil sich die Erwartung ausgebildet hat, dass nach dem
Prime ein semantisch verwandtes Wort kommt? Neely.
o
Neely (1977), Kategorienamen; semantisches Priming
Experiment: Verwendung von Kategorienamen (Beispiel Building oder Body) als
Primes und Exemplare der Kategorien als Targets (door, heart). Induziert Erwartung
der Probanden, dass fast immer eine nicht zusammenpassende Prime-TargetBeziehung präsentiert wird (also Body – dann Gebäudeteil). Außerdem variiert:
Zeitintervall zwischen Prime und Target.
Zwei Arten von Tests: 1. Auf den Namen einer Kategorie folgt ein Exemplar aus einer
anderen (aber erwarteten) Kategorie wie es gelernt wurde, also: Body – door. 2. Auf
den Namen der Kategorie folgt ein Exemplar derselben Kategorie, das aber
unerwartet ist weil so nicht gelernt, also: body – heart.
Ergebnis: Bei sehr kurzem Zeitintervall findet sich ein größerer Effekt der
semantischen Verknüpfung (body- heart besser), bei längerem zeigte sich der auf die
Erwartung basierte Aufmerksamkeitseffekt (body – door ).
Der semantische Kontext der Kategorien wird also schneller und unbewusster
aktiviert, Erwartung ist eher ein Aufmerksamkeitseffekt und überlagert den anderen
nur bei etwas längerer Zeit.
Kontexte machen Wortbedeutungen automatisch zugänglich. Funktion z.B.
Disambiguierung (mehrdeutige Wörter).
o
Disambiguierung
Experiment: Satz mit mehrdeutigen Worten präsentiert (The man spent the entire
day fishing on the bank). Zunächst sind damit alle Bedeutungen parallel aktiviert
(Flussufer, Geldinstitut..). uV Prime: (a) River (passend zum Kontext), (b) Money
(weniger gut passend zum Kontext), (c) Kontrollwort. aV: RZ Wort oder NichtwortEntscheidung.
Ergebnis: Kürzeste RZ in der River-Bedingung, dann folgt b und für das Kontrollwort
ist die RZ am längsten  auf das zum Kontext passende Wort ist man stärker
geprimed als auf das unpassende.
-
Lesen von Sätzen
o Augen bewegen sich in schnellen Bewegungen (sakkaden); Information wird aus dem
Text während der Fixation gewonnen, nicht während der Sakkaden. Nur etwa 10%
der Sakkaden gehen im Text zurück, sonst in eine Richtung.
o
Moving-Window-Technik
Nur ein Ausschnitt des zu lesenden Textes ist klar sichtbar (Fenster um den
Fixationspunkt des Probanden), durch Blickbewegung Proband wird Fenster
gesteuert; durch Veränderung der Fensterbreite kann untersucht werden, bis wann
Lesen möglich ist.
o
Was passiert im parafovealen Bereich?
Über Wort-Austausch-Technik testen:
Das Wort im parafovealen Bereich wird während der Sakkade, die zu diesem Wort
springt, ausgetauscht.
Fixationszeit ist generell länger, wenn Wort ausgetauscht wird; Effekt ist aber
weniger ausgeprägt, wenn das vorige Wort visuell oder phonologisch ähnlich ist.
Semantische Ähnlichkeit verkürzt Fixation nicht.
Keine semantische Verarbeitung im parafovealen Bereich.
E-Z-Reader-Modell
Etwa 80% der inhalttragenden Wörter (Substantive, Adjektive, Verben) werden
fixiert, nur etwa 20% der Funktionswörter (Artikel, Präpositionen etc.)
Modell: Vertrautheitscheck des fixierten Wortes, nächste Blickbewegung:
lexikalischer Zugriff auf das fixierte Wort; Aufmerksamkeit aufs nächste; in der
labilen Phase der Blickbewegungsprogrammierung kann das Programm abgebrochen
werden.
Erklärt zum Beispiel, dass nicht nur seltene, sondern auch darauf folgende Wörter
länger fixiert werden (während der langen lexikalischen Zugriffsphase für das seltene
Wort bleibt keine Zeit für parafoveale Verarbeitung des nächsten Wortes)
Wahrscheinlichkeit des Überspringens steigt für gebräuchliche, vorhersagbare und
kurze Wörter (die „ofs“ in der „F-Zählen“-Aufgabe)
 Fazit:
- Worterkennung wird häufig durch konnektionistische Modelle erklärt (Rolle von top-downProzessen)
- Semantischer Kontext spielt eine große Rolle (Semantisches Priming!)
- Rolle der Phonologie bei der visuellen Worterkennung
- Blickbewegung als Methode der Wahl des Leseprozesses
(8) Aufmerksamkeit – Selektive Aufmerksamkeit
-
Neuropsychologie: Neglect – Aufmerksamkeitsphänomen!
Problem mit dem Untersuchen und Berichten von Reizen auf der kontralateral zur
Hirnschädigung liegenden Raumseite; meist Vernachlässigung von Stimuli im linken visuellen
Halbfeld. Primäre visuelle und motorische Strukturen sind nicht geschädigt, es wird also
Information verarbeitet, aber nicht ausreichend, um bewussten Eindruck zu erzeugen. Sogar
Reaktion auf Primes im vernachlässigten Gesichtsfeld (schnellere RZ). Defizit der
Aufmerksamkeit
-
Aufmerksamkeitsphänomene im Alltag (vgl. (6)), change blindness
-
Aufmerksamkeit nach James (1890): „Aufmerksamkeit ist das Besitzergreifen durch den
Verstand, in einer klaren und lebhaften Form (..) Bündelung, Konzentration des Bewusstseins
sind das Wesentliche. (…) Sie beinhaltet das Zurückziehen von einigen Dingen, um mit den
anderen wirkungsvoll umgehen zu können.“
o
o
o
o
o
-
Unterscheidung:
o
o
-
Selektion
Hervorgehobene Verarbeitung der mit Aufmerksamkeit bedachten Stimuli
Reduzierte Verarbeitung der nicht mit Aufmerksamkeit bedachten Stimuli
Funktional („um mit den anderen wirkungsvoll umgehen zu können“)
Bewusstsein
Ziel-determinierte Aufmerksamkeit (goal-driven) (Aufmerksamkeit von selbst auf
etwas richten, visuelle Suche)
Stimulus-determinierte Aufmerksamkeit (stimulus-driven) (Stimulus bewirkt, dass
man die Aufmerksamkeit auf ihn richtet, Bsp. Spinne)
Die frühe Aufmerksamkeitsforschung: Beachtete vs. Unbeachtete auditive Information
o
Typisches Experiment dichotisches Hören
Idee: Proband trägt Kopfhörer und hört gleichzeitig zwei verschiedene Informationen
auf getrennten Kanälen, dabei soll eine der Informationen „beschattet“ werden
(beispielsweise die Wörter aus einer Nachricht wiedergeben); „shadowing-task“.
1. Erste Ergebnisse (Cherry 1953, Moray 1959):
Von der unbeachteten Information scheint wenig anzukommen:
Probanden können später lediglich angeben, ob sie eine menschliche
Stimme oder Geräusche gehört haben und – wenn es eine Stimme war –
ob sie männlich oder weiblich war und ob sie während des Tests
gewechselt hat.
Nicht bemerkt wurde, ob die unterdrückte Information in einer fremden
Sprache war, ob sie rückwärts abgespielt wurde oder ob dasselbe Wort
immer wieder wiederholt worden war.
-
Broadbents Filtertheorie (1958)
Annahme: Information aus beiden Kanälen kommt für kurzen Moment in einen
Zwischenspeicher; aufgrund physischer Merkmale (bsp. Ohr) wird das Signal einer der
Quellen „ausgefiltert“, um eine Überbelastung der kapazitätslimitierten Mechanismen zu
vermeiden.
Theorie der frühen Auswahl; sensorische Information durchläuft das System
ungehindert, bis es eine Art Flaschenhals erreicht – an dieser Stelle wird entschieden,
was ausgefiltert und was weiterverarbeitet wird.
o
Evidenz für den Zwischenspeicher
Experiment (vgl. (11)): Gedächtnisaufgabe. Zwei Kanäle, auditive Darbietung von je
drei Zahlen. Dann Wiedergabe.
Ergebnis: Im recall geben die meisten Probanden ohr-weise wieder, also erst die
Zahlen, die auf dem einen, dann die Zahlen, die auf dem anderen Ohr gehört
wurden; spricht für Vorrang physischer Merkmale (Ohr) bei der Wiedergabe,
außerdem: die Information vom zweiten Kanal muss also zwischengespeichert
worden sein (sensory buffer).
 Sensorische Speicher: Ikonisches Gedächtnis und die Sperling-Versuche, siehe Vorlesung
(11).
 Sensorische Information wird für kurze Zeitspanne in den sensorischen Speichern (auditiv 
Broadbent, oder visuell  Sperling) gehalten. Die weiteren Verarbeitungsmechanismen
arbeiten mit dem Material, das in diesen Speichern gehalten wird.
o
Probleme der Filtertheorie
Es findet in gewissem Maße eine Bedeutungsanalyse der unbeachteten Information
statt.
1. Gray & Wedderburn (1960)
Experiment: Dichotisches Hören, auf einem Kanal beispielsweise „Who 6
there“, auf dem anderen „4 goes 1“. Wiedergeben.
Ergebnis: Es wurde bevorzugt „Who goes there“ wiedergegeben, dann „641“.
Die Tatsache, dass die Auswahl bedeutungsbasiert sein kann, widerspricht den
Annahmen der Filtertheorie.
2. Treisman (1960)
Experiment: Dichotisches Hören, Sätze auf beiden Kanälen. Ein Ohr
beschatten, Wiedergabe.
Ergebnis: Es gab in wenigen Fällen sogenannte „Durchbrüche“ der
Information aus dem unbeachteten Kanal (Beispiel: rechtes Ohr „I saw the
girl song was wishing“ und linkes Ohr „me that bird jumping in the street“ 
Wiedergabe: „I saw the girl jumping in the street“. ) Durchbrüche vor allem
dann, wenn die Information sehr gut zum Kontext der zu beschattenden
passt.
3. Moray (1959), der eigene Name wurde in etwa einem Drittel der Fälle im
unbeachteten Kanal entdeckt. (gründlichere Untersuchung Wood & Cowan)
-
Treismans Dämpfungstheorie (1964)
Annahme: Das Signal des unbeachteten Kanals wird minimiert, aber nicht vollständig
ausgefiltert. Semantische Verarbeitung der unbeachteten Information ist schwierig, aber
prinzipiell möglich („breakthroughs“). Offenbar beeinflusst von der Relevanz der
unbeachteten Information (große physikalische Stärke – ein lautes Geräusch – oder eben gut
zum Kontext passend, siehe oben oder persönliche Relevanz - siehe Moray).
1. Wood & Cowan (1995)
Experiment: Kontrollgruppe ohne besondere Information, KG die einen
fremden Namen hörte, EG eigener Name im unbeachteten Kanal (einmal),
EG eigener Name wiederholt
Ergebnis: Die meisten „shadowing“-Fehler passierten in der
Experimentalgruppe und dort am häufigsten in der wiederholten Bedingung.
-
Die Theorie der späten Auswahl, Deutsch & Deutsch (1963)
Annahme: Die gesamte Information wird ungedämpft verarbeitet. Nicht die Begrenzung der
Kapazität des Wahrnehmungssystems ist entscheidend, sondern des Reaktionssystems.
1. Treisman & Geffen (1967)
Experiment: Aufgabe Probanden: Beschatte einen Kanal, wenn du ein
bestimmtes Target-Wort hörst, drücke eine Taste – egal auf welchem Kanal
du das Wort hörst.
Ergebnis: deutlicher Unterschied in der Entdeckungsrate zwischen
beachtetem und unbeachtetem Kanal.
Aber: Deutsch & Deutsch kritisierten, dass die Targets auf dem
beschatteten Kanal mit zwei Reaktionen beantwortet werden; nachsprechen
und Tastendrücken. Sie werden daher als wichtiger angesehen und nach
Deutsch & Deutsch hängt die Reaktionsbereitschaft von der Wichtigkeit ab.
2. Treisman & Riley (1969)
Experiment: Stoppe das Nachsprechen, wenn ein Targetwort kommt und
drücke nur noch die Taste; egal auf welchem Kanal das Targetwort zu hören
ist.
Ergebnis: Immer noch deutlicher Unterschied.
Spricht für die Dämpfungstheorie nach Treisman.
-
Perceptual load theory, Lavie (1995, 2000)
Annahme: ob früh oder spät selektiert wird, hängt von situationalen Bedingungen ab.
Begrenzte Aufmerksamkeitskapazität. Hoher perceptual load (keine Mitverarbeitung von
Distraktoren, weil hohe Beanspruchung der Aufmerksamkeit durch Zielreiz): frühe Selektion.
Niedriger perceptual load (Geringe Anforderung an Aufmerksamkeit, Mitverarbeitung
irrelevanter Information): späte Selektion.
Also zum Teil frühe Auswahl (wie nach Broadbent), zum Teil späte Auswahl (wie nach
Deutsch & Deutsch).
1. Mit visuellem Material und der sog. Flanker-Aufgabe getestet
Flanker-Paradigma
Experiment: Präsentation von Buchstabentripeln. Aufgabe Probanden:
Erscheint ein H oder ein T in der Mitte, rechte Taste drücken. Erscheint ein K
oder ein R in der Mitte, linke Taste drücken. uV: neutrale Distraktoren (Q)
oder Distraktor, der mit konkurrierender Reaktion verknüpft ist (K, wenn ich
das H entdecken soll).
Ergebnis: Mit konkurrierender Reaktion verknüpfte Distraktoren
verlangsamen die Reaktion deutlich stärker.
2. Lavie (2005)
Experiment: Aufgabe Probanden: Befindet sich ein X oder ein N in der
kreisförmigen Reizkonfiguration? uV1: Distraktoren entweder Buchstaben
(hoher perceptual load) oder Kreise (niedriger perceptual load). uV2:
Distraktor neben der Reizkonfiguration –entweder neutral oder inkompatibel
mit der Antwort (verknüpft mit konkurrierender Entscheidung).
Annahme: Distraktor sollte mehr Effekt in der low load-Bedingung haben
(dann werden irrelevante Reize mehr mitverarbeitet!)
Ergebnis: Bestätigung der Annahme; in der low load-Bedingung störte der
Distraktor mehr.
Zwischenfazit: Aufmerksamkeitsausrichtung ist in erster Linie abhängig von physikalischen
Informationen (Ort der Schallquelle oder Ohr, siehe Broadbent). Die Verarbeitung der unbeachteten
Information ist minimiert, aber nicht vollständig ausgefilert. Sie kann durchaus auch semantisch
verarbeitet werden und so auch Aufmerksamkeit auf sich ziehen.
-
Visuelle Aufmerksamkeit
o Nicht identisch mit fovealer Verarbeitung (vgl. (7) E-Z-Reader-Modell)
o
Das Cuing-Paradigma (Posner, 1980)
Experiment: Aufgabe Probanden: Augen nicht bewegen (x in der Mitte des
Bildschirms fokussieren); visuelle Zielreize entdecken, nachdem sie vorher
Hinweisreize gesehen haben.
uV1: Variation der Hinweisreize, (a) zentraler cue: Symbol (Pfeil) am Fixationspunkt
zeigt auf bestimmte Position, wo Target auftauchen wird, (b) peripherer cue: kurzes
Aufflackern des Reizes am Ort, wo das Target auftauchen wird
uV2: (a) valider Hinweisreiz (Zielreiz taucht auf, wo er vorhergesagt wurde), (b)
invalider Hinweisreiz (taucht woanders auf).
uV3: Zeit zwischen Hinweisreiz und Zielreiz
aV: Reaktionszeit.
Ergebnis: Für beide cues wenn Hinweisreize zu 80% valide waren, also informativ:
Reaktionszeit am kürzesten, wenn der Hinweisreiz zutreffend ist (valide), dann RT
wenn es keinen Hinweisreiz gab, langsamste RT wenn der Hinweisreiz falsch war.
Wenn Hinweisreize selten valide (also eigentlich nicht informativ): Kein Effekt der
zentralen cues mehr, aber immer noch der peripheren!
Zeitverlauf: Für zentrale cues langsam, träge (Latenz > 200 ms),
Aufmerksamkeitszuwendung bleibt lange erhalten (>500 ms). Für periphere cues
schnell (Latenz ~ 50 ms) (der Augenbewegung an einen peripheren cue geht die
Aufmerksamkeitsbewegung voraus!), bleibt nur kurz aufrechterhalten (Phase, in der
es eine Erleichterung durch den peripheren cue gibt; dann gegenteiliger Effekt
(„inhibition of return“  lange Zeitverzögerung zwischen Hinweis- und Zielreiz führt
zu verlangsamter RT auf ein Target an indiziertem Ort (mögliche Erklärung: taucht
der erwartete Zielreiz nicht sofort auf, wird die Region eher gehemmt)).
-
 Folgerung: Zwei Aufmerksamkeitsmechanismen
o
o
Willentlich, kontrolliert (bei Posner: endogene Aufmerksamkeitssteuerung)
Reflexiv, automatisch (bei Posner: exogene Aufmerksamkeitssteuerung)
Korrespondenz zu brain-imaging-Studien: verschiedene Hirnregionen beansprucht
während der Mechanismen; endogene Steuerung dorsal frontoparietal, exogene
ventral frontoparietal, rechtshemisphärisch
(passend: Befunde zu neglect-Patienten; „cuing“ kann bei neglect wirken  Neglect
kann als Defizit des exogenen Systems betrachtet werden)
-
Form der räumlichen Aufmerksamkeit
o
Die Spot-Light-Metapher
Visuelle Aufmerksamkeit als eine Art wandernder Scheinwerfer. Evidenz aus dem
cuing-Paradigma.
Aber: drei Angriffe (zoom-lens-Metapher, split attention und object-based
attention)
o
Die Zoom-Lens-Metapher, Eriksen & St James (1986)
Der „Kegel des Schweinwerfers“ kann wie bei einem Zoom unterschiedlich breit sein.
1. Evidenz: LaBerge, 1983
Experiment: Darbietung von 5-Buchstaben-Wörtern. Target, das möglichst
schnell erkannt werden sollte, erschien direkt nach dem Wort (anstatt der
Buchstaben aus dem 5-Buchstaben-Wort vier „+“ und das Target, an
irgendeiner Position). uV: Variation der Aufmerksamkeits“breite“, bevor das
Target gezeigt wird. (a) Buchstaben aus der Mitte des Wortes benennen
(kleiner Zoom), (b) das gesamte Wort kategorisieren (weiter Zoom).
Ergebnis: In Bedingung (a) gab es einen Vorteil, wenn das Target im Zentrum
des Stimulus (++7++) auftauchte, deutlicher Nachteil, wenn es am Rand
auftauchte. In der zweiten Bedingung waren die Probanden durchschnittlich
schneller und vor allem: gleich schnell, egal an welcher Position das Target
auftauchte.
 Aber: Split Attention, Awh et al. (2000)
Experiment: Aufgabe Probanden: Aus einem Display, das aus lauter Buchstaben und zwei
Ziffern besteht, die Position der Ziffern angeben. uV1: (a) Valide Hinweisreize (vor dem
Auftauchen des Displays erscheinen Hinweisreize an den Stellen, wo die Ziffern auftauchen),
(b) invalide Hinweisreize (eine Ziffer taucht zwischen den angezeigten Orten auf, die andere
woanders). aV: Reaktionszeit, für jede Ziffer einzeln.
Ergebnis: Hohe Genauigkeit bei den validen Trials, bei den invaliden Einbußen für die Ziffer,
die am anderen Ort auftauchte, aber auch für die, die in der Mitte der Hinweisreize
auftauchte. (Nach Annahmen der Scheinwerfer- oder Zoom-Lens-Theorien hätte es dort
eine höhere Leistung geben müssen).
Geteilte Aufmerksamkeit ist möglich.
Zwischenfazit: Die einfache spot-light-Metapher lässt sich so nicht halten. Die
Experimente (s.o.) zeigen, dass die räumliche Region, die mit Aufmerksamkeit
verarbeitet wird, sehr viel flexibler einstellbar ist.
-
Ist es immer eine räumlich bestimmte Region, auf die die Aufmerksamkeit gerichtet ist?
Aufmerksamkeit raum- oder objektfokussiert?
o Object-based-Attention
(vgl. (6), Inattentional Blindness: nicht auf Region, sondern Objekt fixiert)
1. Behrmann et al. (1998), Kerben
Experiment: Darbietung von zwei diagonal gekreuzten Rechtecken. An jeder der
kürzeren vier Seiten können Kerben eingezeichnet sein (keine, eine, zwei). Ein
Rechteck kann unterschiedlich gekerbte Enden haben oder gleiche. Aufgabe
Probanden: angeben, ob sie in der Darstellung nur die gleiche Anzahl Kerben
sehen. uV: Kerben entweder (a) innerhalb des gleichen Rechtecks und damit
weiter auseinander oder (b) an unterschiedlichen, aber näher beieinander (linke
Seite des Kreuzes).
Ergebnis: Findet man die Kerben innerhalb des gleichen Objekts (Rechtecks), ist
die RT deutlich kürzer als wenn beide Rechtecke gekerbt sind und man hier die
Anzahl vergleichen muss. (nähme man räumlich fokussierte Aufmerksamkeit an,
hätte es hier einen Vorteil geben müssen.)
2. Egly et al. (1994)
Experiment: Displays mit zwei aufrechten Rechtecken nebeneinander.
Aufgabe Probanden: Zielreiz entdecken. uV1: Vorher (a) valider Hinweisreiz
auf Auftauchen des Targets oder (b) invalider Hinweisreiz; uV2: Von den
invaliden Hinweisreizen konnte er (a) am gleichen Objekt, nur an falscher
Stelle auftauchen oder (b) am anderen Objekt auftauchen. aV: RT.
Ergebnis: Bei validen Hinweisreizen war die Reaktion schneller
(ortsbasierte Aufmerksamkeit), bei den invaliden war sie schneller, wenn
der Hinweisreiz am richtigen Objekt aufgetaucht war (objektbasierte
Aufmerksamkeit).
Orts- und objektbasierte Aufmerksamkeit scheinen keine Prozesse sein, die sich ausschließen!
(Auch neuropsychologische Evidenz für Dissoziation von objekt- und ortsbezogener Aufmerksamkeit)
-
Cross-modales cuing
Koordination mehrerer Sinne; cuing von einem anderen Sinn?
Experiment: Taktile Hinweisreize funktionierten als cue für visuelle Target-Aufgabe. Kein
Hemisphären-Cuing, (derselbe Effekt trat bei gekreuzten Händen auf).
-
Steuerung der Aufmerksamkeit
o Attentional capture und Aufgabenrelevanz
1. Alte Sicht: unabhängig von Zielen der Personen, unflexibel, „festverdrahtet“
2. Neue Sicht: Nur aufgabenrelevante Merkmale ziehen potentiell
Aufmerksamkeit auf sich, abhängig von den Zielen der Personen (s. Folk et
al.)
Folk et al. (1992)
Annahme: Nur cues, die dem Target ähneln, ziehen Aufmerksamkeit auf sich.
Experiment: Probanden sollen nach Targets suchen (entweder abrupt onset oder
Farb-Target); cues ebenfalls entweder Farb-cue oder abrupt onset. uV1: passender
cue oder unpassender cue, uV2: valide oder invalide. aV: RT.
Ergebnis: Nur wenn es sich um einen passenden cue handelte, zeigte sich der
Validitätseffekt (schnellere RT bei validem cue, langsamere bei invalidem).
o
-
Drei Teilfunktionen des stimulus-driven systems:
1. Enaging (Mechanismus, der Aufmerksamkeit an neuen Ort, neues Objekt
„anbindet“)
2. Disengaging (Mechanismus, der Aufmerksamkeit ablöst)
3. Move (Verlagerung der Aufmerksamkeit vom einen zum anderen Ort)
Welche Funktion hat die selektive Aufmerksamkeit?
o
Objektintegration
1. Das Bindungsproblem
Verschiedene Merkmale von Objekten werden in unterschiedlichen
Bereichen des visuellen Cortex verarbeitet und repräsentiert.
„Das Problem, wie neuronale Aktivitäten in verschiedenen getrennten
Arealen des Gehirns zur Wahrnehmung ein- und desselben Objekts
verknüpft werden.“
Konjunktionsfehler: Fehlerhafte Integration von Merkmalen zur
Gesamtrepräsentation eines Objekts.
 Merkmalsintegrations-Theorie von Treisman



Schneller, initialer, paralleler Prozess der Merkmalserkennung; hängt
nicht von Aufmerksamkeitszuwendung ab
Langsamer, serieller Prozess, in dem die Merkmale zu Objekten
integriert werden
Die Merkmalsinformation muss sich im Zentrum der Aufmerksamkeit
befinden, um zu einem Muster zusammengesetzt zu werden.
Beispiel: 1. Aufgabe Probanden „Ist ein T enthalten?“ in einem Display, das
ansonsten aus I und Y bestand (den Querstrich suchen, der das T von allen
anderen unterscheidet). 2. Aufgabe Probanden: „Ist ein T enthalten?“ in
einem Display, das sonst aus I und Z bestand (mehrere Merkmale suchen und
verknüpfen; Zuwendung der Aufmerksamkeit von Item zu Item) In
Aufgabe 2 brauchten die Probanden deutlich länger.
Visuelle Suche
Experiment: Aufgabe Probanden: möglichst schnell entscheiden, ob ein
Target in einer Menge von Distraktoren ist oder nicht. uV1: Target anwesend
oder abwesend, uV2: Größe des Displays (Anzahl der Reize), uV3: Target
aufgrund von einem einfachen Merkmal entdeckbar (einziger schwarzer
Balken inmitten von weißen) oder nur aufgrund von Merkmalskonjunktion
auffindbar. aV: RT
Ergebnis: Ist das Target aufgrund eines einzelnen Merkmals auffindbar, spielt
die Displaygröße keine Rolle.(schneller, initialer Prozess der
Merkmalserkennung). Ist Merkmalskonjunktion notwendig, steigt die
benötigte RZ mit der Displaygröße (Hinweis auf den langsamen, seriellen
Prozess nach Treisman).
Problem der Theorie: Gegensatz von flacher Suchfunktion (parallele Suche wenn keine
Merkmalskonjunktion) und steigender Suchfunktion (serielle Suche) eine Idealisierung der
Empirie; eigentlich haben „flache“ Funktionen leichte Steigung und „steigende“ geringere
Steigung als die Theorie erwartet hätte.
o
Theorie der gesteuerten Suche, Wolfe (1998)
Annahme: Zwei wesentliche Prozessarten:
1. Salienzgesteuerte bottom-up-Prozesse (nicht mehr parallel)
2. Top-down-Prozesse (nicht mehr nur seriell)
o
o
Zu 1.: Je größer die Salienzunterschiede zwischen den Reizen, desto eher werden
Merkmalskarten durch einen bottom-up-Prozess aktiviert; durch die hohe
Aktivationsdifferenz kann das Target identifiziert werden, wenn es einfach
auszumachen ist.
Zu 2.: Bei komplizierteren Stimulusdisplays mit mehreren gesuchten Merkmalen
werden für jedes Merkmal (Ausrichtung / Farbe) Aktivierungskarten gemäß der
Eigenschaften des Targets erstellt (Wie ausgerichtet? Welche Farbe? top-downProzess)und in einer Gesamtaktivierungskarte verrechnet (höchste
Gesamtaktivierung zieht Aufmerksamkeit auf sich); wobei der gesuchte Stimulus die
höchste Aktivation hat (Aktivationsdifferenzen hier nur durch top-down-Gewichtung:
was suche ich? Und nicht: was unterscheidet sich grundsätzlich von den anderen?)
geht man davon aus, dass die beteiligten Einflüsse fehleranfällig sind, kann
es passieren, dass ein oder mehrere Distraktoren eine höhere Aktivierung als
das Target erreichen und vorher inspiziert werden; dann: zurückweisen,
serieller Suchprozess durch die Kandidaten.
Ähnlichkeit zur MIT: initiales, effizientes Verarbeiten von Merkmalen
gefolgt von ineffizienter Suche. Aber Aufgabe des strengen parallel-seriellPrinzips.
-
Funktionen der Aufmerksamkeit
o Adäquate Reaktionsauswahl
o Wie weit wird unbeachtete Information verarbeitet?
Stroop-Effekt, Stroop (1935)
Experiment: Aufgabe Probanden: Farbe der dargebotenen Reize benennen. uV: (a)
neutrales Wort oder (b) Farbwort in derselben Farbe oder (c) Farbwort in anderer
Farbe.
Ergebnis: Farbbenennzeiten deutlich länger, wenn Reiz ein anderes Farbwort ist.
Lesen des Wortes als automatische Reaktion, die potentiell störend bei der
Zielaufgabe wirkt.
o
Francolini & Egeth (1980)
Experiment: Kreisförmige Reizkonfiguration aus 4 roten und 4 schwarzen Stimuli.
Aufgabe Probanden: angeben, wieviele rote Stimuli sich darin befinden. uV: Art der
Distraktoren, (a) neutral, (b) die roten Stimuli sind die Ziffer „3“, (c) die schwarzen
Stimuli sind die Ziffer „3“. aV: RZ
Ergebnis: In Bedingung (b) höhere RZ gegenüber Kontrollbedingung, da 3 im Konflikt
mit der korrekten Antwort steht. In Bedingung (c) keine höhere RZ; 3 steht zwar im
Konflikt mit 4, wird aber offensichtlich nicht beachtet.
spricht zunächst für „frühe Selektion“
 Aber: Negative Priming, Driver & Tipper (1989)
Experiment: Kreisförmige Reizkonfiguration, 4 rote, 4 schwarze Stimuli. Es zeigt sich: sind die
schwarzen Stimuli die 3 (also die Information, die im Konflikt mit der richtigen Antwort
steht), zeigt sich zwar zunächst kein Effekt, es lässt sich aber zeigen: Wird im nächsten
Durchgang die eben unterdrückte (weil falsche) Antwort gefordert, ist die RZ erhöht (soll ich
jetzt „3“ antworten, brauche ich dafür länger).
Wird die nichtbeachtete Information möglicherweise sehr weit verarbeitet, um dann
gehemmt zu werden?
-
Negative-Priming mit Bildern (Tipper, 1985)
Experiment: Auf Target reagieren; allerdings nur, wenn der gesuchte Stimulus eine
Zeichnung aus durchgezogenen Linien ist. Darbietung von je zwei Zeichnungen übereinander:
eine aus durchgezogenen Linien, eine aus gestrichelten. uV1: Variation der Primes, (a) Target
durchgezogen, gestrichelter Distraktor, (b) komplett anderer Prime als Target, (c) Target als
gestrichelte Zeichnung, Distraktor durchgezogen. aV: RZ
Ergebnis: Wird das Target dann tatsächlich in der richtigen Form angezeigt, brauchen Vpn in
Bedingung (a) am wenigsten, in (b) mittel und in (c) die meiste Zeit, um zu reagieren. (c):
Stimulus gehemmt.) auch als Gedächtniseffekt interpretierbar, siehe Logan (9).
-
Handlungsparameterspezifikation
o
Aufmerksamkeit, Automatizität und Handlungsparameterspezifikation (Neumann)
1. Eine Handlung kann nur dann ausgeführt werden, wenn alle Parameter für
eine Handlung spezifiziert sind; zum Teil: Spezifikation als „Fertigkeiten“ im
LZG, zum Teil: durch den Stimulus bereitgestellt
2. Aufmerksamkeitsprozess dient dazu, fehlende Parameter zu spezifizieren
3. Ist das nicht notwendig  automatischer Prozess (direkte
Parameterspezifikation)
o
Maskiertes Response-Priming
Experiment: Stimulusfolge: Fixation, dann maskierter Prime (unterhalb der
Wahrnehmungsgrenze) , Target, Entscheidung. aV: RZ.
Ergebnis: Obwohl maskierter (unbewusster) Prime findet sich ein Response-PrimingEffekt.
spricht dafür, dass der Prime die Parameter für die korrekte Entscheidung
unbewusst, automatisch und direkt zugänglich macht. Evidenz für die Theorie.
(9) Aufmerksamkeit – Geteilte Aufmerksamkeit
-
Beispiel Handy im Straßenverkehr: Aufgabe Probanden: ein sich bewegendes Target auf dem
Bildschirm verfolgen, Taste drücken, wenn es auf Rot wechselt. uV Zweitaufgabe: (a)
Gespräch mit dem Handy, (b) Radiosendung anhören.
Ergebnis: Handygespräche störten deutlich mehr.
-
Begrenzungen der Aufmerksamkeit
o Untersucht unter Bedingungen der geteilten Aufmerksamkeit (Vpn bearbeiten zwei
Aufgaben simultan); wie sehr beeinträchtigen sie sich gegenseitig?



o
Ähnlichkeit der Aufgaben
Aufgabenschwierigkeit
Übung
Die Rolle der Ähnlichkeit
Modulare Theorien.
Segal & Fusella (1970), Signale entdecken, Zweitaufgabe
Experiment: Aufgabe Probanden: Signal entdecken, dabei Zweitaufgabe. uV1: Art
des Signals, (a) visuell, (b) auditiv. uV2: Vorstellungsaufgabe, (a) visuell, (b) auditiv.
aV: Diskriminationsleistung.
Ergebnis: Die Zweitaufgabe störte dann mehr, wenn sie der Hauptaufgabe ähnlich
war (auditive Zweitaufgabe, auditives Signal entdecken).
o
Wickens (1984):
Bei zwei Aufgaben leidet die Performanz, wenn..
(a) Gleiche Stimulus-Modalität
(b) Gleiche Verarbeitungsprozesse
(c) Gleiche Gedächtniscodes
(d) Gleiche Responsemodalität
o
Brooks (1968), F vorstellen (vgl. SS)
Experiment: Aufgabe Probanden: (a) Blockdiagramm in Form eines F vorstellen,
mental Konturen „abscannen“, Eckpunkte nach oberste / unterste Außenkante oder
nicht klassifizieren (ab unten rechts: ja, ja, nein..), (b) Satz im Kopf durchgehen,
Bestandteile als Substantiv, Verb etc. durchgehen.. uV2 Art des Antwortmodus, (a)
auf einem Blatt auf Y oder N’s zeigen, (b) mit links oder rechts Klopfen, (c) ja oder
nein sagen. aV: Klassifikationszeit.
Ergebnis: In der Zeigen-Bedingung war die Klassifikationszeit am längsten (diese
Aufgabe war dem mentalen Scannen am ähnlichsten, da die Anordnung der
Buchstaben beachtet werden musste, also Scannen Antwortblatt).
Zusatzbedingung: In der Vorstellung Sätze durchgehen und deren Bestandteile als
Substantiv, Verb etc. klassifizieren. Für die Sätze fand sich das nicht; hier störte das
Zeigen nicht, vielmehr das Sprechen.
o
Spezifische Kapazitäten?
Einige Autoren gehen von spezifischen Verarbeitungsmodulen aus, die spezifischen
Kapazitätsbeschränkungen unterliegen.
Dafür spricht:
1. einige Befunde der Neuropsychologie
2. Spezifische Interferenzmuster (Beispiel Brooks, siehe SS).
Probleme:
1. Wie viele Module?
2. Nicht falsifizierbar.
3. Keine Erklärung für die „Psychologische Refraktärperiode“.
o
Psychologische Refraktärperiode
Auf einen ersten Reiz ist die RZ des Probanden nicht beeinträchtigt, während die RZ
auf einen zweiten, kurz darauf angezeigten Reiz verlängert ist. Ab etwa einer halben
Sekunde Zeit dazwischen ist dieser Effekt nur noch sehr klein, bei etwa 100ms aber
noch sehr deutlich. Diese Refraktärperiode lässt sich nicht durch Übung verkürzen
und tritt auch bei maximaler Unähnlichkeit der beiden Reize und Reaktionen auf.
o
Die Rolle der Aufgabenschwierigkeit
Kapazitätstheorien.
Kahnemann (1973), Annahme: es gibt eine zentrale Aufmerksamkeitskapazität, die je
nach Anstrengung und Motivation variieren kann und an der alle Aufgaben
teilhaben.
o
Performance-Operating-Charakteristik
Funktion y-Achse Leistung Aufgabe A, x-Achse Leistung Aufgabe B. Werden beide
gleichzeitig bearbeitet, kostet diese Zweifachtätigkeit Leistung bei beiden.
Ausgleichsbeziehung: Wenn wir annehmen, dass A und B ressourcenlimitiert sind
ergibt sich, dass für eine Leistungssteigerung von A eine Leistungsminderung von B
folgt. Ressourcen müssen aufgrund Kapazitätsbeschränkung aufgeteilt werden.
Ist A nicht von der Leistung B abhängig und umgekehrt, greifen die beiden Aufgaben
auf separate Ressourcen zurück.
o
Bourke et al. (1996), Evidenz für zentrale Kapazität
Frage: Gibt es eine zentrale Kapazität oder spezifische Kapazitäten?
Experiment: vier Aufgaben, die so ausgewählt sind, dass sie keine offensichtlichen
spezifischen Interferenzen produzieren. uV1: Art der Aufgabe
(a) „random generation“, zufällige Folgen von Buchstaben nennen
(b) „prototype learning“, durch leicht abgewandelte Muster deren Prototyp
herausfinden
(c) „manual task“, Mutter abwechselnd auf zwei Schrauben schrauben
(d) „tone task“, Ziel-Ton entdecken
Aufgabe Proband: Zwei Aufgaben gleichzeitig bearbeiten, dabei ist eine die
Hauptaufgabe (s.o) und eine der drei übrigen die Zweitaufgabe.
Nach Annahmen völlig separater kapazitätslimitierter Systeme sollten diese
Aufgaben nicht miteinander interferieren.
Ergebnis: Obwohl die Aufgaben so unterschiedliche Anforderungen stellten,
interferierten sie miteinander. Außerdem störte die „random generation“Aufgabe mehr als alle anderen bei der Zweitaufgabe, und die Tonaufgabe am
wenigsten. Linearer Anstieg mit der a priori eingeschätzten
Kapazitätsanforderung.
 Probleme der Theorie:
1. Zirkularität (kein unabhängiges Maß für Kapazität und Aufgabenschwierigkeit)
2. Aufgabenähnlichkeit macht erwiesenermaßen einen Unterschied (s.o., Brooks)
 Synthesetheorien: Baddeley (1986), Arbeitsgedächtnis mit zentraler Exekutive und teilweise
unabhängigen Hilfssystemen (vgl. SS) oder Norman & Shallice (s.unten) 1
o
Die Rolle der Übung
Automatische Prozesse.
Spelke et al. (1976), Lesen und Schreiben
Experiment: Aufgabe Probanden: Texte lesen, während ihnen gleichzeitig Wörter
diktiert wurden. Training, dann erneuter Test.
Ergebnis: Nach 6 Wochen Training war die Leistung im Lesen so gut wie zu Anfang
ohne das gleichzeitige Schreiben (die Erinnerungsleistung an die diktierten Wörter
war aber sehr schlecht), nach weiterem Training konnten statt der Wörter die
übergeordneten Kategorien der Wörter aufgeschrieben werden.
Verbrauch einer zentralen Ressource gesunken? Spezifische Verarbeitungsschritte
nicht mehr notwendig? Neue Strategien gebildet, um Interferenz zu vermeiden?
Automatische Prozesse
-
Schnell
Fordern keine Kapazität / Aufmerksamkeit
Laufen ohne Bewusstsein ab
Unvermeidbar (reflexhaft), wenn ein bestimmter Stimulus auftritt
Problem: Die Kriterien treten nicht immer alle gemeinsam auf!
o
Schneider & Shiffrin (1977), automatische vs. Kontrollierte Prozesse
Annahmen: Kontrollierte Prozesse unterliegen limitierter Kapazität, benötigen
Aufmerksamkeit, sind aber flexibel und bewusst einsetzbar. Automatische Prozesse
haben keine Kapazitätsbeschränkungen, benötigen auch keine Aufmerksamkeit, sind
aber unflexibel.
1
Die Theorie von Baddeley und das Schachexperiment mit den verschiedenen Zusatzaufgaben wird in dieser
Vorlesung noch erklärt; ist in den Anfangsvorlesungen vom Sommersemester zusammengefasst und hier
ausgelassen!
Experiment: Probanden sollen sich Memory-Set von 1-4 Buchstaben merken, dann
erscheint ein Display, auf dem es ebenfalls 1-4 Buchstaben gibt. Dann angeben, ob
ein Mitglied des Memory-Sets im Display-Set zu sehen war. uV: Variation des
Displays, (a) consistent: Memory-Set enthält nur Konsonanten, Display nur Zahlen als
Distraktoren, (b) abgewandelt: Memory-Set und Display können beide sowohl
Konsonanten als auch Ziffern enthalten. aV: Entscheidungszeit.
Ergebnis: Nur bei (b), also bei Displays, die Konsonanten und Ziffern enthielten, gab
es deutliche verlängerte Entscheidungszeiten. Erklärung: Unterscheidung von
Buchstaben und Ziffern ist ein hochgeübter Prozess, der automatisch und parallel
ablaufen kann, in Bedingung (b) muss seriell und kontrolliert verglichen werden.
o
Zusatzexperiment 1: Automatisierung von Prozessen
Experiment: s.o., aber: Memory-Set enthielt Konsonanten B-L, Display-Set Q-Z. Nur
consistent (also kein B-L im Display und kein Q-Z im Memory-Set).
Ergebnis: große Übungseffekte nach über 2100 trials Automatisierung von
Prozessen.
o
Zusatzexperiment 2: Inflexibilität von automatischen Prozessen
Experiment: Nach den 2100 trials wurden Memory- und Display-Set ausgetauscht.
Ergebnis: Schlechtere Leistung als Anfangsniveau, fast 1000 trials, um auf
Anfangsniveau zurückzukehren. (diese Befunde gab es nicht für ein vergleichbares
Experiment mit abgewandelten / ähnlichen Displays!) Inflexibilität von
automatischen Prozessen.
aber: selten automatische Prozesse, die alle Kriterien erfüllen. Klare Trennung von automatisch
und kontrolliert nicht aufrechtzuerhalten!
o
Norman & Shallice, (1986)
Annahmen:
1. voll automatische Prozesse, durch bestimmte Reize ausgelöst (rote Ampel 
anhalten)
2. partiell automatische Prozesse (Reizsituation kann mehrere Handlungsschemata
auslösen; Konfliktlösungsprozesse, die mit lateraler Inhibition arbeiten),
3. übergeordnetes Aufmerksamkeitssystem (ähnliche zentrale Exekutive nach
Baddeley, top-down-Modulation: welches Handlungsschema wird aktiviert?)
o
Logan (1988)
Automatizität als Gedächtnisphänomen: immer wenn ein neuer Reiz bearbeitet wird,
wird eine neue Gedächtnisspur angelegt.
Übung = Mehrfache Speicherung von Information über den Reiz, auch Reaktionen
auf ihn
Automatizität = Gedächtnisabruf – Leistung ist dann automatisch, wenn direkt vom
Gedächtnis die Reaktion auf den Reiz abgerufen wird
Kontrollierte Prozesse = in diesem Sinn die bewusste Anwendung von
Reaktionsregeln; dann notwendig, wenn die Reaktion nicht direkt aus dem
Gedächtnis abgerufen werden kann.
Fazit: Kapazitätstheorien, Modultheorien (auch Synthesemodelle, s. Baddeley),
automatische vs. Kontrollierte Prozesse. „Schnittstellenthema“ zwischen
Aufmerksamkeitsforschung und Arbeitsgedächtnis.
Fly UP