...

Skript Differentielle Psychologie (1) - Faktorenanalyse -

by user

on
Category: Documents
192

views

Report

Comments

Transcript

Skript Differentielle Psychologie (1) - Faktorenanalyse -
Skript Differentielle Psychologie
(1) - Faktorenanalyse
-
Grundlagen
o
Definition Korrelation
Die Pearson Produkt-Moment-Korrelation r ist eine standardisierte Maßzahl für
den Zusammenhang zweier Variablen. Sie variiert zwischen -1 und 1.
Voraussetzung sind intervallskalierte Daten.
o
o
o
o
o
Signifikanztest: bedeutsame Unterschiedlichkeit der gefundenen Korrelation von
0, abhängig von Stichprobengröße
Kausalität: Zusammenhang zwischen X und Y kann bedeuten, dass X Y, Y X, beide
sich wechselseitig oder eine dritte Variable beide beeinflusst
Grundlage für Faktoren: korrelieren Variablen hoch, lassen sie sich ohne
Informationsverlust zusammenfassen
Probleme: Extraktionsproblem – wieviele Faktoren? (Kaiser-Guttmann,
Screetest, Parallelanalyse, s.u.), Faktorrotation – warum überhaupt, orthogonale
oder oblique?
Grundlegende Begriffe:
Variablen besitzen: Faktorladung, Kommunalität
Faktoren besitzen: Eigenwert
Personen besitzen: Faktorwert
-
Eigenschaften und Ziele
1. Datenreduzierend, strukturgebend
2. Überprüfung der Dimensionalität komplexer Merkmale
3. Verwendung exploratorisch oder konfirmatorisch
Reduzierung auf wenige, grundlegende Dimensionen
aus Korrelationen die zugrunde liegenden Faktoren erschließen
-
Historischer Abriss
o Beginn um Jahrhundertwende, vorangetrieben durch Intelligenzforschung
o Entdeckung für die Persönlichkeitsforschung durch Cattell, Eysenck, Guilford
o Ständige Weiterentwicklung, heute Sammelbegriff für Reihe von Verfahren
o Heute relativ einfache rechnerische Anwendung durch EDV-Entwicklung
-
Grundprinzip der Hauptkomponentenanalyse (PCA)
1.
2.
3.
4.
5.
Erhebung der Korrelationsmatrix
Extraktion der Faktoren
Bestimmung der Kommunalitäten
Zahl der Faktoren
Faktorinterpretation und Faktorrotation
Zu 1. Erhebung der Korrelationsmatrix
o Testwerte der Vpn (Variablen z.B. Selbstsicherheit, Kontaktfreude etc.)
o Errechnung der Korrelationsmatrix
o
Faktorenanalyse abhängig von Güte der Korrelationsmatrix
hohe Korrelationen  wenige varianzstarke Faktoren (Generalfaktoren)
niedrige Korrelationen  viele Faktoren mit geringen Eigenwerten
Zu 2. Extraktion der Faktoren
o Jeder Beobachtungswert einer Ausgangsvariablen xj lässt sich als
Linearkombination mehrerer Faktoren beschreiben
o Grundgleichung Faktorenanalyse
xmi = fm1 * ai1 + fm2 * ai2 + … + fmq * aiq = ∑ fmj * aij
wobei
xmi = Wert der Person auf der i-ten Variablen
fmj = Ausstattung der Person mit dem Faktor j
aij = Bedeutung des Faktors j für das Ergebnis auf der Variablen i
Matrixschreibweise: X = F * A´
o f- und a-Werte werden in der PCA so bestimmt, dass die Vorhersagewerte
möglichst gering von den tatsächlichen x-Werten abweichen
o Faktoren so bestimmen, dass sie
1. Wechselseitig voneinander unabhängig sind (graphisch: orthogonal)
2. Sukzessiv (kontinuierlich) maximale Varianz aufklären
 Kennwerte der Faktorenanalyse
Faktorwert fmj
Wert, der den Personen auf den neuen Faktoren zugeordnet wird
Gibt an, wie stark die in diesem Faktor zusammengefassten Merkmale bei dieser Person
ausgeprägt sind
Graphisch also Projektion der Person auf die neuen Achsen
Faktorladung aij
Korrelation zwischen einer Variablen i und einem Faktor j
Kommunalität hi²
Aufsummierung der quadrierten Ladungen einer Variablen i über alle Faktoren
h²i = ∑ a²ij
lässt sich anhand Faktorladungen errechnen
Anteil der Varianz einer Variablen, der durch die Gesamtheit der Faktoren aufgeklärt
wird
Bei z-standardisierten Variablen also nie größer 1
Eigenwert λj
Gibt an, welcher Anteil der Gesamtvarianz aller Variablen durch diesen Faktor j
aufgeklärt wird
Aufsummierung der quadrierten Ladungen des Faktors j über alle Variablen i
λj = ∑ a²ij
je höher die Variablen korrelieren, desto größer der Eigenwert des ersten Faktors
Faktor ist unbedeutend, wenn er weniger Varianz als 1 aufklärt
errechnen anhand Faktorladungen (dadurch Bestimmung von Kommunalität,
Eigenwerten und % aufgeklärter Varianz)
Anteil erklärter Varianz
Steht mit Eigenwert in Zusammenhang: bei z-standardisierten Variablen ist Varianz = 1
Anteil der durch den Faktor erklärten Varianz wird daher so errechnet:
Erklärte Varianz = (Eigenwert des Faktors / Variablenzahl ) * 100
Zu 3. Bestimmung der Kommunalitäten
Exkurs Modellunterschiede der Faktorenanalyse und Kommunalitätenproblem
o
Kommunalitätenproblem: vor Extraktion der Faktoren müssen die
Kommunalitäten geschätzt werden, deren Werte man noch nicht kennt
(Schätzung der gemeinsamen Varianz einer Variablen mit den übrigen zu
faktorisierenden Variablen)
o
Unterschiedliche Faktorenanalysen verwenden unterschiedliche Methoden der
Kommunalitätenschätzung :
o
Hauptkomponentenmodell (PCA)
Annahme: Varianz einer Variablen kann vollständig durch Extraktion von
Faktoren erklärt werden, Kommunalität wird 1
Nicht in Betracht gezogen: Fehlervarianz (schlechte Reliabilität der Messungen)
und Spezifität
Die meisten in der Literatur berichteten FA’s sind Hauptkomponentenanalysen
o
Faktorenanalytisches Modell
Annahme: Varianz einer Variablen unterteilt sich in Kommunalität und
Einzelrestvarianz (Spezifität), Kommunalität bleibt unter 1
Meist geringere Faktorladungen als bei PCA
je größer die Variablenzahl, desto geringer die Unterschiede zwischen den
Ergebnissen der Modelle
Cattell Anhänger des faktorenanalytischen Modells, Guilford + Eysenck führten
auch PCA’s durch
Schätzung der Kommunalitäten
Methoden:
1. Größte Korrelation in der Zeile / Spalte einer Korrelationsmatrix
2. Quadrierte multiple Korrelation R² zwischen der Variablen und allen anderen
Variablen der Korrelationsmatrix
3. Iteratives Verfahren: beginnend mit Startwerten (R²) wird Hauptachsenanalyse
gerechnet, die verbesserte Schätzung dient als neuer Startwert
Zu 4. Zahl der Faktoren
o Dilemma: je mehr Faktoren, desto mehr aufgeklärte Gesamtvarianz, aber desto
geringer die Datenreduktion
o Subjektive Entscheidung, aber statistische Hilfen:
1. Kaiser-Guttmann-Kriterium
Zahl der zu extrahierenden Faktoren gleich der Zahl der Faktoren mit
Eigenwerten größer 1
Anspruch: Faktor soll mehr Varianz als eine Variable aufklären
Probleme: häufig Überschätzung der Faktorenzahl, systematischer Anstieg
der Faktoren mit Anstieg der Variablenzahl
Verwendung nicht zu empfehlen
2. Scree-Test (Cattell)
Im Eigenwertediagramm: Punkte, die sich asymptotisch der Abszisse nähern,
werden durch Gerade angenähert
Faktoren mit Eigenwerten, die oberhalb dieser Gerade liegen, werden
angenommen
Anspruch: mit einem Minimum an Faktoren ein Maximum an Varianz
erklären
Verwendung nicht zu empfehlen
Weniger auf mathematischen / statistischen Grundlagen als auf
Erfahrungswerten entwickelt
3. Parallelanalyse (Horn)
Grundidee: über Eigenwertediagramm ein zweites legen, das aus
Korrelationsmatrix von normalverteilten Zufallsvariablen ermittelt wurde
Empirisch ermittelte Faktoren, die die Zufallsfaktoren übertreffen, sind
bedeutsam (graphisch: diejenigen Faktoren, die sich vor dem Schnittpunkt
der beiden Verläufe befinden)
liefert genaueste Ergebnisse
Parallelanalyse im Vergleich mit Kaiser-Guttmann:
Kaiser-Guttmann überschätzt Faktorenzahl, wenn die Korrelationen der
Stichprobe durch zufällige Faktoren beeinflusst werden (besonders bei
kleinen Stichproben!)
Korrelationen von Zufallszahlen in Population (mit N = unendlich) wären 0
und alle Eigenwerte 1,0 (d.h. hier läge Kaiser-Guttmann richtig); in
Stichprobe ergeben sich für die ersten Faktoren aber Werte über 1 und für
die späteren unter 1
Parallelanalyse also eine auf Stichproben bezogene Adaption des KaiserGuttmann-Kriteriums
Zu 5. Faktorinterpretation und Faktorrotation
o Faktorladung gibt Hinweise für Faktorinterpretation: Faktor ist aber schwer zu
interpretieren, wenn viele Variablen unterschiedlich stark auf ihn laden geben
die Ladungen keine eindeutigen Hinweise, werden Faktoren rotiert
o
Einfachstruktur (Thurstone)
Dient als Rotationskriterium, erleichtert Interpretation
Anspruch:
1. auf einem Faktor sollen einige Variablen möglichst hoch und andere
möglichst niedrig laden
2. auf verschiedenen Faktoren sollten verschiedene Variablen möglichst hoch
laden
o
verschiedene Rotationsmöglichkeiten, Unterscheidung auf verschiedenen
Dimensionen
1. orthogonale vs. oblique Rotation
Orthogonale Rotation (Bsp. Varimax-Rotation)
Annahme: Faktoren korrelieren nicht untereinander! Unabhängigkeit der
Faktoren bleibt erhalten
Faktorladungen, Eigenwerte, Faktorwerte ändern sich
Kommunalitäten, Anteil aufgeklärter Varianz ändern sich nicht
(graphisch: Drehkreuz weiterdrehen, bis einige Faktoren sehr hoch, andere
niedriger laden; Faktorachsen bleiben in rechtem Winkel zueinander)
Oblique Rotation
Aufgabe der Unabhängigkeit der Faktoren
Rotation in schiefem Winkel zueinander rotieren (bzw. in jedem beliebigen
Winkel)
Vorteil: vereinfacht die Interpretation, da Kriterium der Einfachstruktur
leichter erreicht werden kann
Interkorrelation der Faktoren wird in Korrelationsmatrix angegeben
Aber: Faktoren beinhalten redundante Information, Grundidee
Unabhängigkeit wird aufgegeben
Faktorladungen, Eigenwerte, Faktorwerte ändern sich
Kommunalitäten, Anteil aufgeklärter Varianz ändern sich nicht
Rotation verändert: Interpretierbarkeit, Faktorladungen und Eigenwerte,
nicht die Kommunalitäten
Faktorenanalysen höherer Ordnung
Korrelationsmatrizen obliquer Faktoren werden faktorisiert, das Ergebnis
rotiert
Führt zu Faktoren zweiter, dritter, … Ordnung, die abstrakte
Beschreibungsdimensionen sind
2. visuelle / graphische vs. analytische Rotation
3. Kriteriumsrotation / Prokrustes-type-rotation
Eingesetzt, um Faktorstrukturen, die aus unabhängigen Stichproben
stammen, miteinander zu vergleichen
(Bsp. Intelligenzstruktur Männer und Frauen)
Vergleichsstruktur so rotieren, dass sie maximale Ähnlichkeit mit gut
interpretierbarer Lösung (=Zielstruktur) aufweist
Voraussetzung: Strukturen basieren auf gleichen Variablen, Anzahl Faktoren
muss übereinstimmen
(2) – Intelligenz
-
Studie Rauchen / IQ
IQ-Testung 1932 im Kindesalter, Einteilung in Raucher, Nie-Raucher, Ex-Raucher
Kein Zusammenhang zwischen jemals geraucht, nie geraucht mit IQ-Unterschieden
Aber Noch-Raucher hatten niedrigeren IQ als Ex-Raucher
Interpretation: Intelligentere Personen haben nach Bekanntwerden der Risiken aufgehört
-
Intelligenz als psychologisches Konstrukt
Ausgeprägte Forschungstradition
+Tests hoch reliabel, breitgefächerte Validität
+Alltagsrelevanz
-Gesellschaftspolitische Brisanz
-Ideologische Färbung
-Falsche Annahmen zu Entstehung und Beeinflussbarkeit
-Interdisziplinäre Missverständnisse
Forschung:
-
Spearman 1904 – Thomson 1916 – Thorndike 1920 – Thurstone 1938 – Burt 1949 – Vernon
1950 – Guilford 1956 – Cattell 1966 – Jensen 1969 – Jäger 1984
Standardverfahren zur IQ-Messung erfassen in der Regel Set aus spezifischen verbalen und
nonverbalen kognitiven Fähigkeiten
o
Three-Stratum-Modell, Caroll, 1993
General (Stratum III) – g , allgemeine Intelligenz
Broad (Stratum II) – fluide Intelligenz, kristalline Intelligenz, Gedächtnis & Lernen,
Visuelle Perzeption, Auditive Perzeption, Abrufkapazität, Mental Speed, Einfache RZ
Narrow (Stratum I) – Beispiele: schlussfolgerndes Denken, Sprachverständnis,
Gedächtnisspanne, räumliche Beziehungen etc.
„g“ korreliert mit Berufserfolg, sozialen Fähigkeiten, Werten und Einstellungen, Kreativität,
schulischen Variablen, Gesundheitsverhalten, deviantem Verhalten etc.
-
Anfänge der Intelligenzforschung
o Mental Tests, 2. Hälfte 19. Jahrhundert
Reizdiskriminationsforschung
McKeen-Cattell, Galton
Ziel: mittels Messung von Reaktionsvermögen und Unterscheidungsvermögen
akademische Befähigung vorhersagen
Probleme dieser Forschungstradition:
1. Hohe intraindividuelle Variation
2. Keine bedeutenden Zusammenhänge zwischen den Tests (mittlere
Interkorrelation der Testverfahren r = .09 )
3. Keine hinreichenden Beziehungen zu Kriteriumsmaßen (z.B. Lehrerurteil,
Schulerfolg)
Probleme in Reliabilität und Kriteriumsvalidität
o
Alfred Binet 1857 - 1911
Kritik an Spezifität / sensorischer Ausrichtung der Mental Tests
Vorschlag: Messung der Merkmale Gedächtnis, Vorstellungskraft, Aufmerksamkeit,
Verständnis, Suggestibilität, Willensstärke, motorische Fähigkeiten, moralische
Haltungen
1905: Binet und Simon stellen Aufgaben vor, die zwischen schwachsinnigen und
normalen Kindern unterscheiden sollen
1908 / 1911: Revisionen der Tests, stärkerer Altersbezug
Konzept Intelligenzalter
Staffeltests: für jede Altersstufe zwischen 3 und 15 Jahren etwa 5 mittelschwere
Aufgaben, die 50-70% der Kinder dieses Alters lösen konnten
IA = GA * x * 12/5 + 6
GA = Grundalter, Alter in Monaten, bis zu dem ein Kind alle Aufgaben richtig lösen
konnte
x = zusätzlich gelöste Aufgaben der folgenden Altersstufen
Kritik an den Staffeltests:
1. Scheitern der Entwicklung trennscharfer Aufgaben für höhere Altersstufen (Binet
hält Intelligenzentwicklung mit 15 für abgeschlossen)
2. Gleichgewichtung der Aufgaben au f allen Altersstufen
3. Sehr häufig verbaler und bildungsabhängiger Inhalt
4. Differenz zwischen Intelligenzalter und Lebensalter hat auf verschiedenen Stufen
eigentlich völlig unterschiedliche Bedeutung (je jünger das Kind umso drastischer
gleiche Differenzen, Differenzen sagen also nicht dasselbe aus)
o
Stern und der Intelligenzquotient
Definition des IQ:
IQ = IA / LA * 100
Standardisiert an Lebensalter
Vorteil: Gewährleistet Konstanz der Interpretation von Leistungsvorsprüngen oder –
rückständen (bei Veränderung von IA und Differenz zum LA, IQ fällt dann auf allen
Altersstufen gleich aus)
Nachteil: setzt lineare Zunahme von Intelligenz im Alter voraus, bedeutet in der
Konsequenz absurd niedrige IQ-Werte im Alter – würde nur funktionieren, wenn IQ
und Lebensalter linear ansteigen, IQ verläuft nicht linear
o
David Wechsler, Abweichungsquotient
Verbreitung des Stanford-Binet-Tests (1960)
WISC (Wechsler Intelligence Scales)
Hohe Zusammenhänge mit Binet-Tests, aber Ermittlung eines Abweichungs-IQ
Abweichungs-IQ = 100 + s * (X-M)/σ
Wobei s = 15 (willkürlich, Konvention)
X = individueller Rohwert
M = empirischer Mittelwert der altersspezifischen Rohwerte-Verteilung
σ = empirische Standardabweichung
Vorteile:
altersadäquate Abbildung kognitiver Fähigkeiten
einheitliche Kommunikationsgrundlage
direkte Vergleichbarkeit zwischen verschiedenen Testverfahren
Benennung der Abschnitte in der Verteilung haben eher historischen Wert (ab wann
hoch, ab wann retardiert etc.)
Verteilung des IQs nicht perfekt normal (Normalverteilung nur theoretisch)
Kurve von Intelligenzanstieg und –abfall: am höchsten etwa Mitte 20, dann
langsamer aber kontinuierlicher Abfall, dabei im Handlungsteil frühere und
deutlichere Verluste
-
Viele verschiedene verbale Definitionen von Intelligenz, aber: Entwicklung eines klaren und
konsensfähigen Verständnisses davon, welche Fähigkeiten Intelligenz umfasst und wie
bedeutsam die Prädiktionskraft dieses Konstrukts ist.
-
Strukturmodelle
o
Spearman 1863-1945: Generalfaktorenmodell
Erstes Strukturmodell der Intelligenz 1904
Kritik an früheren Messungen:
Zuviele Tests
Gruppentestung
daraus resultierende Messungenauigkeiten, kaum Zusammenhänge zwischen
Einzelaufgaben
Zusammenhang wahrer Messwerte durch Minderungskorrektur: rxy‘ = rxy / (rxx * ryy)0,5
Grundannahme Zwei-Faktoren-Theorie
Jedes Maß der Intelligenz beruht auf einem Anteil allgemeiner Intelligenz (g) sowie
einer spezifischen Komponente für den jeweiligen Test (s)
Varianz von Intelligenztests geht teils auf g zurück und ist teils spezifisch
Die spezifischen Anteile der Tests sind unkorreliert
die Korrelation zwischen zweier Tests sagt direkt aus, inwieweit sie g erfassen!
Problem: Überlappungsbereiche zwischen den s-Anteilen
o
Burt & Vernon 1949, 1950: Gruppenfaktormodell
Reaktion auf Überlappungsbereiche innerhalb der s-Faktoren
Annahme: neben g-Faktor und s-Faktoren existieren Gruppenfaktoren, Konstruktion
eines hierarchischen Intelligenzmodells
Struktur: g gliedert sich in zwei Gruppenfaktoren (=major group factors): v:ed
(verbal-educational) und k:m (=spatial and motor abilities)
Darunter liegen minor group factors , dann specific factors (s-Faktoren)
Betrachtung der Ebenen nicht als völlig voneinander getrennt, Annahme fließender
Übergänge / Überschneidungen zwischen den Ebenen
Insgesamt Betrachtung dieses Modells als Kompromiss zwischen Spearmans ZweiFaktoren-Theorie und dem Modell gemeinsamer Faktoren nach Thurstone
o
Thurstone 1887-1955: Primärfaktorenmodell
Aus Korrelationsmatrizen g extrahieren, Untersuchung der Restvarianz durch
multiple Faktorenanalyse
Entdeckung einer Gruppe von Faktoren, die er als „Primärfaktoren“ (primary
abilities) bezeichnet
Aufgabe der Forderung nach nicht überlappender Trennbarkeit einzelner
Variablengruppen
Annahme: Faktoren sind in ihrer Anzahl begrenzt und stehen gleichberechtigt
nebeneinander
beim Lösen kognitiver Aufgaben immer mehrere dieser Faktoren in
unterschiedlicher Gewichtung beteiligt
Studie: ~200 Collegestudenten mit TestbatterieIdentifikation von 9 Primärfaktoren
 7 empirisch gut gesichert
Primärfaktoren: Memory, Space, Perceptual Speed, Reasoning, Verbal
comprehension, Word fluency, Number
Primärfaktoren in Testverfahren:
Tests, die vor Hintergrund der Primärfaktorentheorie entwickelt wurden - IST nach
Amthauer, LPS und PSB nach Horn oder McCarty Scales for Children’s Abilities
(MSCA)
Beispiel LPS:
Hoch reliabel, gute Korrelation mit Tests, die dasselbe erfassen wollen, gute
Kriteriumsvalidität (prädiktive Vorhersagekraft)
Diskussion und Kritik
1. Unterschiedliche Breite der Faktoren (manche relativ spezifisch, andere eher
allgemein, daher auch unterschiedlich wichtig: reasoning z.B. wichtiger als die
anderen)
2. Veränderungen der Liste von Primärfaktoren über die Zeit
3. Vorschlag Cattell: Fähigkeit und Temperament nicht hinreichend zu trennen,
„Universalindex“ (Persönlichkeitsaspekte – z.B. Frustrationstoleranz)
o
Generalfaktor vs. Primärfaktoren
Einflüsse, die g gegenüber Primärfaktoren begünstigen:
1. Art des Tests (heterogener oder unreliabler Test führt zu mehr Faktoren)
2. Art der Stichprobe (homogenere Stichprobe, wie bei Thurstones Studenten,
schränkt Varianz ein und führt dadurch zu mehr Faktoren)
3. Primärfaktoren interkorrelieren zu r=.35: Sekundäranalyse ließe Extraktion
von Faktoren zweiter Ordnung zu – damit mehrere allgemeine
Gruppenfaktoren auffindbar
theoretische Annahmen der Modelle waren ursprünglich wenig vereinbar,
Empirie ermöglicht Integration der Befunde
Thurstone’s Studien haben nicht gezeigt, dass g nicht existiert, sondern, dass g
sich aufgliedern lässt in Komponenten, die in positiver Beziehung zueinander
stehen
o
Cattells Modell kristalliner und fluider Intelligenz
Synthese von Spearman- und Thurstone-Modell
Grundgedanke: Einbindung der Primärfaktoren in hierarchisches Modell
Struktur:
1. Primärfaktoren (z.B. verbale, visuelle Fähigkeiten, induktives Schlussfolgern,
erinnern an Thurstone)
2. Faktoren zweiter Ordnung (gf – fluide Intelligenz und gc – kristalline Intelligenz,
korrelieren meist um .4 oder .5)
3. Faktor dritter Ordnung (erinnert an Spearmans g, korreliert stärker mit gf als mit
gc)
gf(h): Faktor dritter Ordnung, fluide Intelligenz in früherem Lebensalter
wird in aktuelle fluide Intelligenz gf und kristalline Intelligenz gc investiert
(=Investment-Theorie), wobei sich die kristalline Intelligenz gc auch aus se
(schulische, erzieherische Erfahrung - Gelerntes) und Motivation / Gedächtnis (was
auf erlernte themenspezifische Inhalte wirkt) bildet
gf wirkt sich auf Fähigkeiten aus, die beim Lösen der „culture-fair“-Tests gebraucht
werden, gc wirkt auf Fähigkeiten, die beim Lösen genereller kognitiver Aufgaben
benötigt werden
Culture-fair-Test: Test, bei dem Menschen aus unterschiedlichen Kulturen und
Schichten Chancengleichheit besitzen sollen, sprachfrei, Testung von gf-Fähigkeiten
(da unabhängig von gc und damit von Erziehung, Erlerntem etc.)
Damit: gf: Fähigkeit, sich neuen Problemen / Situationen anzupassen, ohne dass
Lernerfahrung benötigt wäre – gc: kognitive Fertigkeiten durch Effekte
vorangegangenen Lernens entfaltet und verfestigt
Unterschiedliche Verläufe: gf sinkt mit dem Alter ab, gc steigt an
gute Bestätigung des Modells in aktuellen Studien
o
Guilfords Structure-of-Intellect-Modell
Grundgedanke: Strukturierung von Intelligenzleistungen nach Inhalten (Input),
Operationen und Produkten (Output), aus deren Zusammenwirken entstehen die
jeweils spezifischen Faktoren (120), die miteinander nullkorreliert sein sollen. Abkehr
vom Hierarchiegedanken, keine Annahme eines g-Faktors.
Schematische Darstellung: Würfel, wobei jeder Faktor durch seine spezifische
Position auf jeder der drei Dimensionen definiert wird.
Inhalt / Input:
1. Figural (F)
2. Symbolisch (S)
3. Semantisch (M)
4. Verhalten (B)
Operation:
1. Kognition (C)
2. Gedächtnis (M)
3. Divergente Produktion (D)
4. Konvergente Produktion (N)
5. Evaluation (E)
Produkte / Output:
1. Einheiten (U)
2. Klassen (C)
3. Beziehungen (R)
4. Systeme (S)
5. Transformation (T)
6. Implikationen (I)
Beispiel: CMR: Kognition figuraler Beziehungen, CFR: Kognition semantischer
Beziehungen, NSU: Konvergente Produktion symbolischer Einheiten
Faktorenanalyse hier eher zur Hypothesenüberprüfung
Kritik am Modell:
1. Unabhängigkeit der Faktoren kann nicht aufrechterhalten werden (78% der
Korrelationskoeffizienten signifikant positiv Reduzierung des Modells auf
weniger Faktoren)
2. Replizierbarkeit der Faktoren, Zuverlässigkeit der Testverfahren wurden kritisiert
(z.T. zu homogene Stichproben, Heterogenität der untersuchten Merkmale etc.)
3. Es müssen auch Faktoren höherer Ordnung berücksichtigt werden: 3. Ordnung
(16), 2. Ordnung (85), 1. Ordnung (120)
 Fazit: Modell empirisch nicht zu halten, aber: stimulierend für neue
Forschung, erstmals Kreativität Bestandteil der Intelligenzstruktur
o
Jäger: Berliner Intelligenz-Struktur-Modell 1984
Anspruch: Erarbeitung eines Strukturmodells auf empirischer Basis von
Variablenstichproben, die die Vielfalt der intellektuellen Leistungsformen möglichst
umfassen repräsentiert. Integration von Elementen aus Spearman, Thurstone,
Guilford.
Struktur: deskriptives Modell, hierarchisch und bimodal (Operationen, Inhalte)
aufgebaut. 7 generelle Hauptkomponenten, zwei Modalitäten (verschiedene
Aspekte, unter denen sich die Intelligenzleistung klassifizieren lässt)
1. Modalität: Operationen -vier Fähigkeitsbündel – Bearbeitungsgeschwindigkeit (
B), Gedächtnis (G), Einfallsreichtum (E), Verarbeitungskapazität (K)
2. Modalität: Inhalte - Drei Klassen – figural-bildhaft (F), verbal (V), numerisch (N)
Unterschied zu Guilford: in den Zellen der bimodalen Matrix finden sich keine
Primärfaktoren, sondern die multifaktoriell bedingten Leistungen
g: Integral aller Komponenten, „Allgemeine Intelligenz“
Jägers empirische Arbeit
1. Variablen- und Probandenauswahl
Katalogisierung aller in der Literatur vorkommenden Aufgabenarten zu
Intelligenz- und Kreativitätsforschung
Reduktion und Kreuzklassifikation bis auf einen Rest von 48 Variablen
Stichprobe: Berliner Abiturienten, N = 545, Alter 16-21 (Kritik: zu homogen!)
2. Analysemethoden
Faktoren- und Clusteranalysen
Prüfung der Strukturreliabilität (Zufallsaufteilung der Variablen in zwei Gruppen)
Prüfung auf Replizierbarkeit (Zufallsaufteilung der Probanden in zwei Gruppen)
Beschränkung der Interpretation auf stabil erscheinende, gut vergleichbare
Lösungen
Überprüfung der zeitlichen Stabilität der Befunde (1979 Durchführung einer
Wiederholungsuntersuchung, dabei 64% der Ausgangsstichprobe, Einsetzung z.T.
derselben und auch anderen Aufgaben)
3. Vorspiel zu den Hypothesen
1975: exploratorische Strukturanalyse ergibt vier sehr generelle Leistungsklassen
(Faktoren / Cluster), die durch operative Eigenart gekennzeichnet sind
Davon enthält jede Klasse verbales, figural-bildhaftes und numerisches
Aufgabenmaterial, also alle drei Inhalte
Fehlen der in anderen Forschungen bereits bestätigten inhaltsspezifischen
Einheiten erwartungsgeleitetes Vorgehen
Klassifikation der Variablen nach Operations- und Inhaltsklassen – Beispiele:
F
N
V
ZS Zahlen-Symboltest
RZ Rechenzeichen
WF Wörter finden
B
ZF
Zeichen
fortsetzen
DR
divergentes
AF Adjektive finden
E
G
K
WE Wege erinnern
Rechnen
ZM Zahlen merken
CF culture-fairIntelligenztests
RD rechnerisches
Denken
NM Namen merken
SV sinnvolle Schlüsse
Bündelung: Zusammenfassen der Items zu Skalen vor der Faktorisierung,
Einzelvariablen gehen gleichgewichtet in die Bündel ein
Verfolgung zweier Ziele: Reliabilitätssteigerung, Homogenisierung
4. Untersuchung der Hypothesen
Hypothese 1: Die 48 ungebündelten Einzelvariablen ergeben die vier
Operationsklassen B, E, G und K
Hypothese 2: Faktorenanalyse der 16 operationshomogenen Varianzbündel
(Inhaltsvarianzen unterdrückt) ergibt die gleichen 4 Operationsklassen wie
ungebündelt, aber prägnantere Einfachstruktur
Hypothese 3: Faktorenanalyse der 12 inhaltshomogenen Varianzbündel
(Operationsvarianzen unterdrückt) ergibt die 3 Inhaltsklassen
Hypothese 4: Strukuranalyse, in die operations- und inhaltshomogene
Varianzbündel eingehen, ergibt die 4 Operations- und die 3 Inhaltsklassen
Hypothese 5: Die Faktorisierung von 4 über operative und inhaltliche Klassen
aggregierten Bündeln ergibt nur einen, nicht weiter differenzierbaren, „g“-Faktor
alle Hypothesen konnten bestätigt werden.
Fazit: bimodales Strukturmodell ist empirisch begründbar und zweckmäßig, neben
4 operativen Klassen auch 3 Inhaltsklassen nachweisbar, Zweckmäßigkeit eines
hierarchischen Strukturmodells lässt sich bestätigen (Auffinden von g), Aufweisen
von Aggregations- und Suppressionseffekten bei Zusammenfassung von
Einzelvariablen
1. Generalität – keine Strukturveränderungen durch Hinzunahme neuer
Aufgabentypen
2. Universalität – Replizierbarkeit bei Teilgruppen bestätigt
3. Stabilität – Wiederholungsuntersuchung, zeitlich stabil
Kritik:
1. Bestätigung des Modells erfordert weitere unabhängige Replikation
2. Universalität noch nicht endgültig bestätigt (zu homogene Stichprobe)
3. Fragen zur Zweckmäßigkeit, zwischen g und den 7 Klassen noch weitere Ebene
einzuführen
4. Praxistauglichkeit, Nutzen für Diagnose noch offen
5. Einbettung des Intelligenzmodells in den Kontext der Persönlichkeit noch offen,
da Intelligenz nur Teilkomponente
6. Offen, wie Prozessforschung mit Strukturforschung zusammenpasst
o
Carrolls 3-Ebenen-Modell, 1993
Re-Analyse der einschlägigen Forschung zu Intelligenz seit 1930
Herausfiltern der Untersuchungen, in denen mit Faktorenanalyse gearbeitet wurde
Reduktion der Untersuchungen
Theoriefreie Verwendung der exploratorischen Faktorenanalyse
Verdichtung der Ergebnisse resultiert im 3-Ebenen-Modell
Struktur:
Ebene III (general): g
Ebene II (broad): Gf (fluid), gc (kristallin), gy (Gedächtnis / Lernen), gv (visuelle
Perzeption), gu (auditive Perzeption), gr (Abrufkapazität), gs (mental speed), gt
(einfache RZ) hierbei Abnahme der Wichtigkeit der Faktoren von gf zu gt
Ebene I (narrow): einzelne Aufgabentypen (Beispiel räumliche Beziehungen,
schlussfolgerndes Denken, Sprachverständnis)
Fazit: bester wissenschaftlicher Ansatz zur Gedächtnisstruktur (Integration anderer
Modelle: Cattell, Thurstone, Spearman. Guilford kaum, da er Unabhängigkeit
postuliert).
Kritik: nur Integration dessen möglich, was andere schon untersucht haben, absolute
Objektivität nicht möglich
Grundlagenorientierte Intelligenzforschung über 80 Jahre lang dominiert von
Strukturdebatte – wieviele kognitive Fähigkeiten gibt es, wie groß ist deren Bedeutung, in
welchem Verhältnis stehen sie zueinander, wie groß ist die Bedeutung von g?
-
Korrelate der Intelligenz
o Evozierte Potentiale (EP)
Typische Befunde: Intelligenz korreliert mit
geringerer Latenz
geringerer intraindividueller Varianz
größerer Komplexität der AP’s (größere Amplituden auf unerwartete, kleiner auf
erwartete Reize, neuronale Anpassungsfähigkeit)
o EEG-Maps
Unter Verwendung bildgebender EEG-Methoden zeigt sich
Bei Intelligenteren Konzentration kortikaler Ressourcen auf bestimmte Areale
Bei weniger Intelligenten diffusere, stärkere Aktivation
-
Berichte über genetische Beeinflussbarkeit der kortikalen Strukturen
Ätiologie der Intelligenz
Quantitative Genetik – Kernfrage: inwieweit gehen Merkmalsunterschiede auf genetische
und Umweltfaktoren zurück) Zentrale Begriffe: Erblichkeit, geteilte und nicht geteilte Umwelt
Molekulargenetik - Ziel: Auffinden der Gene, die mit Merkmalsausprägung in Beziehung
stehen Funktionale Genomik: Verständnis der Funktionsweise von Genen
(3) – Verhaltensgenetik
-
Unterscheidung zweier eigenständiger Forschungstraditionen der Verhaltensgenetik
a. Quantitative Genetik
Verhaltensunterschiede weil genetische oder Umwelteinflüsse? Ermittlung relativen
Anteils an phänotypischer Varianz (Erblichkeit, geteilte und nichtgeteilte Umwelt)
b. Molekulargenetik
Gene identifizieren, die für genetischen Einfluss verantwortlich sind und damit Rolle
bei Verhaltensvarianz spielen
- Kernbegriffe:
a. Erblichkeit (heritability h²): Ausmaß, in dem genetische Unterschiede zwischen
Individuen die beobachtbaren interindividuellen Differenzen im untersuchten Merkmal
erklären
b. Geteilte Umwelt (common environment, c²): Umwelteinflüsse, die zur Ähnlichkeit von
Personen beitragen, die gemeinsam aufwachsen (z.B. sozioökonomischer Status,
Erziehungsstil der Eltern..)
c. Nichtgeteilte Umwelt (e²) : Umwelteinflüsse, die zur Unähnlichkeit von Personen
beitragen, die gemeinsam aufwachsen (z.B. unterschiedliche Freunde, unterschiedliche
berufliche Situation, zufällige Ereignisse)
a² + c² + e² = 1 (100%)
Vergleich von Zwillingsähnlichkeiten
Eineiige: teilen 100% der genetischen Effekte, wachsen gemeinsam auf (100%)
Zweieiige: teilen 50% der genetischen Effekte, wachsen gemeinsam auf (100%)
Befunde:
Größere Ähnlichkeit der EZ durch Einfluss der Gene (doppelt so ähnlich) a² ist
bedeutsam
Unähnlichkeit der EZ durch Einfluss nichtgeteilter Umwelt  e² ist bedeutsam
ZZ mehr als .5 Ähnlichkeit: durch Einfluss geteilter Umwelt  c² ist bedeutsam
-
-
Befunde im Intelligenzbereich
Meta-Analysen zeigen starke genetische Einflüsse von Intelligenz (h²= .50-.60)
Im Erwachsenenalter wirken vor allem nichtgeteilte Umwelteinflüsse
Zunahme genetischer und Abnahme geteilter Umwelteinflüsse auf individuelle
Differenzen in Intelligenz (von 2 Jahren bis erwachsen)
Bedeutung genetischer Effekte ist weitgehend unabhängig vom untersuchten Teilbereich
der Intelligenz
o Bedeutung von Umwelteinflüssen
a. Flynn-Effekt: Anstieg der mittleren IQ-Rohpunktwerte in zahlreichen
Kulturen, ca. 3 Punkte pro Dekade (1 Standardabweichung pro
Generation)
b. Effekt der Stellung in Geschwisterreihe: nichtgeteilter Umwelteffekt, 1 %
Varianzaufklärung
c. Adoptionsstudien zeigen markante positive Effekte auf IQ – Zuwachs in
Abhängigkeit des SES (?) der Adoptiveltern
d. Frühe Interventionsmaßnahmen für Kinder aus einkommensschwachen
Familien weisen zumindest kurz- und mittelfristige positive Effekte auf
Intelligenz- und Schulleistungen auf
Feststellung der Erblichkeit von Intelligenz – Fluch?
o
The Bell Curve:
Annahmen: Zerfall der amerikanischen Gesellschaft in wohlhabende „kognitive
Elite“ und Unterschicht, Bedeutung eines verringerten IQ als Prädiktor für soziale
Probleme fälschliche Interpretation der Erblichkeit von Intelligenz als Ursache
für Gruppendifferenzen und damit stark eingeschränkte
Förderungsmöglichkeiten
Artikel in Deutschland: „Verlust von Humankapital in Regionen hoher
Arbeitslosigkeit“
West-Ost, Nord-Süd-Gefälle
-
Grundlagen verhaltensgenetischer Forschung
Zentrale Fragen Differentieller Psychologie:
Wie können Unterschiede zwischen Menschen systematisch beschrieben werden?
Welche Ursache lassen sich für die Unterschiede im Erleben und Verhalten von
Menschen identifizieren?
o
Trennung Anlage-Umwelt?
Argument: Wirkung Anlage / Umwelt kann nicht getrennt werden, da jedes
Verhalten sowohl durch Gene als auch durch Erziehung und andere
Umwelteinflüsse beeinflusst wird (Fläche eines Rechtecks kann nicht in den
relativen Beitrag aus Länge und Breite zerlegt werden)
Einschränkung: gilt nur, wenn wir ausschließlich ein Individuum betrachten.
Wenn Unterschiede zwischen Menschen interessieren, kann unterschieden
werden, wie stark sie durch Anlagen und Umwelt geprägt werden (in einer
Population aus Rechtecken kann der relative Beitrag von Länge und Breite auf
Unterschiede in den Flächen untersucht werden – bleibt die Breite gleich und die
Länge verändert sich, wie verändert sich die Fläche?).
Erblichkeit stellt Populationsstatistik dar, bezieht sich nicht auf Phänotyp
einzelnen Individuums
o
Pfadmodell: Beziehungen zwischen Erblichkeit und Umwelten
Zusammenhang zwischen zwei Messwerten darstellbar als Summe sämtlicher
verbindender „Pfadprodukte“.
Ähnlichkeit bzw. Interklassenkorrelation (ICC) ermittelbar über Summe aus drei
Wegen:
A – Gene
C - geteilte Umwelt. Annahme perfekter Korrelation wenn zusammen
aufgewachsen.
E – nichtgeteilte Umwelt, keine Korrelation.
a² + c² + e² = 1
Beispiele:
Eineiige Zwillinge: ICCEZ = a² + c²
Zweieiige Zwillinge: ICCZZ = 0.5a² + c²
Einfluss Gene a² = 2* (ICCEZ – ICCZZ)
Einfluss geteilte Umwelt c² =2ICCZZ - ICCEZ
Einfluss nichtgeteilter Umwelt e² = 1 – a² - c² (nur indirekt erschließbar)
Dabei gilt: Equal environments assumption:
Definition: Größere Ähnlichkeit von Eineiigen vs. Zweieiigen soll nicht auf eine
größere Ähnlichkeit der Umwelt von Eineiigen und Zweieiigen zurückgehen
(nicht Umwelteinflüsse, die Umwelt Eineiiger ähnlicher machen als die
Zweieiiger)
Studie Scarr: Überprüfung von Ähnlichkeiten solcher Zwillinge, deren Eltern
sich im Irrtum über die Eiigkeit befanden. Resultat: kein großer Unterschied trotz
anderem Elternverhalten  stützt equal environments assumption
Studie Loehlin et al.: Überprüfung von Ähnlichkeiten von EZ, deren Eltern
entweder sehr auf Gleichbehandlung oder sehr auf Unterschiedlichkeit Wert
legten. Resultat: Zwillinge gleich ähnlich. stützt equal environments
assumption
-
Studie McGue: bei Erwachsenen erklären genetische Unterschiede etwa 50% der
Variabilität in den Intelligenzwerten
-
Studie Plomin: Bedeutung genetischer Faktoren nimmt im Lauf des Lebens zu
Zwillingsstudie Neurotizismus: Korrelationen Persönlichkeitseigenschaft Neurotizismus
bei EZ höher als bei ZZ
o
Adoptionsstudien
ICC (Adoptiveltern, Adoptivkinder) = c²
ICC (leibliche Eltern, Adoptivkinder)= 0,5a²
ICC (leibliche Kinder, Adoptivkinder) = c²
Problem: Selektive Platzierung (Agenturen geben Kinder nicht zufällig
„irgendwohin“) , Verzerrung der Schätzung in zwei Richtungen möglich
-
-
Adoptionsstudie Neurotizismus: Unterschied weniger dadurch verursacht, ob Zwillinge
getrennt oder gemeinsam aufgewachsen sind, als dadurch, ob sie eineiig oder zweieiig
sind (getrennt aufgewachsene EZ: r= .39, zusammen aufgewachsen: r=.46, getrennt
aufgewachsene ZZ: r=.23, zusammen: r=.23)
Hoher Erblichkeitskoeffizient ist nicht gleich Unveränderbarkeit des Merkmals, sondern
Beschränkung der Veränderbarkeit des Merkmals durch Umweltfaktoren
o
-
Anlage-Umwelt-Korrelation
= überzufällige Kovariation von bestimmtem Genotyp und bestimmter
Umweltbedingung ; Erfahrung z.T. aus genetischen Gründen selbst schaffen
a. Passiver Typus
Beispiel musikalische Eltern: Gene & Umwelt der Eltern werden geteilt
(Erfahrung von Musikalität, Zugang zu Musikinstrument) ; Merkmalsträger ist
nicht an Zustandekommen beteiligt
b. Reaktiver Typus
Individuen werden nicht nur durch Umwelt beeinflusst, sonder beeinflussen
ihrerseits auch ihre Umwelt
c. Aktiver Typus
Bestimmter Genotyp sucht bestimmte Umwelt
Interaktion: Umwelteinflüsse entfalten je nach Genotyp unterschiedliche Wirkung
o
Beispiel Anlage Umwelt-Interaktion Caspi-Studie 2002
aV: Auftreten antisoziales Verhalten
uV1: Untersuchung zweier Genotypen männlicher Probanden (Genotypisierung
nach Vorhandensein eines Gens, das für Expression des Enzyms
Monoaminooxidase verantwortlich ist – auf Chromosom X lokalisiert, nur ein
Allel)
uV2: Misshandlung in der Kindheit (keine, wahrscheinlich, schwer)
Ergebnis: von den in der Kindheit misshandelten Probanden mit gleichzeitig
niedriger MAOA-Aktivität fallen signifikant mehr durch antisoziales Verhalten auf
Probanden mit niedriger MAOA-Aktivität reagieren „sensibler“ auf
Misshandlung, MAOA weist auch Zusammenhang mit Sensation seeking auf
(4) – Persönlichkeit
- Definition Persönlichkeit:
Im differentiellen Ansatz versteht man unter Persönlichkeit einer Person die Gesamtheit ihrer
Merkmalsausprägungen in allen Merkmalen, in denen sich die Mitglieder der betrachteten
Population unterscheiden.
-
L-Daten: „life-record“, Bekanntenberichte, keine soziale Erwünschtheit, bessere Qualität
Q-Daten: „questionnaire“, Selbstberichte
T-Daten: „test“, objektiv, nicht verfälschbar
-
Faktorenanalytische Persönlichkeitsforschung
o Das 5-Faktoren-Modell der Persönlichkeit FFM nach Costa & McCrae
Weitgehende Übereinstimmung seit den 90ern, dass Persönlichkeit durch
fünf breite Faktoren beschrieben werden kann:
Extraversion
Verträglichkeit
Gewissenhaftigkeit
Emotionale Stabilität (Big Five)/ Neurotizismus (FFM)
Culture, Intellekt (Big Five) /Offenheit für Erfahrungen (FFM)
o
-
L-Daten
Die „Big Five“ nach Goldberg
Begriffe Big Five und Fünf-Faktoren-Modell werden häufig synonym
verwendet
Unterschied: aus unterschiedlichen Forschungsrichtungen entstanden
Big Five: geht auf lexikalische Studien zurück (Untersuchung der Struktur
eigenschaftsbeschreibender Adjektive
FFM: beruht auf Forschung durch Persönlichkeitsfragebögen
Der lexikalische Ansatz
Sedimentationshypothese: Annahme, dass Persönlichkeitsmerkmale, die für
Menschen bedeutsam sind, in der Sprache repräsentiert werden
Ansatz versucht, über Analyse der Sprache (bzw. in der Sprache vorkommende
Beschreibungsbegriffe) zu Persönlichkeitstaxonomie zu gelangen
o
Taxonomie: systematische Rahmenmodell, dient der Unterscheidung,
Ordnung, Benennung von Typen und Gruppen innerhalb eines
Forschungsfeldes
Historischer Überblick
Forschungsrichtung geht bis auf Arbeiten von Klages 1926 zurück
 Allport & Odbert 1936
Heraussuchen von etwa 18.000 persönlichkeitsrelevanten Begriffen aus
Webster’s New International Dictionary, ca. 4500 zählen zu „personal traits“
 Cattell
Reduzierung dieses Datensatzes zu 35-er Variablenliste
 Fiske 1949 sowie Tupes & Cristal 1958, 1961
Arbeiteten mit der 35-er Variablenliste nach Cattell
 Norman 1963
o
Cattells 35-er Variablenliste
o
1. Semantische Reduktion
Vorgehen:
Ausgangspunkt Liste von Allport & Odbert
Sortierung nach Synonymen (durch 2 Personen)
Synonymgruppen variieren in Größe, Bestimmung eines Schlüsselworts
pro Synonymgruppe
Erstellung bipolarer Eigenschaftslisten: Auflistung der Synonyme als
Gegensatzpaare
(Ausnahmen: z.B. Fähigkeiten, die ein Ausmaß betonen)
Ergebnis: 4.500 Begriffe in 160 Kategorien aufgeführt
Erweiterung um Interessen und Fähigkeiten
171 Eigenschaftskategorien
Prüfung:
Einsatz der Liste in empirischer Studie (genaues Vorgehen unklar)
2. Empirische Reduktion
Vorgehen: 100 Vpn durch Bekannte eingeschätzt – Verwendung
bipolarer (rechter oder linker Begriff charakteristisch) oder unipolarer
Items (Ausprägung des Merkmals)
Ergebnis: Beurteilerübereinstimmung hoch (.70-.80)
Verwendung: Inspektion der Korrelationsmatrix, um 30-40
repräsentative Cluster zu finden
Auffinden zweier Arten von Clustern
a. Phänomenale Cluster (.45 < r < .80)
b. Nukleare Cluster (r > .80)
Nicht korrelierende einzelne Items nur bei praktischem Nutzen
beibehalten
Auflistung von Variablen, die auf diese Weise zugeordnet werden
können
drei unterschiedliche Clustergrößen
1. 15 Cluster mit fünf Variablengruppen
2. 20 Cluster mit vier Variablengruppen
3. 88 Cluster mit drei Variablengruppen
Zunächst etwa 70 als bedeutsam erachtet, nach Sichtung der
Literatur der damaligen Zeit 50 Nuklearcluster
Schritt von Clustern zur 35-Variablen-Liste nicht endgültig geklärt,
aber: weitere Reduktion auf endgültige Zahl von 35 Nuklearclustern
Tupes & Cristal 1958, 1961
Ausgangspunkt der Fünf-Faktoren-Taxonomie
Vorgehen: Reanalysen der Korrelationsmatrizen von acht Stichproben (zwei
von Cattell, zwei von Fiske, vier eigene – Fremdbeurteilungen mit der 35-er
Variablenliste)
Ergebnis: in allen Analysen zeigen sich konsistent fünf Faktoren (=Big Five)
Benennung:
I.
Surgency (talkative, assertive, energetic)
II.
Agreeableness (good-natured, cooperative, trustful)
III.
Dependability (conscientious, responsible, orderly)
o
-
IV.
Emotional stability (calm, not neurotic, not easily upset)
V.
Culture (intellectual, cultured, polished, independent-minded)
Norman 1963
Vorgehen: ausgehend von den Befunden nach Tupes & Cristal Auswahl für
jeden der fünf Faktoren die besten vier Rating-Variablen aus dem Datensatz
von Cattell, damit Ermittlung in vier unabhängigen Stichproben eine 5Faktoren-Struktur
Beispiele:
Faktor I, Extraversion: gesprächig – schweigsam, gesellig – zurückgezogen
Faktor II, Verträglichkeit: gutmütig – grantig, kooperativ- feindselig
Faktor III, Gewissenhaftigkeit: sorgfältig – nachlässig, beharrlich – sprunghaft
Faktor IV, emotionale Stabilität: ausgeglichen – nervös, gelassen – erregbar
Faktor V, Kultur, Bildung: phantasievoll – phantasielos, kunstverständig –
kunstunverständig
Fazit: die entstandenen 20 Rating-Skalen wurden von vielen Autoren als
repräsentativ für die Gesamtpersönlichkeit angesehen, in vielen
Untersuchungen verwendet: so auch Auffinden von fünf Faktoren in nichtenglischsprachigen Ländern
Kritik an den Ratingskalen:
1. Ist die Replizierbarkeit der 5-Faktoren-Struktur evtl. auf die Ähnlichkeit
der Beschreibungsvariablen zurückzuführen?
2. Ist die 35-er Variablenliste wirklich repräsentativ?
Ostendorf & Angleitner 1994: Wenn Forscher umfassende
Variablenstichproben nach inhaltlichen Gesichtspunkten vorsortieren,
können die Kategorien durch implizite Modellvorstellungen beeinflusst
sein
Borkenau et al. 2001, 2004
Forschungsfragen:
Wieviele Dimensionen der Persönlichkeit sind zur Beschreibung der Unterschiede zwischen Personen
einer Population notwendig?
Inwiefern verändern sich Persönlichkeitsmerkmale über die Lebensspanne?
Welche Rolle spielen Anlage-Umwelt bei der Persönlichkeitsentwicklung?
Welche Bedeutung haben individuelle Persönlichkeitsunterschiede in alltagsnahen Kontexten?
Stichprobe: n = 600 erwachsene Personen, für jede Selbst- und zwei
Bekanntenbeurteilungen auf den Fünf-Faktoren-Fragebogen
Vorgehen: Teilnehmer bearbeiten Vielzahl von Aufgaben, darunter 15 „quasinatürliche“ Situationen (Witz erzählen, Telefon-Rollenspiel etc.)
Einschätzung jeder Situation durch 4 unabhängige Beobachter; jede Zielperson wird
insgesamt von 60 Beobachtern gesehen
Ergebnisse:
1. Übereinstimmung der Beobachter zufriedenstellend (Validität dieser
Einschätzungen variiert jedoch: Extraversion und Offenheit funktioniert gut,
Gewissenhaftigkeit schlechter)
2. Bessere Selbst-Fremd-Übereinstimmung wenn Beobachter mehr Situationen
sieht (d.h. Validität auch vom Grad der Informiertheit abhängig, aber:
fortgeführte Beobachtung führt nicht zwangsläufig zu Validitätserhöhung) )
3. Nomologisches Netz: Übereinstimmungen Selbst, Beobachter, Konföderierte,
Versuchsleiter
o
o
Tellegen & Walter 1987
Vorgehen: nur Verwendung von Adjektiven, die zufällig aus einem
amerikanischen Wörterbuch ausgewählt waren
(auch die holländische Taxonomie von Hofstee, DeRaad et al. basiert auf
repräsentativer (zufälliger) Auswahl von 550 Begriffen aus etwa 8700
persönlichkeitsbeschreibenden Adjektiven)
Taxonomische Studien jüngeren Datums aus Holland, Italien, Ungarn,
Deutschland, Polen, Tschechien
Angleitner & Ostendorf : die deutsche Taxonomie
Vorgehen: aus Wahrig-Wörterbuch von 1981 etwa 5200
persönlichkeitsbeschreibende Begriffe heraussuchen grober Filter: „alle
potentiell persönlichkeitsbeschreibenden Begriffe“, 5200 Adjektive feiner
Filter: „persönlichkeitsbeschreibende Begriffe“, 430 Begriffe (Eigenschaften,
Charakter- und Temperament, Fähigkeiten, Talente)
Prüfung: Einschätzung der 430 Adjektive an Stichprobe
a. Selbsteinschätzung  Korrelationsmatrix 430x430 
Hauptkomponentenanalyse  5-Faktoren-Lösung
b. Bekannteneinschätzung  Mittelung der Fremdratings (3) 
Korrelationsmatrix 430x430  Hauptkomponentenanalyse  5Faktoren-Lösung
Beispiele:
I: kontaktscheu, temperamentvoll
II: warmherzig, gutmütig, herrschsüchtig
III: pflichtbewusst, arbeitsscheu
IV: verletzbar, gelassen
V: geistvoll, intelligent
-
Zusammenfassung Fünf-Faktoren-Modell
Untersuchungen im Rahmen des lexikalischen Ansatzes
1. Studien, die auf Cattells 35er Variablenliste zurückgehen
Tupes & Cristal, 1961
Norman 1963
2. Studien mit von Cattell unabhängigen Datensätzen
Conley 1985
Norman 1967
Goldberg 1980, Goldberg & Peabody (freie Elternbeschreibungen)
-
Empirische Erfassung der Fünf Faktoren: NEO-PI-R (Langform des NEO-FFI),
Ostendorf & Angleitner, 2004
Aus Fragenbogenantworten Erstellung eines Persönlichkeitsprofils
Empirische Bewährung:
Gute Übereinstimmungsergebnisse mit Bekannteneinschätzungen (r=.46), mittlere
Bekannteneinschätzungen r=.54
Gute Reliabilität (Stabilität: nach 5 Jahren r=.74)
Vielzahl von Zusammenhängen: Gesundheitsverhalten, Interessen,
Persönlichkeitsstörungen, Berufserfolg etc.
Kritik: ausschließlicher Einsatz von Fragebogenverfahren.
o
Gosling et al. 2002
Frage: Inwiefern können Fremdbeurteiler die Persönlichkeit anderer
Menschen aufgrund von Büro- und Wohnräumen einschätzen?
Stimmen Fremdbeurteiler in Einschätzungen überein? (Konsens)
Sind die Einschätzungen valide? (Akkuratheit)
Nutzen Fremdbeurteiler die cues angemessen?
Brunswik’s Linsenmodell: tatsächliche Persönlichkeit der Zielperson nur über
Linse mit cues (aufgeräumter Schreibtisch etc.) für den Beobachter erfassbar,
dabei abhängig davon, in welchem Ausmaß der cue genutzt wird und wie
valide er ist (korreliert der Hinweis überhaupt mit Persönlichkeit?)
Vorgehen: 70 Personen aus US-Unternehmen beurteilt durch Selbst- und
Fremdeinschätzung auf Fünf-Faktoren-Fragebogen (=Zielpersonen), 8
Fremdbeurteiler (Laien) sollen Persönlichkeiten einschätzen (keine
Instruktionen, Training o.ä.), Teams schätzen Büroräume anhand Liste von 43
Variablen ein
Ergebnis: Erzielung einer gewissen Übereinstimmung, Akkuratheit in
folgenden Persönlichkeitsdimensionen: Gewissenhaftigkeit, Offenheit,
Neurotizismus, gute Nutzung von Hinweisreizen (also „richtige“ Hinweisreize
in angemessener Gewichtung) bei Offenheit, Gewissenhaftigkeit,
Neurotizismus
Hans J. Eysenck 1916- 1997
1.
2.
3.
4.
5.
Etablierung und Beschreibung der Dimensionen E, N und P
Erfassung dieser Hauptdimensionen mittels Fragebogen
Eysencks Theorie zu Extraversion und Neurotizismus (Inhibition vs. Arousal)
Verhaltenskorrelate
Modifikation der Theorie Eysencks durch Gray
Zu (1): das PEN-Modell
-
Deskription der grundlegenden Einheiten, dabei Abkehr vom lexikografischen Ansatz
P: Psychotizismus, N: Neurotizismus, E: Extraversion („Giant Three“)
Etablierung der Dimensionen E und N
o
Grundlage für Etablierung Neurotizismus und Extraversion: Studie 1944
Stichprobe: 700 neurotische Soldaten
Vorgehen: Erfassung durch objektive Tests und Verhaltensbeurteilungen:
Verwendung eines Katalogs mit 39 Variablen (aus Verhaltensbeurteilungen
von Psychiatern, Krankenschwestern, Sozialarbeitern etc.)
 Kriterien zur Auswahl der Variablen: Inhaltsvalidität und keine extreme
Itemschwierigkeit (nach subjektiven Einschätzungen Eysencks)
 Faktorisierung der Korrelationsmatrix der 39 Variablen
Ergebnis: 4 Faktoren, ohne Rotation interpretiert:
I: Fehlen von Persönlichkeitsintegration ~ Neurotizismus (Generalfaktor)
II: Hysterie vs. Dysthymie ~ Extraversion (bipolar, Dysthymie negativer Pol
von Extraversion)
[ III: Sorge um den eigenen Körper ~ Hypochondrie ]
stark klinisch geprägte Merkmale
-
Etablierung der Dimension P
o Grundlagen für Etablierung Psychotizismus
Beeinflussung des Grundgedankens: durch Kretschmer und Jung und deren
Annahme eines Kontinuums von Schizophrenie über Normalverhalten bis
Manie-Depression (Kretschmer) bzw. eines Kontinuums normal-psychotisch
(Jung)
Hypothesen Eysenck:
H1: psychotische und normale Persönlichkeit unterscheiden sich nur in
quantitativer Hinsicht (Kontinuum zwischen P und N, klinisch Auffällige
nicht grundsätzlich anders, sondern Extrem der Normalen)
wenn H1 zutrifft: Tests, die zwischen Normalen und Psychotikern
differenzieren, sollten innerhalb der Normalgruppe und innerhalb der
Psychotikergruppe positiv korrelieren, also innerhalb der Gruppen
differenzieren (kleine Verteilungen innerhalb der Gruppen bilden,
unterschiedliche Ausprägungsgrade abbilden)
Überprüfung mittels Kriterienanalyse:
Annahme Kontinuums von A (normal) nach B (psychotisch)
Anforderung: wenn AB tatsächlich ein Kontinuum ist und die Tests zwischen
„ Normalen“ und „Psychotikern“ differenzieren können, müssen die
Relationen der Abschnitte stimmen. Es gilt dann bei Anordnung A-L-X-M-B, x
= cut-off normal-psychotisch:
Gruppe AL unterscheidet sich von LX genauso wie AX von XB
Gruppe XM unterscheidet sich von MB genauso wie AX von XB
Gruppe XM unterscheidet sich von MB wie AL von LX
H2: Schizophrenie und Manie-Depression liegen auf einer Dimension und
sind damit nicht unabhängig. Die beiden Gruppen weisen grundsätzlich eine
ähnliche Eigenschaftsstruktur auf wie normale. Innerhalb der
Psychotikergruppe Annahme eines Kontinuums von extremer Zyklothymie
(manisch-depressiv) zu extremer Schizothymie (schizophren)
wenn H2 zutrifft: Tests, die zwischen Schizophrenie und Manie-Depression
differenzieren, sollten auch innerhalb der beiden Gruppen differenzieren
(s.o.), also positiv interkorrelieren.
Empirisches Vorgehen / Hypothesentestung :
Stichprobe: 100 normale Vpn, 50 schizophrene, 50 manisch-depressive
(Auswahl mittels Psychiaterurteil)
Vorgehen: 30 verschiedenartige Aufgaben (84 Testwerte)  Auswahl von 20
Testwerten pro Person für Faktorenanalyse (Kritik: heterogene Tests, viele
mit Fähigkeitscharakter)
Schritt1: Untersuchung der Kriterienkorrelationen (noch keine
Faktorenanalyse), vor allem die Korrelation(schizophren, depressiv) und
(normal, psychotisch)
Welche Variablen markieren Psychiaterratings bzw. stimmen überein?
Vorläufiges Ergebnis: r(schizophren, depressiv) weist viele Nullkorrelationen
auf, r(normal, psychotisch) enthält höhere Zahl an signifikanten
Korrelationen
Schritt 2: Faktorisierung der Korrelationsmatrix der 20 Testwerte
Ergebnis: Auffinden zweier Faktoren in der Normalgruppe (Fn und Fn`) und
zweier Faktoren in der Psychotikergruppe (Fp und Fp`) erster Faktor wird
als P interpretiert; unrotiert
Bestätigung von H1: Ladungen der unrotierten ersten Faktoren
korrelieren um r=.87, Ladungen Fn und Fp korrelieren mit Kriterienspalte
r=.90 Kontinuum normal-psychotisch, Grundlage für quantitative
Psychotizismus-Dimension P
H2 kann nicht bestätigt werden: geringe Kriterienkorrelationen, geringe
Korrelationen zwischen Faktorladungen Fn‘ und Fp‘ und Kriterienspalte
keine separaten Kontinuen innerhalb Störungsgruppen, Befunde bleiben
auch nach Rotation unverändert
Zu (2) Messinstrumente
-
Nachdem Etablierung durch Fremdbeurteilungsdaten erfolgt ist, Konstruktion von
Selbstberichtsfragebögen, um Dimension leichter zu erfassen
1. Maudsley Medical Questionnaire (MMQ)
Erfasst N und Lügenskala
2. Maudsley Personality Inventory (MPI)
Ziel: weniger starke medizinische Ausrichtung, breitere Anwendung
Erfasst E und N (E~ soziale Introversion und Rhathymia, N ~ Nervosität und
Depression)
Verwendung von Items aus Fragebögen von Guilford
E und N in Normalstichproben weitgehend unabhängig, bei klinischen Gruppen
stärkere Interkorrelation
3. Eysenck Personality Inventory (EPI)
Verbesserte Fassung des MPI (besser verständlich, Parallelform, Lügenskala,
Unabhängigkeit E und N)
Itemgewinnung unbekannt, Lügenskala aus MMQ
Entwicklung einer kinderadäquaten Form (JEPI, deutsch: HANES K.J., HAPEF-K)
4. Psychotizismus-Skala (P-Skala)
Soll unabhängig sein von E und N
Konstruktion durch klinische Erfahrung geleitet, und Beobachtung, dass
Psychotiker sich in ihrem Verhalten von Neurotikern und normalen Personen klar
abgrenzen lassen
Bewertung: nach Faktorenanalyse zeigen sich Zusammenhänge der
Itemergebnisse, die N und P messen sollen (nicht unabhängig!), Differenzierung
von Normalen und Psychotikern gelingt allein mit P-Skala nicht (Hinzuziehung
Lügenskala)
Kontroversen um P-Skala (Psychotiker haben zu niedrige Werte, geringe
Reliabilitäten, Rolle der Impulsivität, Schwierigkeiten der Differenzierung,
Schiefe, Ethik (Stigmatisierung))
5. EPQ (Eysenck Personality Questionnaire)
6. EPQ-R
7. EPP
Zu (3) – Theorie zu Inhibition und Arousal (kausale Erklärungen zu den gefundenen Dimensionen)
-
-
-
Extraversion / Introversion: Inhibitionstheorie von 1957
Generelle Annahme: Individuelle Differenzen in Extraversion / Introversion hängen
mit erblichen Funktionsunterschieden im Nervensystem zusammen
Postulat individueller Differenzen: Menschen unterscheiden sich in Bezug auf..
1. Geschwindigkeit des Aufbaus neuronaler Erregungs- und Hemmungspotentiale
2. Stärke dieser Potentiale
3. Geschwindigkeit des Abbaus von Hemmung
Typologisches Postulat:
a. Extravertierte Verhaltensmuster: langsamer Aufbau von Erregung, schwaches
exzitatorisches Potential (bei neurotischem Zusammenbruch: hysterischpathologisch), schnelle Entwicklung reaktiver Hemmung, starke Ausprägung und
langsame Zerstreuung
b. Introvertierte Verhaltensmuster: schneller Aufbau von Erregung, starkes
exzitatorisches Potential (bei neurotischem Zusammenbruch: dysthymische
Störung), langsame Entwicklung der reaktiven Hemmung, schwache Ausprägung
und schnelle Zerstreuung
 Konzept der reaktiven Hemmung (Hull)
Zentralnervöser Vorgang, der durch exzitatorische Prozesse
ausgelöst wird und als aktiver Prozess der Exzitation
entgegenarbeitet. Vergleichbar einem „Nervenzustand der
Ermüdung“.
Kritik am typologischen Postulat:
1. Konfundierung der verschiedenen Aspekte von Erregungsaufbau, -stärke und
Hemmungsauf- bzw. abbau
2. Leistungsunterschiede zwischen Extravertierten und Introvertierten sind nur
schwer den unterschiedlichen Erregungs- und Hemmungsprozessen zuzuordnen.
Labortests: Leistungsunterschiede zwischen E und I
o Pursuit-Rotor-Task
Aufgabe: Verfolgung eines Punktes auf einer rotierenden Scheibe ohne
Kontaktverlust
Durchführung: Test über mehrere Minuten ausführen lassen, dann
Ruhepause
Grundannahme hierbei: Aufbau von Hemmung wirkt leistungsmindernd,
Ruhepause hebt Hemmung auf
o
o
Hypothese: da sich Hemmungsprozesse bei Extravertierten schneller und
stärker aufbauen sollten, müssten sie von der Pause stärker profitieren
(Reminiszenzeffekt)
Ergebnis: größerer Reminiszenzeffekt bei den Extravertierten.
Leistungsunterschiede nach der Pause (aber nicht vorher!)
Fazit: entspricht nur zum Teil den Vorhersagen der Inhibitionstheorie (es
hätte vorher Leistungsunterschied zu Ungunsten der Extravertierten geben
müssen)
Lidschlagkonditionierung (Franks, 1956)
Prinzip: UCS (Luftstoß auf Auge), UCR (Lidschlagreflex), CS (Ton), CR ( durch
den Ton ausgelöster Lidschlagreflex)
Durchführung: 3 Gruppen à 20 Personen (neurotische E - Hysteriker,
neurotische I - Dysthymiker, Normale); 30 Kopplungen von CS und UCS in der
Lernphase; über die Durchgänge verteilt 18 Darbietungen von CS allein; 11
Darbietungen CS in der Löschungsphase
Ergebnis: Dysthymiker zeigen mehr CRs als die anderen Gruppen, dabei
Hysteriker am wenigsten Dysthymiker lernen schneller, löschen langsamer
Folgerung: Introvertierte sind besser konditionierbar
 aber Problem für diese Folgerung: Nachweis paralleler Lernkurven
Konditionierungs-Lernkurven laufen für Hysteriker und Dysthymiker
parallel ab, damit gibt es keinen qualitativen, nur einen quantitativen
Unterschied (Lernkurven für D nach oben verschoben)
genauere Explikation erforderlich: wie ist die Folgerung,
Introvertierte ließen sich schneller konditionieren und löschten
langsamer, gemeint? Bezieht sich Konditionierung / Löschung auf
absolut erreichte Werte?
Eysencks Formulierung eher unspezifisch: „es besteht positive
Korrelation zwischen Introversion und Konditionierbarkeit“ (damit
sind zunächst absolute Werte gemeint)
Stärkere Hinweise auf unterschiedliche Steigungen in anderen
Arbeiten
Eysenck & Levey 1976: Hinweise auf verschieden günstige Bedingungen für
Konditionierung von Introvertierten bzw. Extrovertierten
Ausgansgpunkt: uneinheitliche Befundlage in weiteren Arbeiten zu
Lidschlagkonditionierung  aber Beobachtung, dass besonders 3 Variablen
zwischen den Studien variierten: 1) Verstärkungsrate, 2) Stärke des UCS, 3)
Interstimulusintervall
Annahme: Misserfolge von Untersuchungen, die die Folgerung bestätigen
wollten, sind auf diese nicht genau eingehaltenen Bedingungen
zurückzuführen. Variation der drei Variablen.
Aufbau: a.) Verstärkungsrate: partiell (67%), vollständig (100%)
b.) UCS-Stärke: schwach (3 Pfund/inch²), stark (6 Pfund/inch²)
c.) CS-UCS-Intervall: kurz (400ms), lang (800 ms)
dabei Annahme, dass jeweils erste Bedingung günstig für die
Introvertierten sein (relativ zu den Extravertierten); Erklärung:
Zu a) Nicht bekräftigte Versuche rufen nach Pawlow Hemmung hervor; wenn das
besonders für E gilt, müssen sie hier benachteiligt sein
Zu b) UCS von niedriger Stärke adaptieren schnell und rufen dadurch Hemmung
hervor, hier wären wieder E benachteiligt; UCS von zu großer Stärke führen zu
Schutzhemmung, hier wäre I beeinträchtigt
Zu c) Bisherige Befundlage legt nahe, dass I bei kurzen Intervallen begünstigt wären
Durchführung: 144, 8x18 (Rate x Stärke x Intervall) männliche Vpn,
Einteilung in E, I und Ambivertierte A
Ergebnisse:
1. bei Vergleich des bedingten Anstiegs von Lidschlagreaktionen leichte
Überlegenheit der Introvertierten, aber nicht signifikant
2. Vergleich bei hoher bzw. niedriger UCS-Stärke: bei schwachem UCS
bessere Konditionierbarkeit der Introvertierten, bei starkem UCS der
Extravertierten
3. Vergleich bei verschieden langen Intervallen: bessere Konditionierbarkeit
der Introvertierten in beiden Bedingungen, dabei größerer Unterschied
zwischen E und I bei kurzem Intervall
4. Vergleich bei konstanter oder partieller Bekräftigung: generell bei
konstanter besser, stärker ausgeprägter Unterschied zwischen E und I
bei partieller (zugunsten von I)
Vergleich optimaler Bedingungen für E und I
Klare Differenzen zwischen E und I, Unterschiede in Gesamtlernleistung
(doppelt so viele bedingte Reaktionen von E ggü. I)
E stärker abhängig von für sie optimalen Bedingungen
Kritik: kleines N pro Gruppe
Erklärungen der Befunde durch Eysenck
1.
Partielle Verstärkung für Extravertierte ungünstiger
Nichtbekräftigte Durchgänge erzeugen Hemmung, was bei Extravertierten
stärker zum Tragen kommt
2. Schwacher UCS für Extravertierte ungünstiger
Schwacher UCS wird von Introvertierten aufgrund niedrigerer Sinnesschwellen
subjektiv stärker wahrgenommen (bei stärkeren UCS setzt bei Introvertierten
dann Schutzhemmung ein)
3. Kurzes US-UCS-Intervall für Extravertierte ungünstiger
Introvertierte haben arousalbedingt kürzere Reaktionszeiten und zeigen bei
kurzen Intervallen bessere Konditionierung
unter optimalen Bedingungen findet sich eine Korrelation (E,I; Konditionierung)
von r=.40, unter schlechten von r=-.31
-
Vereinbarkeit der Befunde mit der Inhibitionstheorie und allgemeine Kritik
1. Nicht klar aus der Theorie ableitbar, warum es Unterschiede in der
Konditionierbarkeit bei partieller oder konstanter Bekräftigung gibt
2. Erklärung der stärkeren CR bei schwachem UCS für Introvertierte nur mit
Zusatzannahme einer „Schutzhemmung“ möglich
spätere Studien werden zeigen, dass die Haupteinflussgröße auf die Befunde
die Impulsivitätskomponente war
Allgemeinere Probleme:
3. Schwierigkeiten mit dem Konzept der Hemmung selbst (unpräzise:
Konfundierung von Erregungs- und Hemmungsprozessen)
4. Schwierigkeit der experimentellen Beeinflussung
5. Keine Benennung von neurophysiologischen Systemen
-
Die Arousaltheorie 1967
Hauptaussagen:
1. Extravertierte und Introvertierte unterscheiden sich in ihrem allgemeinen
kortikalen Arousalniveau
2. ..und im Ausmaß des Eintretens der Schutzhemmung
als mit dem Arousal assoziierte Hirnstruktur werden das aufsteigende retikuläre
Aktivierungssystem (ARAS) sowie die Formatio reticularis (FR) identifiziert
Stichworte
Transmarginale Hemmung = Schutzhemmung, Antwort des Organismus auf zu stark
empfundene Stimuli: bis zu bestimmtem Punkt intensiveres Arousal, bei weiterer
Intensitätssteigerung abnehmendes Arousal
Optimales Erregungsniveau = als angenehm erlebtes Arousalniveau, für
Introvertierte und Extravertierte unterschiedlich (Extravertierte benötigen mehr
Stimulation, um ihr optimales Erregungsniveau zu erreichen, da unterempfindliches
ARAS)
Drogenpostulat = künstliches Steigern oder Abschwächen von Arousal durch Drogen
(künstliches Erzeugen von Extra- oder Introversion)
Zusammenhang von ARAS und Extraversion sowie Viscerales Gehirn und
Neurotizismus =
Zusammenfassung:
Arousaltheorie: Die Beziehung zwischen kortikalem Arousal und retikulärem
Bombardement ist positiv bis zu dem Punkt, an dem transmarginale Hemmungen im
Sinne einer Schutzfunktion einsetzen und einer weiteren Aktivierung
entgegenwirken. Unterschiedliches optimales Erregungsniveau bei Extra- und
Introvertierten
Beziehung zwischen Ausmaß an sensorischer Stimulation und subjektiver
Bewertung des dadurch bewirkten Zustands
Funktion bei Introvertierten nach links, bei Extravertierten nach rechts verschoben
In Extremsituationen wieder Annäherung der beiden Funktionen (transmarginale
Hemmung)
-
Studien zu Inhibitions- und Arousaltheorie
o Kritische Flimmerverschmelzungsfrequenz (FVF)
Ausgangspunkt: Licht, das bei moderater Frequenz ein- und ausgeschaltet
wird, scheint zu flimmern; bei Erhöhung der Frequenz verschmilzt das
Flimmern zu kontinuierlichem Lichteindruck (diese Frequenz =
Flimmerverschmelzungsfrequenz, individuell unterschiedlich)
Annahme Eysenck: individuelle Unterschiede in
Flimmerverschmelzungsfrequenz hängt mit Extraversion zusammen –
Introvertierte müssten sensorische Reize präziser verarbeiten (höheres
Arousal) und daher eine höhere Frequenz haben; wenn sensorische
o
o
o
o
Stimulation aber sehr hoch wird, müsste transmarginale Hemmung bei
Introvertierten früher einsetzen, damit müssten Extravertierte höheres
Arousal aufweisen und eine höhere FVF haben
Vorhersagen Theorien:
Inhibitionstheorie: reaktive Hemmung erleichtert die getrennte
Wahrnehmung der Lichtblitze, E sollten höhere FVF aufweisen, E > I
Arousaltheorie: höhere kortikale Erregung soll Stimulierung verstärken,
höhere Stimulusintensität geht einher mit höherer FVF , E < I
Ergebnis pro Arousaltheorie
Vigilanzexperimente
Vorhersagen Theorien:
Inhibitionstheorie: reaktive Hemmung führt zu unfreiwilligen
(Konzentrations-)Pausen und verschlechtert somit die Leistung von E, E < I
Arousaltheorie: mittleres Erregungsniveau ist optimal
Ergebnisse: Berücksichtigung der Tageszeit bei mehreren Studien zeigt
morgens negativ r zwischen E und Leistung, nachmittags positives r
(Veränderung der Erregung über den Tag)
Dauer unfreiwilliger Ruhepausen beim Tapping: bei E mehr Pausen
Unterschiede bei Schmerzgrenzen und Arousal-Levels: niedrigere mittlere
Schmerzgrenze bei Introvertierten, Zusammenhang zwischen Arousal-Level
und Schmerzgrenzen
Studie psi-Fähigkeiten und E/I: Annahme, dass Extraversion mit verbesserter
psi-Fähigkeit einhergeht (Begriff aus Parapsychologie)
Zu (4) Verhaltenskorrelate
1. Neurotizismus korreliert positiv mit „driving stress scale“, besonders mit „driving
aggression“ und „dislike of driving“
2. Taxifahrer mit hohen N-Werten (und E-Werten) erhalten mehr Strafmandate
3. Unterschiede in bevorzugtem Abwehrmechanismus bei hochneurotischen und
niedrigneurotischen Personen: hochneurotische sensibilisieren,
niedrigneurotische verdrängen
4. Die Instruktion, sich gut darzustellen, führt zu niedrigen N-Werten
5. Hoch-N-Studenten nehmen belastende akademische Ereignisse als Bedrohung,
niedrig-N-Studenten als Herausforderung wahr
6. N korreliert mit den 16 PF Skalen C ( geringe Ich-Stärke), L (Misstrauen), O
(Neigung zu Schuldgefühlen), Q4 ( hohe Spannung, Gereiztheit)
7. Frauen erreichen höhere Werte als Männer
-
Eysenck kontrovers
Publikation: Rauchen verursacht keinen Lungenkrebs (viele Faktoren, darunter
Rauchen, keiner verursacht Lungenkrebs alleine)
-
Modifikation von J. Gray (um 1970, 1980): Reinforcement-Sensitivity Theorie (RST)
Alternatives 2-Faktoren-Modell:
-
-
Rotation der Faktoren Neurotizismus und Extraversion, neue Dimensionen: Angst
(Gehemmtheit) und Impulsivität (Aktiviertheit)
Hauptaussagen:
1. Ansteigendes Angstniveau reflektiert ein steigendes Niveau an Empfänglichkeit
für Anzeichen von Bestrafung, Nichtbelohnung, Neuheit
Behavioral Inhibiton System BIS (Vermeidung von Negativem)
2. Ansteigendes Impulsivitätsniveau reflektiert ein steigendes Niveau an
Empfänglichkeit für Anzeichen von Belohnung und Nichtbestrafung
Behavioral Activation System BAS (Suchen von Positivem)
3. Extraversion reflektiert in diesem Zusammenhang die relative Stärke von BIS und
BAS, Neurotizismus die gemeinsame Stärke (graphisch: Extraversion x-Achse,
Neurotizismus y-Achse)
Vorteile der Theorie:
a. In Untersuchungsergebnissen zu Extraversion hat sich die Komponente
Impulsivität oft als wichtiger erwiesen als Soziabilität
b. Individuelle Differenzen in E und N werden innerhalb eines
Bezugsrahmens begriffen (Sensitivität gegenüber Straf- und
Bekräftigungsreizen)
Annahme eines dritten Verhaltenssystems: Reaktion auf unkonditionierte
Gefahrenreize
Entwicklung von Skalen, die BIS (Angst) und BAS (Impulsivität) messen sollen,
psychometrisch aber unbefriedigend
bessere BIS- und BAS-Skalen von Carver & White 1994, bessere psychometrische
Eigenschaften – deutschsprachige Version von Strobel et al. 2001
Itembeispiele BIS-Skala:
„Ich habe Angst, Fehler zu machen“ (+)
„Sogar wenn etwas Schlimmes bevorsteht, bin ich selten nervös oder ängstlich“ (-)
Itembeispiele BAS-Skala:
„Ich fände es sehr aufregend, einen Wettbewerb zu gewinnen“ (+)
Kritik an der Theorie:
a. Impulsivität ist eher mit Psychotizismus assoziiert als mit Extraversion
b. Eysencks Theorie ist breiter und bezieht sich auf den gesamten
Persönlichkeitsbereich, mit Gray hauptsächlich Aussagen in Bezug auf
Angst möglich
Gray benutzt zunächst Eysenck-Skalen zu E und N zur Überprüfung der RST und
zeigte, dass Extravertierte besser mit Belohnungssignalen und Introvertierte besser
mit Bestrafungssignalen lernen
c. Diese Befunde sind aber nicht eindeutig, andere Interpretation möglich:
Lernunterschiede können auch durch unterschiedliche kortikale
Erregung, die die Verstärker auslösen, erklärt werden (nach Eysenck)
Fly UP