Skript Differentielle Psychologie (1) - Faktorenanalyse -
by user
Comments
Transcript
Skript Differentielle Psychologie (1) - Faktorenanalyse -
Skript Differentielle Psychologie (1) - Faktorenanalyse - Grundlagen o Definition Korrelation Die Pearson Produkt-Moment-Korrelation r ist eine standardisierte Maßzahl für den Zusammenhang zweier Variablen. Sie variiert zwischen -1 und 1. Voraussetzung sind intervallskalierte Daten. o o o o o Signifikanztest: bedeutsame Unterschiedlichkeit der gefundenen Korrelation von 0, abhängig von Stichprobengröße Kausalität: Zusammenhang zwischen X und Y kann bedeuten, dass X Y, Y X, beide sich wechselseitig oder eine dritte Variable beide beeinflusst Grundlage für Faktoren: korrelieren Variablen hoch, lassen sie sich ohne Informationsverlust zusammenfassen Probleme: Extraktionsproblem – wieviele Faktoren? (Kaiser-Guttmann, Screetest, Parallelanalyse, s.u.), Faktorrotation – warum überhaupt, orthogonale oder oblique? Grundlegende Begriffe: Variablen besitzen: Faktorladung, Kommunalität Faktoren besitzen: Eigenwert Personen besitzen: Faktorwert - Eigenschaften und Ziele 1. Datenreduzierend, strukturgebend 2. Überprüfung der Dimensionalität komplexer Merkmale 3. Verwendung exploratorisch oder konfirmatorisch Reduzierung auf wenige, grundlegende Dimensionen aus Korrelationen die zugrunde liegenden Faktoren erschließen - Historischer Abriss o Beginn um Jahrhundertwende, vorangetrieben durch Intelligenzforschung o Entdeckung für die Persönlichkeitsforschung durch Cattell, Eysenck, Guilford o Ständige Weiterentwicklung, heute Sammelbegriff für Reihe von Verfahren o Heute relativ einfache rechnerische Anwendung durch EDV-Entwicklung - Grundprinzip der Hauptkomponentenanalyse (PCA) 1. 2. 3. 4. 5. Erhebung der Korrelationsmatrix Extraktion der Faktoren Bestimmung der Kommunalitäten Zahl der Faktoren Faktorinterpretation und Faktorrotation Zu 1. Erhebung der Korrelationsmatrix o Testwerte der Vpn (Variablen z.B. Selbstsicherheit, Kontaktfreude etc.) o Errechnung der Korrelationsmatrix o Faktorenanalyse abhängig von Güte der Korrelationsmatrix hohe Korrelationen wenige varianzstarke Faktoren (Generalfaktoren) niedrige Korrelationen viele Faktoren mit geringen Eigenwerten Zu 2. Extraktion der Faktoren o Jeder Beobachtungswert einer Ausgangsvariablen xj lässt sich als Linearkombination mehrerer Faktoren beschreiben o Grundgleichung Faktorenanalyse xmi = fm1 * ai1 + fm2 * ai2 + … + fmq * aiq = ∑ fmj * aij wobei xmi = Wert der Person auf der i-ten Variablen fmj = Ausstattung der Person mit dem Faktor j aij = Bedeutung des Faktors j für das Ergebnis auf der Variablen i Matrixschreibweise: X = F * A´ o f- und a-Werte werden in der PCA so bestimmt, dass die Vorhersagewerte möglichst gering von den tatsächlichen x-Werten abweichen o Faktoren so bestimmen, dass sie 1. Wechselseitig voneinander unabhängig sind (graphisch: orthogonal) 2. Sukzessiv (kontinuierlich) maximale Varianz aufklären Kennwerte der Faktorenanalyse Faktorwert fmj Wert, der den Personen auf den neuen Faktoren zugeordnet wird Gibt an, wie stark die in diesem Faktor zusammengefassten Merkmale bei dieser Person ausgeprägt sind Graphisch also Projektion der Person auf die neuen Achsen Faktorladung aij Korrelation zwischen einer Variablen i und einem Faktor j Kommunalität hi² Aufsummierung der quadrierten Ladungen einer Variablen i über alle Faktoren h²i = ∑ a²ij lässt sich anhand Faktorladungen errechnen Anteil der Varianz einer Variablen, der durch die Gesamtheit der Faktoren aufgeklärt wird Bei z-standardisierten Variablen also nie größer 1 Eigenwert λj Gibt an, welcher Anteil der Gesamtvarianz aller Variablen durch diesen Faktor j aufgeklärt wird Aufsummierung der quadrierten Ladungen des Faktors j über alle Variablen i λj = ∑ a²ij je höher die Variablen korrelieren, desto größer der Eigenwert des ersten Faktors Faktor ist unbedeutend, wenn er weniger Varianz als 1 aufklärt errechnen anhand Faktorladungen (dadurch Bestimmung von Kommunalität, Eigenwerten und % aufgeklärter Varianz) Anteil erklärter Varianz Steht mit Eigenwert in Zusammenhang: bei z-standardisierten Variablen ist Varianz = 1 Anteil der durch den Faktor erklärten Varianz wird daher so errechnet: Erklärte Varianz = (Eigenwert des Faktors / Variablenzahl ) * 100 Zu 3. Bestimmung der Kommunalitäten Exkurs Modellunterschiede der Faktorenanalyse und Kommunalitätenproblem o Kommunalitätenproblem: vor Extraktion der Faktoren müssen die Kommunalitäten geschätzt werden, deren Werte man noch nicht kennt (Schätzung der gemeinsamen Varianz einer Variablen mit den übrigen zu faktorisierenden Variablen) o Unterschiedliche Faktorenanalysen verwenden unterschiedliche Methoden der Kommunalitätenschätzung : o Hauptkomponentenmodell (PCA) Annahme: Varianz einer Variablen kann vollständig durch Extraktion von Faktoren erklärt werden, Kommunalität wird 1 Nicht in Betracht gezogen: Fehlervarianz (schlechte Reliabilität der Messungen) und Spezifität Die meisten in der Literatur berichteten FA’s sind Hauptkomponentenanalysen o Faktorenanalytisches Modell Annahme: Varianz einer Variablen unterteilt sich in Kommunalität und Einzelrestvarianz (Spezifität), Kommunalität bleibt unter 1 Meist geringere Faktorladungen als bei PCA je größer die Variablenzahl, desto geringer die Unterschiede zwischen den Ergebnissen der Modelle Cattell Anhänger des faktorenanalytischen Modells, Guilford + Eysenck führten auch PCA’s durch Schätzung der Kommunalitäten Methoden: 1. Größte Korrelation in der Zeile / Spalte einer Korrelationsmatrix 2. Quadrierte multiple Korrelation R² zwischen der Variablen und allen anderen Variablen der Korrelationsmatrix 3. Iteratives Verfahren: beginnend mit Startwerten (R²) wird Hauptachsenanalyse gerechnet, die verbesserte Schätzung dient als neuer Startwert Zu 4. Zahl der Faktoren o Dilemma: je mehr Faktoren, desto mehr aufgeklärte Gesamtvarianz, aber desto geringer die Datenreduktion o Subjektive Entscheidung, aber statistische Hilfen: 1. Kaiser-Guttmann-Kriterium Zahl der zu extrahierenden Faktoren gleich der Zahl der Faktoren mit Eigenwerten größer 1 Anspruch: Faktor soll mehr Varianz als eine Variable aufklären Probleme: häufig Überschätzung der Faktorenzahl, systematischer Anstieg der Faktoren mit Anstieg der Variablenzahl Verwendung nicht zu empfehlen 2. Scree-Test (Cattell) Im Eigenwertediagramm: Punkte, die sich asymptotisch der Abszisse nähern, werden durch Gerade angenähert Faktoren mit Eigenwerten, die oberhalb dieser Gerade liegen, werden angenommen Anspruch: mit einem Minimum an Faktoren ein Maximum an Varianz erklären Verwendung nicht zu empfehlen Weniger auf mathematischen / statistischen Grundlagen als auf Erfahrungswerten entwickelt 3. Parallelanalyse (Horn) Grundidee: über Eigenwertediagramm ein zweites legen, das aus Korrelationsmatrix von normalverteilten Zufallsvariablen ermittelt wurde Empirisch ermittelte Faktoren, die die Zufallsfaktoren übertreffen, sind bedeutsam (graphisch: diejenigen Faktoren, die sich vor dem Schnittpunkt der beiden Verläufe befinden) liefert genaueste Ergebnisse Parallelanalyse im Vergleich mit Kaiser-Guttmann: Kaiser-Guttmann überschätzt Faktorenzahl, wenn die Korrelationen der Stichprobe durch zufällige Faktoren beeinflusst werden (besonders bei kleinen Stichproben!) Korrelationen von Zufallszahlen in Population (mit N = unendlich) wären 0 und alle Eigenwerte 1,0 (d.h. hier läge Kaiser-Guttmann richtig); in Stichprobe ergeben sich für die ersten Faktoren aber Werte über 1 und für die späteren unter 1 Parallelanalyse also eine auf Stichproben bezogene Adaption des KaiserGuttmann-Kriteriums Zu 5. Faktorinterpretation und Faktorrotation o Faktorladung gibt Hinweise für Faktorinterpretation: Faktor ist aber schwer zu interpretieren, wenn viele Variablen unterschiedlich stark auf ihn laden geben die Ladungen keine eindeutigen Hinweise, werden Faktoren rotiert o Einfachstruktur (Thurstone) Dient als Rotationskriterium, erleichtert Interpretation Anspruch: 1. auf einem Faktor sollen einige Variablen möglichst hoch und andere möglichst niedrig laden 2. auf verschiedenen Faktoren sollten verschiedene Variablen möglichst hoch laden o verschiedene Rotationsmöglichkeiten, Unterscheidung auf verschiedenen Dimensionen 1. orthogonale vs. oblique Rotation Orthogonale Rotation (Bsp. Varimax-Rotation) Annahme: Faktoren korrelieren nicht untereinander! Unabhängigkeit der Faktoren bleibt erhalten Faktorladungen, Eigenwerte, Faktorwerte ändern sich Kommunalitäten, Anteil aufgeklärter Varianz ändern sich nicht (graphisch: Drehkreuz weiterdrehen, bis einige Faktoren sehr hoch, andere niedriger laden; Faktorachsen bleiben in rechtem Winkel zueinander) Oblique Rotation Aufgabe der Unabhängigkeit der Faktoren Rotation in schiefem Winkel zueinander rotieren (bzw. in jedem beliebigen Winkel) Vorteil: vereinfacht die Interpretation, da Kriterium der Einfachstruktur leichter erreicht werden kann Interkorrelation der Faktoren wird in Korrelationsmatrix angegeben Aber: Faktoren beinhalten redundante Information, Grundidee Unabhängigkeit wird aufgegeben Faktorladungen, Eigenwerte, Faktorwerte ändern sich Kommunalitäten, Anteil aufgeklärter Varianz ändern sich nicht Rotation verändert: Interpretierbarkeit, Faktorladungen und Eigenwerte, nicht die Kommunalitäten Faktorenanalysen höherer Ordnung Korrelationsmatrizen obliquer Faktoren werden faktorisiert, das Ergebnis rotiert Führt zu Faktoren zweiter, dritter, … Ordnung, die abstrakte Beschreibungsdimensionen sind 2. visuelle / graphische vs. analytische Rotation 3. Kriteriumsrotation / Prokrustes-type-rotation Eingesetzt, um Faktorstrukturen, die aus unabhängigen Stichproben stammen, miteinander zu vergleichen (Bsp. Intelligenzstruktur Männer und Frauen) Vergleichsstruktur so rotieren, dass sie maximale Ähnlichkeit mit gut interpretierbarer Lösung (=Zielstruktur) aufweist Voraussetzung: Strukturen basieren auf gleichen Variablen, Anzahl Faktoren muss übereinstimmen (2) – Intelligenz - Studie Rauchen / IQ IQ-Testung 1932 im Kindesalter, Einteilung in Raucher, Nie-Raucher, Ex-Raucher Kein Zusammenhang zwischen jemals geraucht, nie geraucht mit IQ-Unterschieden Aber Noch-Raucher hatten niedrigeren IQ als Ex-Raucher Interpretation: Intelligentere Personen haben nach Bekanntwerden der Risiken aufgehört - Intelligenz als psychologisches Konstrukt Ausgeprägte Forschungstradition +Tests hoch reliabel, breitgefächerte Validität +Alltagsrelevanz -Gesellschaftspolitische Brisanz -Ideologische Färbung -Falsche Annahmen zu Entstehung und Beeinflussbarkeit -Interdisziplinäre Missverständnisse Forschung: - Spearman 1904 – Thomson 1916 – Thorndike 1920 – Thurstone 1938 – Burt 1949 – Vernon 1950 – Guilford 1956 – Cattell 1966 – Jensen 1969 – Jäger 1984 Standardverfahren zur IQ-Messung erfassen in der Regel Set aus spezifischen verbalen und nonverbalen kognitiven Fähigkeiten o Three-Stratum-Modell, Caroll, 1993 General (Stratum III) – g , allgemeine Intelligenz Broad (Stratum II) – fluide Intelligenz, kristalline Intelligenz, Gedächtnis & Lernen, Visuelle Perzeption, Auditive Perzeption, Abrufkapazität, Mental Speed, Einfache RZ Narrow (Stratum I) – Beispiele: schlussfolgerndes Denken, Sprachverständnis, Gedächtnisspanne, räumliche Beziehungen etc. „g“ korreliert mit Berufserfolg, sozialen Fähigkeiten, Werten und Einstellungen, Kreativität, schulischen Variablen, Gesundheitsverhalten, deviantem Verhalten etc. - Anfänge der Intelligenzforschung o Mental Tests, 2. Hälfte 19. Jahrhundert Reizdiskriminationsforschung McKeen-Cattell, Galton Ziel: mittels Messung von Reaktionsvermögen und Unterscheidungsvermögen akademische Befähigung vorhersagen Probleme dieser Forschungstradition: 1. Hohe intraindividuelle Variation 2. Keine bedeutenden Zusammenhänge zwischen den Tests (mittlere Interkorrelation der Testverfahren r = .09 ) 3. Keine hinreichenden Beziehungen zu Kriteriumsmaßen (z.B. Lehrerurteil, Schulerfolg) Probleme in Reliabilität und Kriteriumsvalidität o Alfred Binet 1857 - 1911 Kritik an Spezifität / sensorischer Ausrichtung der Mental Tests Vorschlag: Messung der Merkmale Gedächtnis, Vorstellungskraft, Aufmerksamkeit, Verständnis, Suggestibilität, Willensstärke, motorische Fähigkeiten, moralische Haltungen 1905: Binet und Simon stellen Aufgaben vor, die zwischen schwachsinnigen und normalen Kindern unterscheiden sollen 1908 / 1911: Revisionen der Tests, stärkerer Altersbezug Konzept Intelligenzalter Staffeltests: für jede Altersstufe zwischen 3 und 15 Jahren etwa 5 mittelschwere Aufgaben, die 50-70% der Kinder dieses Alters lösen konnten IA = GA * x * 12/5 + 6 GA = Grundalter, Alter in Monaten, bis zu dem ein Kind alle Aufgaben richtig lösen konnte x = zusätzlich gelöste Aufgaben der folgenden Altersstufen Kritik an den Staffeltests: 1. Scheitern der Entwicklung trennscharfer Aufgaben für höhere Altersstufen (Binet hält Intelligenzentwicklung mit 15 für abgeschlossen) 2. Gleichgewichtung der Aufgaben au f allen Altersstufen 3. Sehr häufig verbaler und bildungsabhängiger Inhalt 4. Differenz zwischen Intelligenzalter und Lebensalter hat auf verschiedenen Stufen eigentlich völlig unterschiedliche Bedeutung (je jünger das Kind umso drastischer gleiche Differenzen, Differenzen sagen also nicht dasselbe aus) o Stern und der Intelligenzquotient Definition des IQ: IQ = IA / LA * 100 Standardisiert an Lebensalter Vorteil: Gewährleistet Konstanz der Interpretation von Leistungsvorsprüngen oder – rückständen (bei Veränderung von IA und Differenz zum LA, IQ fällt dann auf allen Altersstufen gleich aus) Nachteil: setzt lineare Zunahme von Intelligenz im Alter voraus, bedeutet in der Konsequenz absurd niedrige IQ-Werte im Alter – würde nur funktionieren, wenn IQ und Lebensalter linear ansteigen, IQ verläuft nicht linear o David Wechsler, Abweichungsquotient Verbreitung des Stanford-Binet-Tests (1960) WISC (Wechsler Intelligence Scales) Hohe Zusammenhänge mit Binet-Tests, aber Ermittlung eines Abweichungs-IQ Abweichungs-IQ = 100 + s * (X-M)/σ Wobei s = 15 (willkürlich, Konvention) X = individueller Rohwert M = empirischer Mittelwert der altersspezifischen Rohwerte-Verteilung σ = empirische Standardabweichung Vorteile: altersadäquate Abbildung kognitiver Fähigkeiten einheitliche Kommunikationsgrundlage direkte Vergleichbarkeit zwischen verschiedenen Testverfahren Benennung der Abschnitte in der Verteilung haben eher historischen Wert (ab wann hoch, ab wann retardiert etc.) Verteilung des IQs nicht perfekt normal (Normalverteilung nur theoretisch) Kurve von Intelligenzanstieg und –abfall: am höchsten etwa Mitte 20, dann langsamer aber kontinuierlicher Abfall, dabei im Handlungsteil frühere und deutlichere Verluste - Viele verschiedene verbale Definitionen von Intelligenz, aber: Entwicklung eines klaren und konsensfähigen Verständnisses davon, welche Fähigkeiten Intelligenz umfasst und wie bedeutsam die Prädiktionskraft dieses Konstrukts ist. - Strukturmodelle o Spearman 1863-1945: Generalfaktorenmodell Erstes Strukturmodell der Intelligenz 1904 Kritik an früheren Messungen: Zuviele Tests Gruppentestung daraus resultierende Messungenauigkeiten, kaum Zusammenhänge zwischen Einzelaufgaben Zusammenhang wahrer Messwerte durch Minderungskorrektur: rxy‘ = rxy / (rxx * ryy)0,5 Grundannahme Zwei-Faktoren-Theorie Jedes Maß der Intelligenz beruht auf einem Anteil allgemeiner Intelligenz (g) sowie einer spezifischen Komponente für den jeweiligen Test (s) Varianz von Intelligenztests geht teils auf g zurück und ist teils spezifisch Die spezifischen Anteile der Tests sind unkorreliert die Korrelation zwischen zweier Tests sagt direkt aus, inwieweit sie g erfassen! Problem: Überlappungsbereiche zwischen den s-Anteilen o Burt & Vernon 1949, 1950: Gruppenfaktormodell Reaktion auf Überlappungsbereiche innerhalb der s-Faktoren Annahme: neben g-Faktor und s-Faktoren existieren Gruppenfaktoren, Konstruktion eines hierarchischen Intelligenzmodells Struktur: g gliedert sich in zwei Gruppenfaktoren (=major group factors): v:ed (verbal-educational) und k:m (=spatial and motor abilities) Darunter liegen minor group factors , dann specific factors (s-Faktoren) Betrachtung der Ebenen nicht als völlig voneinander getrennt, Annahme fließender Übergänge / Überschneidungen zwischen den Ebenen Insgesamt Betrachtung dieses Modells als Kompromiss zwischen Spearmans ZweiFaktoren-Theorie und dem Modell gemeinsamer Faktoren nach Thurstone o Thurstone 1887-1955: Primärfaktorenmodell Aus Korrelationsmatrizen g extrahieren, Untersuchung der Restvarianz durch multiple Faktorenanalyse Entdeckung einer Gruppe von Faktoren, die er als „Primärfaktoren“ (primary abilities) bezeichnet Aufgabe der Forderung nach nicht überlappender Trennbarkeit einzelner Variablengruppen Annahme: Faktoren sind in ihrer Anzahl begrenzt und stehen gleichberechtigt nebeneinander beim Lösen kognitiver Aufgaben immer mehrere dieser Faktoren in unterschiedlicher Gewichtung beteiligt Studie: ~200 Collegestudenten mit TestbatterieIdentifikation von 9 Primärfaktoren 7 empirisch gut gesichert Primärfaktoren: Memory, Space, Perceptual Speed, Reasoning, Verbal comprehension, Word fluency, Number Primärfaktoren in Testverfahren: Tests, die vor Hintergrund der Primärfaktorentheorie entwickelt wurden - IST nach Amthauer, LPS und PSB nach Horn oder McCarty Scales for Children’s Abilities (MSCA) Beispiel LPS: Hoch reliabel, gute Korrelation mit Tests, die dasselbe erfassen wollen, gute Kriteriumsvalidität (prädiktive Vorhersagekraft) Diskussion und Kritik 1. Unterschiedliche Breite der Faktoren (manche relativ spezifisch, andere eher allgemein, daher auch unterschiedlich wichtig: reasoning z.B. wichtiger als die anderen) 2. Veränderungen der Liste von Primärfaktoren über die Zeit 3. Vorschlag Cattell: Fähigkeit und Temperament nicht hinreichend zu trennen, „Universalindex“ (Persönlichkeitsaspekte – z.B. Frustrationstoleranz) o Generalfaktor vs. Primärfaktoren Einflüsse, die g gegenüber Primärfaktoren begünstigen: 1. Art des Tests (heterogener oder unreliabler Test führt zu mehr Faktoren) 2. Art der Stichprobe (homogenere Stichprobe, wie bei Thurstones Studenten, schränkt Varianz ein und führt dadurch zu mehr Faktoren) 3. Primärfaktoren interkorrelieren zu r=.35: Sekundäranalyse ließe Extraktion von Faktoren zweiter Ordnung zu – damit mehrere allgemeine Gruppenfaktoren auffindbar theoretische Annahmen der Modelle waren ursprünglich wenig vereinbar, Empirie ermöglicht Integration der Befunde Thurstone’s Studien haben nicht gezeigt, dass g nicht existiert, sondern, dass g sich aufgliedern lässt in Komponenten, die in positiver Beziehung zueinander stehen o Cattells Modell kristalliner und fluider Intelligenz Synthese von Spearman- und Thurstone-Modell Grundgedanke: Einbindung der Primärfaktoren in hierarchisches Modell Struktur: 1. Primärfaktoren (z.B. verbale, visuelle Fähigkeiten, induktives Schlussfolgern, erinnern an Thurstone) 2. Faktoren zweiter Ordnung (gf – fluide Intelligenz und gc – kristalline Intelligenz, korrelieren meist um .4 oder .5) 3. Faktor dritter Ordnung (erinnert an Spearmans g, korreliert stärker mit gf als mit gc) gf(h): Faktor dritter Ordnung, fluide Intelligenz in früherem Lebensalter wird in aktuelle fluide Intelligenz gf und kristalline Intelligenz gc investiert (=Investment-Theorie), wobei sich die kristalline Intelligenz gc auch aus se (schulische, erzieherische Erfahrung - Gelerntes) und Motivation / Gedächtnis (was auf erlernte themenspezifische Inhalte wirkt) bildet gf wirkt sich auf Fähigkeiten aus, die beim Lösen der „culture-fair“-Tests gebraucht werden, gc wirkt auf Fähigkeiten, die beim Lösen genereller kognitiver Aufgaben benötigt werden Culture-fair-Test: Test, bei dem Menschen aus unterschiedlichen Kulturen und Schichten Chancengleichheit besitzen sollen, sprachfrei, Testung von gf-Fähigkeiten (da unabhängig von gc und damit von Erziehung, Erlerntem etc.) Damit: gf: Fähigkeit, sich neuen Problemen / Situationen anzupassen, ohne dass Lernerfahrung benötigt wäre – gc: kognitive Fertigkeiten durch Effekte vorangegangenen Lernens entfaltet und verfestigt Unterschiedliche Verläufe: gf sinkt mit dem Alter ab, gc steigt an gute Bestätigung des Modells in aktuellen Studien o Guilfords Structure-of-Intellect-Modell Grundgedanke: Strukturierung von Intelligenzleistungen nach Inhalten (Input), Operationen und Produkten (Output), aus deren Zusammenwirken entstehen die jeweils spezifischen Faktoren (120), die miteinander nullkorreliert sein sollen. Abkehr vom Hierarchiegedanken, keine Annahme eines g-Faktors. Schematische Darstellung: Würfel, wobei jeder Faktor durch seine spezifische Position auf jeder der drei Dimensionen definiert wird. Inhalt / Input: 1. Figural (F) 2. Symbolisch (S) 3. Semantisch (M) 4. Verhalten (B) Operation: 1. Kognition (C) 2. Gedächtnis (M) 3. Divergente Produktion (D) 4. Konvergente Produktion (N) 5. Evaluation (E) Produkte / Output: 1. Einheiten (U) 2. Klassen (C) 3. Beziehungen (R) 4. Systeme (S) 5. Transformation (T) 6. Implikationen (I) Beispiel: CMR: Kognition figuraler Beziehungen, CFR: Kognition semantischer Beziehungen, NSU: Konvergente Produktion symbolischer Einheiten Faktorenanalyse hier eher zur Hypothesenüberprüfung Kritik am Modell: 1. Unabhängigkeit der Faktoren kann nicht aufrechterhalten werden (78% der Korrelationskoeffizienten signifikant positiv Reduzierung des Modells auf weniger Faktoren) 2. Replizierbarkeit der Faktoren, Zuverlässigkeit der Testverfahren wurden kritisiert (z.T. zu homogene Stichproben, Heterogenität der untersuchten Merkmale etc.) 3. Es müssen auch Faktoren höherer Ordnung berücksichtigt werden: 3. Ordnung (16), 2. Ordnung (85), 1. Ordnung (120) Fazit: Modell empirisch nicht zu halten, aber: stimulierend für neue Forschung, erstmals Kreativität Bestandteil der Intelligenzstruktur o Jäger: Berliner Intelligenz-Struktur-Modell 1984 Anspruch: Erarbeitung eines Strukturmodells auf empirischer Basis von Variablenstichproben, die die Vielfalt der intellektuellen Leistungsformen möglichst umfassen repräsentiert. Integration von Elementen aus Spearman, Thurstone, Guilford. Struktur: deskriptives Modell, hierarchisch und bimodal (Operationen, Inhalte) aufgebaut. 7 generelle Hauptkomponenten, zwei Modalitäten (verschiedene Aspekte, unter denen sich die Intelligenzleistung klassifizieren lässt) 1. Modalität: Operationen -vier Fähigkeitsbündel – Bearbeitungsgeschwindigkeit ( B), Gedächtnis (G), Einfallsreichtum (E), Verarbeitungskapazität (K) 2. Modalität: Inhalte - Drei Klassen – figural-bildhaft (F), verbal (V), numerisch (N) Unterschied zu Guilford: in den Zellen der bimodalen Matrix finden sich keine Primärfaktoren, sondern die multifaktoriell bedingten Leistungen g: Integral aller Komponenten, „Allgemeine Intelligenz“ Jägers empirische Arbeit 1. Variablen- und Probandenauswahl Katalogisierung aller in der Literatur vorkommenden Aufgabenarten zu Intelligenz- und Kreativitätsforschung Reduktion und Kreuzklassifikation bis auf einen Rest von 48 Variablen Stichprobe: Berliner Abiturienten, N = 545, Alter 16-21 (Kritik: zu homogen!) 2. Analysemethoden Faktoren- und Clusteranalysen Prüfung der Strukturreliabilität (Zufallsaufteilung der Variablen in zwei Gruppen) Prüfung auf Replizierbarkeit (Zufallsaufteilung der Probanden in zwei Gruppen) Beschränkung der Interpretation auf stabil erscheinende, gut vergleichbare Lösungen Überprüfung der zeitlichen Stabilität der Befunde (1979 Durchführung einer Wiederholungsuntersuchung, dabei 64% der Ausgangsstichprobe, Einsetzung z.T. derselben und auch anderen Aufgaben) 3. Vorspiel zu den Hypothesen 1975: exploratorische Strukturanalyse ergibt vier sehr generelle Leistungsklassen (Faktoren / Cluster), die durch operative Eigenart gekennzeichnet sind Davon enthält jede Klasse verbales, figural-bildhaftes und numerisches Aufgabenmaterial, also alle drei Inhalte Fehlen der in anderen Forschungen bereits bestätigten inhaltsspezifischen Einheiten erwartungsgeleitetes Vorgehen Klassifikation der Variablen nach Operations- und Inhaltsklassen – Beispiele: F N V ZS Zahlen-Symboltest RZ Rechenzeichen WF Wörter finden B ZF Zeichen fortsetzen DR divergentes AF Adjektive finden E G K WE Wege erinnern Rechnen ZM Zahlen merken CF culture-fairIntelligenztests RD rechnerisches Denken NM Namen merken SV sinnvolle Schlüsse Bündelung: Zusammenfassen der Items zu Skalen vor der Faktorisierung, Einzelvariablen gehen gleichgewichtet in die Bündel ein Verfolgung zweier Ziele: Reliabilitätssteigerung, Homogenisierung 4. Untersuchung der Hypothesen Hypothese 1: Die 48 ungebündelten Einzelvariablen ergeben die vier Operationsklassen B, E, G und K Hypothese 2: Faktorenanalyse der 16 operationshomogenen Varianzbündel (Inhaltsvarianzen unterdrückt) ergibt die gleichen 4 Operationsklassen wie ungebündelt, aber prägnantere Einfachstruktur Hypothese 3: Faktorenanalyse der 12 inhaltshomogenen Varianzbündel (Operationsvarianzen unterdrückt) ergibt die 3 Inhaltsklassen Hypothese 4: Strukuranalyse, in die operations- und inhaltshomogene Varianzbündel eingehen, ergibt die 4 Operations- und die 3 Inhaltsklassen Hypothese 5: Die Faktorisierung von 4 über operative und inhaltliche Klassen aggregierten Bündeln ergibt nur einen, nicht weiter differenzierbaren, „g“-Faktor alle Hypothesen konnten bestätigt werden. Fazit: bimodales Strukturmodell ist empirisch begründbar und zweckmäßig, neben 4 operativen Klassen auch 3 Inhaltsklassen nachweisbar, Zweckmäßigkeit eines hierarchischen Strukturmodells lässt sich bestätigen (Auffinden von g), Aufweisen von Aggregations- und Suppressionseffekten bei Zusammenfassung von Einzelvariablen 1. Generalität – keine Strukturveränderungen durch Hinzunahme neuer Aufgabentypen 2. Universalität – Replizierbarkeit bei Teilgruppen bestätigt 3. Stabilität – Wiederholungsuntersuchung, zeitlich stabil Kritik: 1. Bestätigung des Modells erfordert weitere unabhängige Replikation 2. Universalität noch nicht endgültig bestätigt (zu homogene Stichprobe) 3. Fragen zur Zweckmäßigkeit, zwischen g und den 7 Klassen noch weitere Ebene einzuführen 4. Praxistauglichkeit, Nutzen für Diagnose noch offen 5. Einbettung des Intelligenzmodells in den Kontext der Persönlichkeit noch offen, da Intelligenz nur Teilkomponente 6. Offen, wie Prozessforschung mit Strukturforschung zusammenpasst o Carrolls 3-Ebenen-Modell, 1993 Re-Analyse der einschlägigen Forschung zu Intelligenz seit 1930 Herausfiltern der Untersuchungen, in denen mit Faktorenanalyse gearbeitet wurde Reduktion der Untersuchungen Theoriefreie Verwendung der exploratorischen Faktorenanalyse Verdichtung der Ergebnisse resultiert im 3-Ebenen-Modell Struktur: Ebene III (general): g Ebene II (broad): Gf (fluid), gc (kristallin), gy (Gedächtnis / Lernen), gv (visuelle Perzeption), gu (auditive Perzeption), gr (Abrufkapazität), gs (mental speed), gt (einfache RZ) hierbei Abnahme der Wichtigkeit der Faktoren von gf zu gt Ebene I (narrow): einzelne Aufgabentypen (Beispiel räumliche Beziehungen, schlussfolgerndes Denken, Sprachverständnis) Fazit: bester wissenschaftlicher Ansatz zur Gedächtnisstruktur (Integration anderer Modelle: Cattell, Thurstone, Spearman. Guilford kaum, da er Unabhängigkeit postuliert). Kritik: nur Integration dessen möglich, was andere schon untersucht haben, absolute Objektivität nicht möglich Grundlagenorientierte Intelligenzforschung über 80 Jahre lang dominiert von Strukturdebatte – wieviele kognitive Fähigkeiten gibt es, wie groß ist deren Bedeutung, in welchem Verhältnis stehen sie zueinander, wie groß ist die Bedeutung von g? - Korrelate der Intelligenz o Evozierte Potentiale (EP) Typische Befunde: Intelligenz korreliert mit geringerer Latenz geringerer intraindividueller Varianz größerer Komplexität der AP’s (größere Amplituden auf unerwartete, kleiner auf erwartete Reize, neuronale Anpassungsfähigkeit) o EEG-Maps Unter Verwendung bildgebender EEG-Methoden zeigt sich Bei Intelligenteren Konzentration kortikaler Ressourcen auf bestimmte Areale Bei weniger Intelligenten diffusere, stärkere Aktivation - Berichte über genetische Beeinflussbarkeit der kortikalen Strukturen Ätiologie der Intelligenz Quantitative Genetik – Kernfrage: inwieweit gehen Merkmalsunterschiede auf genetische und Umweltfaktoren zurück) Zentrale Begriffe: Erblichkeit, geteilte und nicht geteilte Umwelt Molekulargenetik - Ziel: Auffinden der Gene, die mit Merkmalsausprägung in Beziehung stehen Funktionale Genomik: Verständnis der Funktionsweise von Genen (3) – Verhaltensgenetik - Unterscheidung zweier eigenständiger Forschungstraditionen der Verhaltensgenetik a. Quantitative Genetik Verhaltensunterschiede weil genetische oder Umwelteinflüsse? Ermittlung relativen Anteils an phänotypischer Varianz (Erblichkeit, geteilte und nichtgeteilte Umwelt) b. Molekulargenetik Gene identifizieren, die für genetischen Einfluss verantwortlich sind und damit Rolle bei Verhaltensvarianz spielen - Kernbegriffe: a. Erblichkeit (heritability h²): Ausmaß, in dem genetische Unterschiede zwischen Individuen die beobachtbaren interindividuellen Differenzen im untersuchten Merkmal erklären b. Geteilte Umwelt (common environment, c²): Umwelteinflüsse, die zur Ähnlichkeit von Personen beitragen, die gemeinsam aufwachsen (z.B. sozioökonomischer Status, Erziehungsstil der Eltern..) c. Nichtgeteilte Umwelt (e²) : Umwelteinflüsse, die zur Unähnlichkeit von Personen beitragen, die gemeinsam aufwachsen (z.B. unterschiedliche Freunde, unterschiedliche berufliche Situation, zufällige Ereignisse) a² + c² + e² = 1 (100%) Vergleich von Zwillingsähnlichkeiten Eineiige: teilen 100% der genetischen Effekte, wachsen gemeinsam auf (100%) Zweieiige: teilen 50% der genetischen Effekte, wachsen gemeinsam auf (100%) Befunde: Größere Ähnlichkeit der EZ durch Einfluss der Gene (doppelt so ähnlich) a² ist bedeutsam Unähnlichkeit der EZ durch Einfluss nichtgeteilter Umwelt e² ist bedeutsam ZZ mehr als .5 Ähnlichkeit: durch Einfluss geteilter Umwelt c² ist bedeutsam - - Befunde im Intelligenzbereich Meta-Analysen zeigen starke genetische Einflüsse von Intelligenz (h²= .50-.60) Im Erwachsenenalter wirken vor allem nichtgeteilte Umwelteinflüsse Zunahme genetischer und Abnahme geteilter Umwelteinflüsse auf individuelle Differenzen in Intelligenz (von 2 Jahren bis erwachsen) Bedeutung genetischer Effekte ist weitgehend unabhängig vom untersuchten Teilbereich der Intelligenz o Bedeutung von Umwelteinflüssen a. Flynn-Effekt: Anstieg der mittleren IQ-Rohpunktwerte in zahlreichen Kulturen, ca. 3 Punkte pro Dekade (1 Standardabweichung pro Generation) b. Effekt der Stellung in Geschwisterreihe: nichtgeteilter Umwelteffekt, 1 % Varianzaufklärung c. Adoptionsstudien zeigen markante positive Effekte auf IQ – Zuwachs in Abhängigkeit des SES (?) der Adoptiveltern d. Frühe Interventionsmaßnahmen für Kinder aus einkommensschwachen Familien weisen zumindest kurz- und mittelfristige positive Effekte auf Intelligenz- und Schulleistungen auf Feststellung der Erblichkeit von Intelligenz – Fluch? o The Bell Curve: Annahmen: Zerfall der amerikanischen Gesellschaft in wohlhabende „kognitive Elite“ und Unterschicht, Bedeutung eines verringerten IQ als Prädiktor für soziale Probleme fälschliche Interpretation der Erblichkeit von Intelligenz als Ursache für Gruppendifferenzen und damit stark eingeschränkte Förderungsmöglichkeiten Artikel in Deutschland: „Verlust von Humankapital in Regionen hoher Arbeitslosigkeit“ West-Ost, Nord-Süd-Gefälle - Grundlagen verhaltensgenetischer Forschung Zentrale Fragen Differentieller Psychologie: Wie können Unterschiede zwischen Menschen systematisch beschrieben werden? Welche Ursache lassen sich für die Unterschiede im Erleben und Verhalten von Menschen identifizieren? o Trennung Anlage-Umwelt? Argument: Wirkung Anlage / Umwelt kann nicht getrennt werden, da jedes Verhalten sowohl durch Gene als auch durch Erziehung und andere Umwelteinflüsse beeinflusst wird (Fläche eines Rechtecks kann nicht in den relativen Beitrag aus Länge und Breite zerlegt werden) Einschränkung: gilt nur, wenn wir ausschließlich ein Individuum betrachten. Wenn Unterschiede zwischen Menschen interessieren, kann unterschieden werden, wie stark sie durch Anlagen und Umwelt geprägt werden (in einer Population aus Rechtecken kann der relative Beitrag von Länge und Breite auf Unterschiede in den Flächen untersucht werden – bleibt die Breite gleich und die Länge verändert sich, wie verändert sich die Fläche?). Erblichkeit stellt Populationsstatistik dar, bezieht sich nicht auf Phänotyp einzelnen Individuums o Pfadmodell: Beziehungen zwischen Erblichkeit und Umwelten Zusammenhang zwischen zwei Messwerten darstellbar als Summe sämtlicher verbindender „Pfadprodukte“. Ähnlichkeit bzw. Interklassenkorrelation (ICC) ermittelbar über Summe aus drei Wegen: A – Gene C - geteilte Umwelt. Annahme perfekter Korrelation wenn zusammen aufgewachsen. E – nichtgeteilte Umwelt, keine Korrelation. a² + c² + e² = 1 Beispiele: Eineiige Zwillinge: ICCEZ = a² + c² Zweieiige Zwillinge: ICCZZ = 0.5a² + c² Einfluss Gene a² = 2* (ICCEZ – ICCZZ) Einfluss geteilte Umwelt c² =2ICCZZ - ICCEZ Einfluss nichtgeteilter Umwelt e² = 1 – a² - c² (nur indirekt erschließbar) Dabei gilt: Equal environments assumption: Definition: Größere Ähnlichkeit von Eineiigen vs. Zweieiigen soll nicht auf eine größere Ähnlichkeit der Umwelt von Eineiigen und Zweieiigen zurückgehen (nicht Umwelteinflüsse, die Umwelt Eineiiger ähnlicher machen als die Zweieiiger) Studie Scarr: Überprüfung von Ähnlichkeiten solcher Zwillinge, deren Eltern sich im Irrtum über die Eiigkeit befanden. Resultat: kein großer Unterschied trotz anderem Elternverhalten stützt equal environments assumption Studie Loehlin et al.: Überprüfung von Ähnlichkeiten von EZ, deren Eltern entweder sehr auf Gleichbehandlung oder sehr auf Unterschiedlichkeit Wert legten. Resultat: Zwillinge gleich ähnlich. stützt equal environments assumption - Studie McGue: bei Erwachsenen erklären genetische Unterschiede etwa 50% der Variabilität in den Intelligenzwerten - Studie Plomin: Bedeutung genetischer Faktoren nimmt im Lauf des Lebens zu Zwillingsstudie Neurotizismus: Korrelationen Persönlichkeitseigenschaft Neurotizismus bei EZ höher als bei ZZ o Adoptionsstudien ICC (Adoptiveltern, Adoptivkinder) = c² ICC (leibliche Eltern, Adoptivkinder)= 0,5a² ICC (leibliche Kinder, Adoptivkinder) = c² Problem: Selektive Platzierung (Agenturen geben Kinder nicht zufällig „irgendwohin“) , Verzerrung der Schätzung in zwei Richtungen möglich - - Adoptionsstudie Neurotizismus: Unterschied weniger dadurch verursacht, ob Zwillinge getrennt oder gemeinsam aufgewachsen sind, als dadurch, ob sie eineiig oder zweieiig sind (getrennt aufgewachsene EZ: r= .39, zusammen aufgewachsen: r=.46, getrennt aufgewachsene ZZ: r=.23, zusammen: r=.23) Hoher Erblichkeitskoeffizient ist nicht gleich Unveränderbarkeit des Merkmals, sondern Beschränkung der Veränderbarkeit des Merkmals durch Umweltfaktoren o - Anlage-Umwelt-Korrelation = überzufällige Kovariation von bestimmtem Genotyp und bestimmter Umweltbedingung ; Erfahrung z.T. aus genetischen Gründen selbst schaffen a. Passiver Typus Beispiel musikalische Eltern: Gene & Umwelt der Eltern werden geteilt (Erfahrung von Musikalität, Zugang zu Musikinstrument) ; Merkmalsträger ist nicht an Zustandekommen beteiligt b. Reaktiver Typus Individuen werden nicht nur durch Umwelt beeinflusst, sonder beeinflussen ihrerseits auch ihre Umwelt c. Aktiver Typus Bestimmter Genotyp sucht bestimmte Umwelt Interaktion: Umwelteinflüsse entfalten je nach Genotyp unterschiedliche Wirkung o Beispiel Anlage Umwelt-Interaktion Caspi-Studie 2002 aV: Auftreten antisoziales Verhalten uV1: Untersuchung zweier Genotypen männlicher Probanden (Genotypisierung nach Vorhandensein eines Gens, das für Expression des Enzyms Monoaminooxidase verantwortlich ist – auf Chromosom X lokalisiert, nur ein Allel) uV2: Misshandlung in der Kindheit (keine, wahrscheinlich, schwer) Ergebnis: von den in der Kindheit misshandelten Probanden mit gleichzeitig niedriger MAOA-Aktivität fallen signifikant mehr durch antisoziales Verhalten auf Probanden mit niedriger MAOA-Aktivität reagieren „sensibler“ auf Misshandlung, MAOA weist auch Zusammenhang mit Sensation seeking auf (4) – Persönlichkeit - Definition Persönlichkeit: Im differentiellen Ansatz versteht man unter Persönlichkeit einer Person die Gesamtheit ihrer Merkmalsausprägungen in allen Merkmalen, in denen sich die Mitglieder der betrachteten Population unterscheiden. - L-Daten: „life-record“, Bekanntenberichte, keine soziale Erwünschtheit, bessere Qualität Q-Daten: „questionnaire“, Selbstberichte T-Daten: „test“, objektiv, nicht verfälschbar - Faktorenanalytische Persönlichkeitsforschung o Das 5-Faktoren-Modell der Persönlichkeit FFM nach Costa & McCrae Weitgehende Übereinstimmung seit den 90ern, dass Persönlichkeit durch fünf breite Faktoren beschrieben werden kann: Extraversion Verträglichkeit Gewissenhaftigkeit Emotionale Stabilität (Big Five)/ Neurotizismus (FFM) Culture, Intellekt (Big Five) /Offenheit für Erfahrungen (FFM) o - L-Daten Die „Big Five“ nach Goldberg Begriffe Big Five und Fünf-Faktoren-Modell werden häufig synonym verwendet Unterschied: aus unterschiedlichen Forschungsrichtungen entstanden Big Five: geht auf lexikalische Studien zurück (Untersuchung der Struktur eigenschaftsbeschreibender Adjektive FFM: beruht auf Forschung durch Persönlichkeitsfragebögen Der lexikalische Ansatz Sedimentationshypothese: Annahme, dass Persönlichkeitsmerkmale, die für Menschen bedeutsam sind, in der Sprache repräsentiert werden Ansatz versucht, über Analyse der Sprache (bzw. in der Sprache vorkommende Beschreibungsbegriffe) zu Persönlichkeitstaxonomie zu gelangen o Taxonomie: systematische Rahmenmodell, dient der Unterscheidung, Ordnung, Benennung von Typen und Gruppen innerhalb eines Forschungsfeldes Historischer Überblick Forschungsrichtung geht bis auf Arbeiten von Klages 1926 zurück Allport & Odbert 1936 Heraussuchen von etwa 18.000 persönlichkeitsrelevanten Begriffen aus Webster’s New International Dictionary, ca. 4500 zählen zu „personal traits“ Cattell Reduzierung dieses Datensatzes zu 35-er Variablenliste Fiske 1949 sowie Tupes & Cristal 1958, 1961 Arbeiteten mit der 35-er Variablenliste nach Cattell Norman 1963 o Cattells 35-er Variablenliste o 1. Semantische Reduktion Vorgehen: Ausgangspunkt Liste von Allport & Odbert Sortierung nach Synonymen (durch 2 Personen) Synonymgruppen variieren in Größe, Bestimmung eines Schlüsselworts pro Synonymgruppe Erstellung bipolarer Eigenschaftslisten: Auflistung der Synonyme als Gegensatzpaare (Ausnahmen: z.B. Fähigkeiten, die ein Ausmaß betonen) Ergebnis: 4.500 Begriffe in 160 Kategorien aufgeführt Erweiterung um Interessen und Fähigkeiten 171 Eigenschaftskategorien Prüfung: Einsatz der Liste in empirischer Studie (genaues Vorgehen unklar) 2. Empirische Reduktion Vorgehen: 100 Vpn durch Bekannte eingeschätzt – Verwendung bipolarer (rechter oder linker Begriff charakteristisch) oder unipolarer Items (Ausprägung des Merkmals) Ergebnis: Beurteilerübereinstimmung hoch (.70-.80) Verwendung: Inspektion der Korrelationsmatrix, um 30-40 repräsentative Cluster zu finden Auffinden zweier Arten von Clustern a. Phänomenale Cluster (.45 < r < .80) b. Nukleare Cluster (r > .80) Nicht korrelierende einzelne Items nur bei praktischem Nutzen beibehalten Auflistung von Variablen, die auf diese Weise zugeordnet werden können drei unterschiedliche Clustergrößen 1. 15 Cluster mit fünf Variablengruppen 2. 20 Cluster mit vier Variablengruppen 3. 88 Cluster mit drei Variablengruppen Zunächst etwa 70 als bedeutsam erachtet, nach Sichtung der Literatur der damaligen Zeit 50 Nuklearcluster Schritt von Clustern zur 35-Variablen-Liste nicht endgültig geklärt, aber: weitere Reduktion auf endgültige Zahl von 35 Nuklearclustern Tupes & Cristal 1958, 1961 Ausgangspunkt der Fünf-Faktoren-Taxonomie Vorgehen: Reanalysen der Korrelationsmatrizen von acht Stichproben (zwei von Cattell, zwei von Fiske, vier eigene – Fremdbeurteilungen mit der 35-er Variablenliste) Ergebnis: in allen Analysen zeigen sich konsistent fünf Faktoren (=Big Five) Benennung: I. Surgency (talkative, assertive, energetic) II. Agreeableness (good-natured, cooperative, trustful) III. Dependability (conscientious, responsible, orderly) o - IV. Emotional stability (calm, not neurotic, not easily upset) V. Culture (intellectual, cultured, polished, independent-minded) Norman 1963 Vorgehen: ausgehend von den Befunden nach Tupes & Cristal Auswahl für jeden der fünf Faktoren die besten vier Rating-Variablen aus dem Datensatz von Cattell, damit Ermittlung in vier unabhängigen Stichproben eine 5Faktoren-Struktur Beispiele: Faktor I, Extraversion: gesprächig – schweigsam, gesellig – zurückgezogen Faktor II, Verträglichkeit: gutmütig – grantig, kooperativ- feindselig Faktor III, Gewissenhaftigkeit: sorgfältig – nachlässig, beharrlich – sprunghaft Faktor IV, emotionale Stabilität: ausgeglichen – nervös, gelassen – erregbar Faktor V, Kultur, Bildung: phantasievoll – phantasielos, kunstverständig – kunstunverständig Fazit: die entstandenen 20 Rating-Skalen wurden von vielen Autoren als repräsentativ für die Gesamtpersönlichkeit angesehen, in vielen Untersuchungen verwendet: so auch Auffinden von fünf Faktoren in nichtenglischsprachigen Ländern Kritik an den Ratingskalen: 1. Ist die Replizierbarkeit der 5-Faktoren-Struktur evtl. auf die Ähnlichkeit der Beschreibungsvariablen zurückzuführen? 2. Ist die 35-er Variablenliste wirklich repräsentativ? Ostendorf & Angleitner 1994: Wenn Forscher umfassende Variablenstichproben nach inhaltlichen Gesichtspunkten vorsortieren, können die Kategorien durch implizite Modellvorstellungen beeinflusst sein Borkenau et al. 2001, 2004 Forschungsfragen: Wieviele Dimensionen der Persönlichkeit sind zur Beschreibung der Unterschiede zwischen Personen einer Population notwendig? Inwiefern verändern sich Persönlichkeitsmerkmale über die Lebensspanne? Welche Rolle spielen Anlage-Umwelt bei der Persönlichkeitsentwicklung? Welche Bedeutung haben individuelle Persönlichkeitsunterschiede in alltagsnahen Kontexten? Stichprobe: n = 600 erwachsene Personen, für jede Selbst- und zwei Bekanntenbeurteilungen auf den Fünf-Faktoren-Fragebogen Vorgehen: Teilnehmer bearbeiten Vielzahl von Aufgaben, darunter 15 „quasinatürliche“ Situationen (Witz erzählen, Telefon-Rollenspiel etc.) Einschätzung jeder Situation durch 4 unabhängige Beobachter; jede Zielperson wird insgesamt von 60 Beobachtern gesehen Ergebnisse: 1. Übereinstimmung der Beobachter zufriedenstellend (Validität dieser Einschätzungen variiert jedoch: Extraversion und Offenheit funktioniert gut, Gewissenhaftigkeit schlechter) 2. Bessere Selbst-Fremd-Übereinstimmung wenn Beobachter mehr Situationen sieht (d.h. Validität auch vom Grad der Informiertheit abhängig, aber: fortgeführte Beobachtung führt nicht zwangsläufig zu Validitätserhöhung) ) 3. Nomologisches Netz: Übereinstimmungen Selbst, Beobachter, Konföderierte, Versuchsleiter o o Tellegen & Walter 1987 Vorgehen: nur Verwendung von Adjektiven, die zufällig aus einem amerikanischen Wörterbuch ausgewählt waren (auch die holländische Taxonomie von Hofstee, DeRaad et al. basiert auf repräsentativer (zufälliger) Auswahl von 550 Begriffen aus etwa 8700 persönlichkeitsbeschreibenden Adjektiven) Taxonomische Studien jüngeren Datums aus Holland, Italien, Ungarn, Deutschland, Polen, Tschechien Angleitner & Ostendorf : die deutsche Taxonomie Vorgehen: aus Wahrig-Wörterbuch von 1981 etwa 5200 persönlichkeitsbeschreibende Begriffe heraussuchen grober Filter: „alle potentiell persönlichkeitsbeschreibenden Begriffe“, 5200 Adjektive feiner Filter: „persönlichkeitsbeschreibende Begriffe“, 430 Begriffe (Eigenschaften, Charakter- und Temperament, Fähigkeiten, Talente) Prüfung: Einschätzung der 430 Adjektive an Stichprobe a. Selbsteinschätzung Korrelationsmatrix 430x430 Hauptkomponentenanalyse 5-Faktoren-Lösung b. Bekannteneinschätzung Mittelung der Fremdratings (3) Korrelationsmatrix 430x430 Hauptkomponentenanalyse 5Faktoren-Lösung Beispiele: I: kontaktscheu, temperamentvoll II: warmherzig, gutmütig, herrschsüchtig III: pflichtbewusst, arbeitsscheu IV: verletzbar, gelassen V: geistvoll, intelligent - Zusammenfassung Fünf-Faktoren-Modell Untersuchungen im Rahmen des lexikalischen Ansatzes 1. Studien, die auf Cattells 35er Variablenliste zurückgehen Tupes & Cristal, 1961 Norman 1963 2. Studien mit von Cattell unabhängigen Datensätzen Conley 1985 Norman 1967 Goldberg 1980, Goldberg & Peabody (freie Elternbeschreibungen) - Empirische Erfassung der Fünf Faktoren: NEO-PI-R (Langform des NEO-FFI), Ostendorf & Angleitner, 2004 Aus Fragenbogenantworten Erstellung eines Persönlichkeitsprofils Empirische Bewährung: Gute Übereinstimmungsergebnisse mit Bekannteneinschätzungen (r=.46), mittlere Bekannteneinschätzungen r=.54 Gute Reliabilität (Stabilität: nach 5 Jahren r=.74) Vielzahl von Zusammenhängen: Gesundheitsverhalten, Interessen, Persönlichkeitsstörungen, Berufserfolg etc. Kritik: ausschließlicher Einsatz von Fragebogenverfahren. o Gosling et al. 2002 Frage: Inwiefern können Fremdbeurteiler die Persönlichkeit anderer Menschen aufgrund von Büro- und Wohnräumen einschätzen? Stimmen Fremdbeurteiler in Einschätzungen überein? (Konsens) Sind die Einschätzungen valide? (Akkuratheit) Nutzen Fremdbeurteiler die cues angemessen? Brunswik’s Linsenmodell: tatsächliche Persönlichkeit der Zielperson nur über Linse mit cues (aufgeräumter Schreibtisch etc.) für den Beobachter erfassbar, dabei abhängig davon, in welchem Ausmaß der cue genutzt wird und wie valide er ist (korreliert der Hinweis überhaupt mit Persönlichkeit?) Vorgehen: 70 Personen aus US-Unternehmen beurteilt durch Selbst- und Fremdeinschätzung auf Fünf-Faktoren-Fragebogen (=Zielpersonen), 8 Fremdbeurteiler (Laien) sollen Persönlichkeiten einschätzen (keine Instruktionen, Training o.ä.), Teams schätzen Büroräume anhand Liste von 43 Variablen ein Ergebnis: Erzielung einer gewissen Übereinstimmung, Akkuratheit in folgenden Persönlichkeitsdimensionen: Gewissenhaftigkeit, Offenheit, Neurotizismus, gute Nutzung von Hinweisreizen (also „richtige“ Hinweisreize in angemessener Gewichtung) bei Offenheit, Gewissenhaftigkeit, Neurotizismus Hans J. Eysenck 1916- 1997 1. 2. 3. 4. 5. Etablierung und Beschreibung der Dimensionen E, N und P Erfassung dieser Hauptdimensionen mittels Fragebogen Eysencks Theorie zu Extraversion und Neurotizismus (Inhibition vs. Arousal) Verhaltenskorrelate Modifikation der Theorie Eysencks durch Gray Zu (1): das PEN-Modell - Deskription der grundlegenden Einheiten, dabei Abkehr vom lexikografischen Ansatz P: Psychotizismus, N: Neurotizismus, E: Extraversion („Giant Three“) Etablierung der Dimensionen E und N o Grundlage für Etablierung Neurotizismus und Extraversion: Studie 1944 Stichprobe: 700 neurotische Soldaten Vorgehen: Erfassung durch objektive Tests und Verhaltensbeurteilungen: Verwendung eines Katalogs mit 39 Variablen (aus Verhaltensbeurteilungen von Psychiatern, Krankenschwestern, Sozialarbeitern etc.) Kriterien zur Auswahl der Variablen: Inhaltsvalidität und keine extreme Itemschwierigkeit (nach subjektiven Einschätzungen Eysencks) Faktorisierung der Korrelationsmatrix der 39 Variablen Ergebnis: 4 Faktoren, ohne Rotation interpretiert: I: Fehlen von Persönlichkeitsintegration ~ Neurotizismus (Generalfaktor) II: Hysterie vs. Dysthymie ~ Extraversion (bipolar, Dysthymie negativer Pol von Extraversion) [ III: Sorge um den eigenen Körper ~ Hypochondrie ] stark klinisch geprägte Merkmale - Etablierung der Dimension P o Grundlagen für Etablierung Psychotizismus Beeinflussung des Grundgedankens: durch Kretschmer und Jung und deren Annahme eines Kontinuums von Schizophrenie über Normalverhalten bis Manie-Depression (Kretschmer) bzw. eines Kontinuums normal-psychotisch (Jung) Hypothesen Eysenck: H1: psychotische und normale Persönlichkeit unterscheiden sich nur in quantitativer Hinsicht (Kontinuum zwischen P und N, klinisch Auffällige nicht grundsätzlich anders, sondern Extrem der Normalen) wenn H1 zutrifft: Tests, die zwischen Normalen und Psychotikern differenzieren, sollten innerhalb der Normalgruppe und innerhalb der Psychotikergruppe positiv korrelieren, also innerhalb der Gruppen differenzieren (kleine Verteilungen innerhalb der Gruppen bilden, unterschiedliche Ausprägungsgrade abbilden) Überprüfung mittels Kriterienanalyse: Annahme Kontinuums von A (normal) nach B (psychotisch) Anforderung: wenn AB tatsächlich ein Kontinuum ist und die Tests zwischen „ Normalen“ und „Psychotikern“ differenzieren können, müssen die Relationen der Abschnitte stimmen. Es gilt dann bei Anordnung A-L-X-M-B, x = cut-off normal-psychotisch: Gruppe AL unterscheidet sich von LX genauso wie AX von XB Gruppe XM unterscheidet sich von MB genauso wie AX von XB Gruppe XM unterscheidet sich von MB wie AL von LX H2: Schizophrenie und Manie-Depression liegen auf einer Dimension und sind damit nicht unabhängig. Die beiden Gruppen weisen grundsätzlich eine ähnliche Eigenschaftsstruktur auf wie normale. Innerhalb der Psychotikergruppe Annahme eines Kontinuums von extremer Zyklothymie (manisch-depressiv) zu extremer Schizothymie (schizophren) wenn H2 zutrifft: Tests, die zwischen Schizophrenie und Manie-Depression differenzieren, sollten auch innerhalb der beiden Gruppen differenzieren (s.o.), also positiv interkorrelieren. Empirisches Vorgehen / Hypothesentestung : Stichprobe: 100 normale Vpn, 50 schizophrene, 50 manisch-depressive (Auswahl mittels Psychiaterurteil) Vorgehen: 30 verschiedenartige Aufgaben (84 Testwerte) Auswahl von 20 Testwerten pro Person für Faktorenanalyse (Kritik: heterogene Tests, viele mit Fähigkeitscharakter) Schritt1: Untersuchung der Kriterienkorrelationen (noch keine Faktorenanalyse), vor allem die Korrelation(schizophren, depressiv) und (normal, psychotisch) Welche Variablen markieren Psychiaterratings bzw. stimmen überein? Vorläufiges Ergebnis: r(schizophren, depressiv) weist viele Nullkorrelationen auf, r(normal, psychotisch) enthält höhere Zahl an signifikanten Korrelationen Schritt 2: Faktorisierung der Korrelationsmatrix der 20 Testwerte Ergebnis: Auffinden zweier Faktoren in der Normalgruppe (Fn und Fn`) und zweier Faktoren in der Psychotikergruppe (Fp und Fp`) erster Faktor wird als P interpretiert; unrotiert Bestätigung von H1: Ladungen der unrotierten ersten Faktoren korrelieren um r=.87, Ladungen Fn und Fp korrelieren mit Kriterienspalte r=.90 Kontinuum normal-psychotisch, Grundlage für quantitative Psychotizismus-Dimension P H2 kann nicht bestätigt werden: geringe Kriterienkorrelationen, geringe Korrelationen zwischen Faktorladungen Fn‘ und Fp‘ und Kriterienspalte keine separaten Kontinuen innerhalb Störungsgruppen, Befunde bleiben auch nach Rotation unverändert Zu (2) Messinstrumente - Nachdem Etablierung durch Fremdbeurteilungsdaten erfolgt ist, Konstruktion von Selbstberichtsfragebögen, um Dimension leichter zu erfassen 1. Maudsley Medical Questionnaire (MMQ) Erfasst N und Lügenskala 2. Maudsley Personality Inventory (MPI) Ziel: weniger starke medizinische Ausrichtung, breitere Anwendung Erfasst E und N (E~ soziale Introversion und Rhathymia, N ~ Nervosität und Depression) Verwendung von Items aus Fragebögen von Guilford E und N in Normalstichproben weitgehend unabhängig, bei klinischen Gruppen stärkere Interkorrelation 3. Eysenck Personality Inventory (EPI) Verbesserte Fassung des MPI (besser verständlich, Parallelform, Lügenskala, Unabhängigkeit E und N) Itemgewinnung unbekannt, Lügenskala aus MMQ Entwicklung einer kinderadäquaten Form (JEPI, deutsch: HANES K.J., HAPEF-K) 4. Psychotizismus-Skala (P-Skala) Soll unabhängig sein von E und N Konstruktion durch klinische Erfahrung geleitet, und Beobachtung, dass Psychotiker sich in ihrem Verhalten von Neurotikern und normalen Personen klar abgrenzen lassen Bewertung: nach Faktorenanalyse zeigen sich Zusammenhänge der Itemergebnisse, die N und P messen sollen (nicht unabhängig!), Differenzierung von Normalen und Psychotikern gelingt allein mit P-Skala nicht (Hinzuziehung Lügenskala) Kontroversen um P-Skala (Psychotiker haben zu niedrige Werte, geringe Reliabilitäten, Rolle der Impulsivität, Schwierigkeiten der Differenzierung, Schiefe, Ethik (Stigmatisierung)) 5. EPQ (Eysenck Personality Questionnaire) 6. EPQ-R 7. EPP Zu (3) – Theorie zu Inhibition und Arousal (kausale Erklärungen zu den gefundenen Dimensionen) - - - Extraversion / Introversion: Inhibitionstheorie von 1957 Generelle Annahme: Individuelle Differenzen in Extraversion / Introversion hängen mit erblichen Funktionsunterschieden im Nervensystem zusammen Postulat individueller Differenzen: Menschen unterscheiden sich in Bezug auf.. 1. Geschwindigkeit des Aufbaus neuronaler Erregungs- und Hemmungspotentiale 2. Stärke dieser Potentiale 3. Geschwindigkeit des Abbaus von Hemmung Typologisches Postulat: a. Extravertierte Verhaltensmuster: langsamer Aufbau von Erregung, schwaches exzitatorisches Potential (bei neurotischem Zusammenbruch: hysterischpathologisch), schnelle Entwicklung reaktiver Hemmung, starke Ausprägung und langsame Zerstreuung b. Introvertierte Verhaltensmuster: schneller Aufbau von Erregung, starkes exzitatorisches Potential (bei neurotischem Zusammenbruch: dysthymische Störung), langsame Entwicklung der reaktiven Hemmung, schwache Ausprägung und schnelle Zerstreuung Konzept der reaktiven Hemmung (Hull) Zentralnervöser Vorgang, der durch exzitatorische Prozesse ausgelöst wird und als aktiver Prozess der Exzitation entgegenarbeitet. Vergleichbar einem „Nervenzustand der Ermüdung“. Kritik am typologischen Postulat: 1. Konfundierung der verschiedenen Aspekte von Erregungsaufbau, -stärke und Hemmungsauf- bzw. abbau 2. Leistungsunterschiede zwischen Extravertierten und Introvertierten sind nur schwer den unterschiedlichen Erregungs- und Hemmungsprozessen zuzuordnen. Labortests: Leistungsunterschiede zwischen E und I o Pursuit-Rotor-Task Aufgabe: Verfolgung eines Punktes auf einer rotierenden Scheibe ohne Kontaktverlust Durchführung: Test über mehrere Minuten ausführen lassen, dann Ruhepause Grundannahme hierbei: Aufbau von Hemmung wirkt leistungsmindernd, Ruhepause hebt Hemmung auf o o Hypothese: da sich Hemmungsprozesse bei Extravertierten schneller und stärker aufbauen sollten, müssten sie von der Pause stärker profitieren (Reminiszenzeffekt) Ergebnis: größerer Reminiszenzeffekt bei den Extravertierten. Leistungsunterschiede nach der Pause (aber nicht vorher!) Fazit: entspricht nur zum Teil den Vorhersagen der Inhibitionstheorie (es hätte vorher Leistungsunterschied zu Ungunsten der Extravertierten geben müssen) Lidschlagkonditionierung (Franks, 1956) Prinzip: UCS (Luftstoß auf Auge), UCR (Lidschlagreflex), CS (Ton), CR ( durch den Ton ausgelöster Lidschlagreflex) Durchführung: 3 Gruppen à 20 Personen (neurotische E - Hysteriker, neurotische I - Dysthymiker, Normale); 30 Kopplungen von CS und UCS in der Lernphase; über die Durchgänge verteilt 18 Darbietungen von CS allein; 11 Darbietungen CS in der Löschungsphase Ergebnis: Dysthymiker zeigen mehr CRs als die anderen Gruppen, dabei Hysteriker am wenigsten Dysthymiker lernen schneller, löschen langsamer Folgerung: Introvertierte sind besser konditionierbar aber Problem für diese Folgerung: Nachweis paralleler Lernkurven Konditionierungs-Lernkurven laufen für Hysteriker und Dysthymiker parallel ab, damit gibt es keinen qualitativen, nur einen quantitativen Unterschied (Lernkurven für D nach oben verschoben) genauere Explikation erforderlich: wie ist die Folgerung, Introvertierte ließen sich schneller konditionieren und löschten langsamer, gemeint? Bezieht sich Konditionierung / Löschung auf absolut erreichte Werte? Eysencks Formulierung eher unspezifisch: „es besteht positive Korrelation zwischen Introversion und Konditionierbarkeit“ (damit sind zunächst absolute Werte gemeint) Stärkere Hinweise auf unterschiedliche Steigungen in anderen Arbeiten Eysenck & Levey 1976: Hinweise auf verschieden günstige Bedingungen für Konditionierung von Introvertierten bzw. Extrovertierten Ausgansgpunkt: uneinheitliche Befundlage in weiteren Arbeiten zu Lidschlagkonditionierung aber Beobachtung, dass besonders 3 Variablen zwischen den Studien variierten: 1) Verstärkungsrate, 2) Stärke des UCS, 3) Interstimulusintervall Annahme: Misserfolge von Untersuchungen, die die Folgerung bestätigen wollten, sind auf diese nicht genau eingehaltenen Bedingungen zurückzuführen. Variation der drei Variablen. Aufbau: a.) Verstärkungsrate: partiell (67%), vollständig (100%) b.) UCS-Stärke: schwach (3 Pfund/inch²), stark (6 Pfund/inch²) c.) CS-UCS-Intervall: kurz (400ms), lang (800 ms) dabei Annahme, dass jeweils erste Bedingung günstig für die Introvertierten sein (relativ zu den Extravertierten); Erklärung: Zu a) Nicht bekräftigte Versuche rufen nach Pawlow Hemmung hervor; wenn das besonders für E gilt, müssen sie hier benachteiligt sein Zu b) UCS von niedriger Stärke adaptieren schnell und rufen dadurch Hemmung hervor, hier wären wieder E benachteiligt; UCS von zu großer Stärke führen zu Schutzhemmung, hier wäre I beeinträchtigt Zu c) Bisherige Befundlage legt nahe, dass I bei kurzen Intervallen begünstigt wären Durchführung: 144, 8x18 (Rate x Stärke x Intervall) männliche Vpn, Einteilung in E, I und Ambivertierte A Ergebnisse: 1. bei Vergleich des bedingten Anstiegs von Lidschlagreaktionen leichte Überlegenheit der Introvertierten, aber nicht signifikant 2. Vergleich bei hoher bzw. niedriger UCS-Stärke: bei schwachem UCS bessere Konditionierbarkeit der Introvertierten, bei starkem UCS der Extravertierten 3. Vergleich bei verschieden langen Intervallen: bessere Konditionierbarkeit der Introvertierten in beiden Bedingungen, dabei größerer Unterschied zwischen E und I bei kurzem Intervall 4. Vergleich bei konstanter oder partieller Bekräftigung: generell bei konstanter besser, stärker ausgeprägter Unterschied zwischen E und I bei partieller (zugunsten von I) Vergleich optimaler Bedingungen für E und I Klare Differenzen zwischen E und I, Unterschiede in Gesamtlernleistung (doppelt so viele bedingte Reaktionen von E ggü. I) E stärker abhängig von für sie optimalen Bedingungen Kritik: kleines N pro Gruppe Erklärungen der Befunde durch Eysenck 1. Partielle Verstärkung für Extravertierte ungünstiger Nichtbekräftigte Durchgänge erzeugen Hemmung, was bei Extravertierten stärker zum Tragen kommt 2. Schwacher UCS für Extravertierte ungünstiger Schwacher UCS wird von Introvertierten aufgrund niedrigerer Sinnesschwellen subjektiv stärker wahrgenommen (bei stärkeren UCS setzt bei Introvertierten dann Schutzhemmung ein) 3. Kurzes US-UCS-Intervall für Extravertierte ungünstiger Introvertierte haben arousalbedingt kürzere Reaktionszeiten und zeigen bei kurzen Intervallen bessere Konditionierung unter optimalen Bedingungen findet sich eine Korrelation (E,I; Konditionierung) von r=.40, unter schlechten von r=-.31 - Vereinbarkeit der Befunde mit der Inhibitionstheorie und allgemeine Kritik 1. Nicht klar aus der Theorie ableitbar, warum es Unterschiede in der Konditionierbarkeit bei partieller oder konstanter Bekräftigung gibt 2. Erklärung der stärkeren CR bei schwachem UCS für Introvertierte nur mit Zusatzannahme einer „Schutzhemmung“ möglich spätere Studien werden zeigen, dass die Haupteinflussgröße auf die Befunde die Impulsivitätskomponente war Allgemeinere Probleme: 3. Schwierigkeiten mit dem Konzept der Hemmung selbst (unpräzise: Konfundierung von Erregungs- und Hemmungsprozessen) 4. Schwierigkeit der experimentellen Beeinflussung 5. Keine Benennung von neurophysiologischen Systemen - Die Arousaltheorie 1967 Hauptaussagen: 1. Extravertierte und Introvertierte unterscheiden sich in ihrem allgemeinen kortikalen Arousalniveau 2. ..und im Ausmaß des Eintretens der Schutzhemmung als mit dem Arousal assoziierte Hirnstruktur werden das aufsteigende retikuläre Aktivierungssystem (ARAS) sowie die Formatio reticularis (FR) identifiziert Stichworte Transmarginale Hemmung = Schutzhemmung, Antwort des Organismus auf zu stark empfundene Stimuli: bis zu bestimmtem Punkt intensiveres Arousal, bei weiterer Intensitätssteigerung abnehmendes Arousal Optimales Erregungsniveau = als angenehm erlebtes Arousalniveau, für Introvertierte und Extravertierte unterschiedlich (Extravertierte benötigen mehr Stimulation, um ihr optimales Erregungsniveau zu erreichen, da unterempfindliches ARAS) Drogenpostulat = künstliches Steigern oder Abschwächen von Arousal durch Drogen (künstliches Erzeugen von Extra- oder Introversion) Zusammenhang von ARAS und Extraversion sowie Viscerales Gehirn und Neurotizismus = Zusammenfassung: Arousaltheorie: Die Beziehung zwischen kortikalem Arousal und retikulärem Bombardement ist positiv bis zu dem Punkt, an dem transmarginale Hemmungen im Sinne einer Schutzfunktion einsetzen und einer weiteren Aktivierung entgegenwirken. Unterschiedliches optimales Erregungsniveau bei Extra- und Introvertierten Beziehung zwischen Ausmaß an sensorischer Stimulation und subjektiver Bewertung des dadurch bewirkten Zustands Funktion bei Introvertierten nach links, bei Extravertierten nach rechts verschoben In Extremsituationen wieder Annäherung der beiden Funktionen (transmarginale Hemmung) - Studien zu Inhibitions- und Arousaltheorie o Kritische Flimmerverschmelzungsfrequenz (FVF) Ausgangspunkt: Licht, das bei moderater Frequenz ein- und ausgeschaltet wird, scheint zu flimmern; bei Erhöhung der Frequenz verschmilzt das Flimmern zu kontinuierlichem Lichteindruck (diese Frequenz = Flimmerverschmelzungsfrequenz, individuell unterschiedlich) Annahme Eysenck: individuelle Unterschiede in Flimmerverschmelzungsfrequenz hängt mit Extraversion zusammen – Introvertierte müssten sensorische Reize präziser verarbeiten (höheres Arousal) und daher eine höhere Frequenz haben; wenn sensorische o o o o Stimulation aber sehr hoch wird, müsste transmarginale Hemmung bei Introvertierten früher einsetzen, damit müssten Extravertierte höheres Arousal aufweisen und eine höhere FVF haben Vorhersagen Theorien: Inhibitionstheorie: reaktive Hemmung erleichtert die getrennte Wahrnehmung der Lichtblitze, E sollten höhere FVF aufweisen, E > I Arousaltheorie: höhere kortikale Erregung soll Stimulierung verstärken, höhere Stimulusintensität geht einher mit höherer FVF , E < I Ergebnis pro Arousaltheorie Vigilanzexperimente Vorhersagen Theorien: Inhibitionstheorie: reaktive Hemmung führt zu unfreiwilligen (Konzentrations-)Pausen und verschlechtert somit die Leistung von E, E < I Arousaltheorie: mittleres Erregungsniveau ist optimal Ergebnisse: Berücksichtigung der Tageszeit bei mehreren Studien zeigt morgens negativ r zwischen E und Leistung, nachmittags positives r (Veränderung der Erregung über den Tag) Dauer unfreiwilliger Ruhepausen beim Tapping: bei E mehr Pausen Unterschiede bei Schmerzgrenzen und Arousal-Levels: niedrigere mittlere Schmerzgrenze bei Introvertierten, Zusammenhang zwischen Arousal-Level und Schmerzgrenzen Studie psi-Fähigkeiten und E/I: Annahme, dass Extraversion mit verbesserter psi-Fähigkeit einhergeht (Begriff aus Parapsychologie) Zu (4) Verhaltenskorrelate 1. Neurotizismus korreliert positiv mit „driving stress scale“, besonders mit „driving aggression“ und „dislike of driving“ 2. Taxifahrer mit hohen N-Werten (und E-Werten) erhalten mehr Strafmandate 3. Unterschiede in bevorzugtem Abwehrmechanismus bei hochneurotischen und niedrigneurotischen Personen: hochneurotische sensibilisieren, niedrigneurotische verdrängen 4. Die Instruktion, sich gut darzustellen, führt zu niedrigen N-Werten 5. Hoch-N-Studenten nehmen belastende akademische Ereignisse als Bedrohung, niedrig-N-Studenten als Herausforderung wahr 6. N korreliert mit den 16 PF Skalen C ( geringe Ich-Stärke), L (Misstrauen), O (Neigung zu Schuldgefühlen), Q4 ( hohe Spannung, Gereiztheit) 7. Frauen erreichen höhere Werte als Männer - Eysenck kontrovers Publikation: Rauchen verursacht keinen Lungenkrebs (viele Faktoren, darunter Rauchen, keiner verursacht Lungenkrebs alleine) - Modifikation von J. Gray (um 1970, 1980): Reinforcement-Sensitivity Theorie (RST) Alternatives 2-Faktoren-Modell: - - Rotation der Faktoren Neurotizismus und Extraversion, neue Dimensionen: Angst (Gehemmtheit) und Impulsivität (Aktiviertheit) Hauptaussagen: 1. Ansteigendes Angstniveau reflektiert ein steigendes Niveau an Empfänglichkeit für Anzeichen von Bestrafung, Nichtbelohnung, Neuheit Behavioral Inhibiton System BIS (Vermeidung von Negativem) 2. Ansteigendes Impulsivitätsniveau reflektiert ein steigendes Niveau an Empfänglichkeit für Anzeichen von Belohnung und Nichtbestrafung Behavioral Activation System BAS (Suchen von Positivem) 3. Extraversion reflektiert in diesem Zusammenhang die relative Stärke von BIS und BAS, Neurotizismus die gemeinsame Stärke (graphisch: Extraversion x-Achse, Neurotizismus y-Achse) Vorteile der Theorie: a. In Untersuchungsergebnissen zu Extraversion hat sich die Komponente Impulsivität oft als wichtiger erwiesen als Soziabilität b. Individuelle Differenzen in E und N werden innerhalb eines Bezugsrahmens begriffen (Sensitivität gegenüber Straf- und Bekräftigungsreizen) Annahme eines dritten Verhaltenssystems: Reaktion auf unkonditionierte Gefahrenreize Entwicklung von Skalen, die BIS (Angst) und BAS (Impulsivität) messen sollen, psychometrisch aber unbefriedigend bessere BIS- und BAS-Skalen von Carver & White 1994, bessere psychometrische Eigenschaften – deutschsprachige Version von Strobel et al. 2001 Itembeispiele BIS-Skala: „Ich habe Angst, Fehler zu machen“ (+) „Sogar wenn etwas Schlimmes bevorsteht, bin ich selten nervös oder ängstlich“ (-) Itembeispiele BAS-Skala: „Ich fände es sehr aufregend, einen Wettbewerb zu gewinnen“ (+) Kritik an der Theorie: a. Impulsivität ist eher mit Psychotizismus assoziiert als mit Extraversion b. Eysencks Theorie ist breiter und bezieht sich auf den gesamten Persönlichkeitsbereich, mit Gray hauptsächlich Aussagen in Bezug auf Angst möglich Gray benutzt zunächst Eysenck-Skalen zu E und N zur Überprüfung der RST und zeigte, dass Extravertierte besser mit Belohnungssignalen und Introvertierte besser mit Bestrafungssignalen lernen c. Diese Befunde sind aber nicht eindeutig, andere Interpretation möglich: Lernunterschiede können auch durch unterschiedliche kortikale Erregung, die die Verstärker auslösen, erklärt werden (nach Eysenck)