Die Präsentation wird geladen. Bitte warten

Die Präsentation wird geladen. Bitte warten

Strukturgleichungsmodelle Eine Einführung. Kausalität und Korrelation X 1 ist korreliert mit X 2. X 1 ist Ursache für X 2. X 2 ist Ursache für X 1. X.

Ähnliche Präsentationen


Präsentation zum Thema: "Strukturgleichungsmodelle Eine Einführung. Kausalität und Korrelation X 1 ist korreliert mit X 2. X 1 ist Ursache für X 2. X 2 ist Ursache für X 1. X."—  Präsentation transkript:

1 Strukturgleichungsmodelle Eine Einführung

2 Kausalität und Korrelation X 1 ist korreliert mit X 2. X 1 ist Ursache für X 2. X 2 ist Ursache für X 1. X 1 und X 2 beeinflussen sich gegenseitig. X 1 und X 2 werden von X 3 beeinflußt. X 1, X 2 und X 3 sind miteinander korreliert. X 1 und X 2 sind kausal für X 3. X 4 verursacht die Korrelation zwischen X 1 und X 2. X 1 und X 2 sind kausal für X 3. X 1 ist kausal für X 2. X 1 ist kausal für X 2, X 2 ist kausal für X X1X1 X2X2 X1X1 X2X2 X1X1 X2X2 X3X3 X2X2 X1X1 X1X1 X2X2

3 Ein Strukturgleichungsmodell zurück

4 Syntax, Terminologie X manifeste Variable (gemessen) X latente Variable (Konstrukt), auch: Fehler Korrelation (deskriptiv) Regression (kausale Beziehung) (mit fixiertem Gewicht) 1 endogene (abhängige) Variablen: mindestens ein gerichteter Pfeil zeigt auf sie exogene (unabhängige) Variablen: kein gerichteter Pfeil zeigt auf sie. Exogene Variablen sind immer korrelativ verknüpft. Kein Pfeil: r=0.

5 Messmodelle und Strukturmodell Messmodell: Verknüpfung zwischen latenter Variable und ihren (manifesten) Indikatoren Strukturmodell: Verknüpfung zwischen latenten Variablen Aptitude Verbal Analytic Quantitative r3 r4 r5 Performance in Grad School KnowledgeGradesSkills r10 r11 r12 Social Support Family Friends r1 r2 Happiness Smiling 2 Laughing 2 Contentment 2 Satisfaction 2 r13 r14 r15 r16 Aptitude Performance in Grad School Happiness Social Support Previous Happiness

6 Modellparameter Diejenigen Größen, die durch das Modell festgelegt werden sollen: Alle exogenen Variablen (inkl. Fehler, Residuen) (endogene Variablen werden ja erklärt...) Alle (nicht fixierten) Pfade: Regressionen (sofern kein fixiertes Gewicht dransteht) Korrelationen (die man einzeichnet, der Rest ist auf 0 fixiert) Happiness

7 Daten Alle Varianzen von manifesten Variablen (Anzahl p) Happiness Alle Kovarianzen zwischen manifesten Variablen (Anzahl p · (p – 1) / 2) zusammen: p · (p + 1) / 2 Alle Tripelvarianzen (Anzahl p · (p – 1) · (p – 2) / 6)

8 Identifizierbarkeit Anzahl Daten < Anzahl Modellparameter: unteridentifiziert Modell nicht lösbar. X + Y = 1. Anzahl Daten = Anzahl Modellparameter: exakt identifiziert Modell lösbar, aber nicht prüfbar. X = 1. Anzahl Daten > Anzahl Modellparameter: überidentifiziert Modell lösbar und prüfbar. X = 1 X = 2.

9 Definitionsgleichungen Jede endogene Variable wird per Regression erklärt: PGS = b 1 ·A + b 2 ·SS + b 3 ·PH + d2 Aptitude Performance in Grad School Social Support Previous Happiness d2 Die Korrelation zwischen jedem denkbaren Paar exogener Variablen wird festgelegt: r r6,r16 = R1, r r7,r15 = R1, r r8,r14 = R3, r r9,f13 = R4, r r6,r7 = r r6,r8 = r r6,r9 =... = 0. r13 r14 r15 r16 r9 r8 r7 r6 Happiness

10 Strukturgleichungen Definitionsgleichungen für (p) manifeste Variablen auflösen, bis rechts nur noch exogene Variablen stehen. Alle (p · (p+1) / 2) Varianzen und Kovarianzen mit Hilfe der Definitionsgleichungen erklären: Z = aX + bY: V ZZ = a²V XX + b²V YY + 2abV XY. W = cU + dV:V ZW = acV XU + adV XV + bcV YU + bdV YV. zurück

11 Lineare Abhängigkeiten Manchmal reichen viele Gleichungen nicht, um viele unbekannte Größen zu bestimmen: X + Y = 10. 2X + 2Y = 20. 3X + 3Y = Wenn alle fortführenden Pfade einer latenten Variable frei (nicht fixiert) sind, können Gewichte und Varianz gegeneinander ausgespielt werden. Previous Happiness Smiling 1Laughing 1 Contentment 1 Satisfaction 1 Happiness Friends r2 zurück

12 Ein einfaches Meßmodell Definitionsgleichungen: M 1 = 1 · K + F 1 M 2 = a · K + F 2 M 3 = b · K + F 3 cor(F 1,F 2 ) = cor(F 1,K) = cor(F 1,F 3 ) = cor(F 2,K) = cor(F 2,F 3 ) = cor(F 3,K) = 0 Konstrukt 1 Fehler 1 Fehler 2 Fehler Messung 1 Messung 2 Messung 3 Strukturgleichungen Identifizierbarkeit: was fehlt? exakt. 6 Modellparameter, 6 (Ko-)Varianzen. V M 1 M 1 = 1²·V KK + V F 1 F 1 + 2·V KF 1 V M 2 M 2 = a²·V KK + V F 2 F 2 V M 3 M 3 = b²·V KK + V F 3 F 3 V M 1 M 2 = 1·a·V KK V M 1 M 3 = 1·b·V KK V M 2 M 3 = a·b·V KK

13 Weitere einfache Meßmodelle Konstrukt 1 Fehler 1 Fehler Messung 1 Messung 2 1 Konstrukt Fehler 1 Fehler 2 Fehler Messung 1 Messung 2 Messung 3 Fehler 4 1 Messung 4 1

14 Identifikationsgleichungen Konstrukt 1 Fehler 1 Fehler 2 Fehler Messung 1 Messung 2 Messung 3 Strukturgleichungen V M 1 M 2 = 1·a·V KK V M 1 M 3 = 1·b·V KK V M 2 M 3 = a·b·V KK V M 1 M 1 = 1²·V KK + V F 1 F 1 V M 2 M 2 = a²·V KK + V F 2 F 2 V M 3 M 3 = b²·V KK + V F 3 F 3 Identifikationsgleichungen V KK = V M 1 M 2 V M 1 M 3 / V M 2 M 3 a = V M 2 M 3 / V M 1 M 3 b = V M 2 M 3 / V M 1 M 2 V F 1 F 1 = V M 1 M 1 – V M 1 M 2 V M 1 M 3 / V M 2 M 3 V F 2 F 2 = V M 2 M 2 – V M 2 M 3 V M 1 M 2 / V M 1 M 3 V F 3 F 3 = V M 3 M 3 – V M 2 M 3 V M 1 M 3 / V M 1 M 2 lokal identifizierbar: Jede einzelne Unbekannte ist identifizierbar. umformen zurück

15 Identifikationsgleichungen nicht lokal identifizierbar: V KK ist nicht identifizierbar. Konstrukt Fehler 1 Fehler 2 Fehler Messung 1 Messung 2 Messung 3 Fehler 4 1 Messung 4 9 Unbekannte, 10 Ko/Varianzen,... aber

16 Identifikationsgleichungen dienen der Diagnostik (Identifizierbarkeit) Die unbekannten Parameter werden anders bestimmt! wäre ja auch zu peinlich, wenn für überbestimmte Variablen mehrere verschiedene Werte herauskommen

17 Kovarianzmatrizen Stichprobenkovarianzmatrix V xy = – = (x– )·(y– ) / n geschätzte Populationskovarianzmatrix (beobachtete Kovarianzmatrix) S xy = (x– )·(y– ) / (n–1) = V xy · n / (n–1) implizierte Kovarianzmatrix xy ( )ist eine Funktion des Vektors der unbekannten Parameter S-Gl. / I-Gl. V 11 V 21 V 22 V 31 V 32 V 33

18 Kovarianzmatrizen geschätzte Populationskovarianzmatrix S xy implizierte Kovarianzmatrix xy ( ) S 11 S 21 S 22 S 31 S 32 S 33 Diskrepanzfunktion F[S, ( )] F[S,T] 0 F[S,T] = 0 S = T F[S,T] + F[T,U] F[S,U] Iterativ verändern, so daß F kleiner wird. Wenn F minimiert wurde, gilt als geschätzt.

19 Diskrepanzfunktionen unweighted least squares: F ULS [S, ( )] = Sum [S xy – xy ( )]² skaliert mit Wertebereich der manifesten Variablen S-Gl. / I-Gl. generalized least squares: F GLS [S, ( )] = Sum [S xy – xy ( )]² / ||S||² ist für große Stichproben df ²-verteilt, mit df = m – p · (p+1) / 2 Freiheitsgraden.

20 Hypothesenprüfung Nullhypothese H 0 : S = ( ) –diesmal nicht theoriefreie Verneinung von H 1, sondern theoriekonforme Vorhersage. Grund: Verteilung bekannt, testbar. Alternativhypothese H 1 : S ( ) –theoriefreie Verneinung von H 0. -Fehler-Niveau festlegen, z. B. p = 0.05 wenn p( ²|H 0 ) p : Modell verwerfen wenn p( ²|H 0 ) > p : ???

21 X 1 ist korreliert mit X 2. X 1 ist Ursache für X 2. X 2 ist Ursache für X 1. X 1 und X 2 beeinflussen sich gegenseitig. X 1 und X 2 werden von X 3 beeinflußt. Kausalität und Korrelation X1X1 X2X2 X1X1 X2X2 X1X1 X2X2 X1X1 X2X2 e2e2 e1e1 1 1 X2X2 X1X1 e2e2 1 e1e1 1 X3X3 1 1

22 SGM für eine einfache Korrelation X ist korreliert mit Y. X ist Ursache für Y. XY XYe 1 Definitionsgleichungen: y = a + b · x + e cor(x,e) = 0 Strukturgleichungen V xx = V xx V yy = b²·V xx + V ee + 2·V xe V xy = b·V xx + V xe Identifikationsgleichungen V xx = V xx b = V xy /V xx = r xy · (V yy /V xx ) V ee = V yy – b²·V xx = V yy · (1 – r xy ²)


Herunterladen ppt "Strukturgleichungsmodelle Eine Einführung. Kausalität und Korrelation X 1 ist korreliert mit X 2. X 1 ist Ursache für X 2. X 2 ist Ursache für X 1. X."

Ähnliche Präsentationen


Google-Anzeigen