Strukturgleichungsmodelle

Slides:



Advertisements
Ähnliche Präsentationen
Definition Überlappung und Überdeckung
Advertisements

Statistik-Tutorat SS 2009 Christina
© 1999 by MSc-AST. Dipl. Informatikerin Cornelia Pahnke
Arbeiten mit Mittelwert- und Kovarianzstrukturmodellen
Strukturgleichungsmodell
Forschungsstatistik I
Regression und Korrelation
Klassische Hypothesenprüfung
Forschungsstatistik II Prof. Dr. G. Meinhardt SS 2005 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz KLW-24.
Heute Prüfung der Produkt-Moment Korrelation
Forschungsstatistik I
Forschungsstatistik I
Forschungsstatistik I Prof. Dr. G. Meinhardt WS 2004/2005 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz.
Forschungsstatistik II Prof. Dr. G. Meinhardt SS 2006 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz KLW-18.
Der Zusammenhang metrischer Merkmale
Übung zur Vorlesung Theorien Psychometrischer Tests I
Quantitative Methoden I
Hypothesen testen: Grundidee
K. Desch - Statistik und Datenanalyse SS05
Programmiermethodik SS2007 © 2007 Albert Zündorf, University of Kassel 1 4. Methodenentwurf Gliederung: 1. Einführung 2. Objektdiagramme zur Analyse von.
Programmiermethodik SS2009 © 2009 Albert Zündorf, University of Kassel 1 Gliederung 1. Einführung 2. Objektdiagramme zur Analyse von Beispielen 3. Methodenentwurf.
Programmiermethodik Übung 6 Methoden verstehen und entwerfen.
Explorative und Konfirmatorische Faktorenanalyse
Latente Variablen – Kennwerte zur Beurteilung von Modellen
Aufgabe Der Zusammenhang zwischen einem traumatischen Erlebnis und der Entstehung einer PTBS wird von mehreren Variablen …………….: Copingstrategien, Kontrollüberzeigung,
Was steht in einer ANOVA - Tabelle?
Strukturgleichungsmodelle
Unser schönstes Tutorium Materialien unter:
Eigenschaften der OLS-Schätzer
Einfache Regressionsgleichung
Multikollinearität Wann spricht man von Multikollinearität?
Kapitel 15 Instrumentvariablen- Schätzung
Ausgleichungsrechnung I
Logistische Regression
Technische Hochschule Wildau
Überblick Statistik Deskriptive Statistik=beschreibende Statistik
Regionalisierte Variablen und Kriging
Das Allgemeine Lineare Modell (ALM)
STATISIK LV Nr.: 1375 SS März 2005.
Statistik: Mehr zur Regression.
Kapitel 10 Multikollinearität
Kapitel 2 Das klassische Regressionsmodell
Kapitel 5 Statistische Bewertung von Regressionsbezie-hungen
Kapitel 21 Mehrgleichungs-Modelle: Schätzverfahren
Kapitel 16 Ökonometrische Modelle
Kapitel 11 Heteroskedastizität
Einfache und multiple Regression
Kapitel 21 Mehrgleichungs- Modelle: Schätzverfahren.
STATISIK LV Nr.: 0021 WS 2005/ November 2005.
Kapitel 11 Heteroskedastizität
Multivariate Statistische Verfahren
Forschungsmethodik II, SS 2010 Vesna Pavlovski & Julia Pichlhöfer
Statistik Statistik I Seminar + Blockveranstaltung Statistik I
Informatik Formale Sprachen 1.2 Grammatiken formaler Sprachen
Die einfache/multiple lineare Regression
Testtheorie (Vorlesung 7: ) Rekapitulation: Modellierungsansatz
Testtheorie (Vorlesung 4: ) Wiederholung/Zusammenfassung
STATISIK LV Nr.: 1852 WS 2005/ Jänner 2006.
setzt Linearität des Zusammenhangs voraus
Die einfache/multiple lineare Regression
1 Analyse konstruierter Daten … mit EffectLite Ref.: Marie Grahl, Victoria Paul, Katja Peilke.
Übung zur Vorlesung Theorien Psychometrischer Tests I Ulf Kröhne Norman Rose Session 8.
Übung zur Vorlesung Theorien Psychometrischer Tests I
Übung zur Vorlesung Theorien Psychometrischer Tests I
Forschungsstatistik I Prof. Dr. G. Meinhardt WS 2006/2007 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz.
1)Inwieweit können die Werte in Y auf der Basis zweier unabhängiger Variablen X1 und x2 „erklärt“ werden? 2)Kann auf der Basis der vorliegenden Stichprobenergebnisse.
 Gegenstandsbereich der Testtheorie: Analyse der Charakteristika von Tests:  Güte von Tests.  Struktur von Tests.  Schwierigkeit von Tests.  Gruppenunterschiede.
Außenhandelsbeziehungen zwischen China, USA, EU Makroökonometrie Vorlesung Dr. Oliver Bode.
Kapitel 2: Testtheorie / Testmodelle  Multivariate (p-variate) Normalverteil- ung :  Mittelwertstruktur: p Mittelwerte  Kovarianzstruktur: p·(p+1)/2.
Kapitel 2: Testtheorie / Testmodelle
 Präsentation transkript:

Strukturgleichungsmodelle Eine Einführung

Kausalität und Korrelation X1 ist korreliert mit X2. X1 ist Ursache für X2. X2 ist Ursache für X1. X1 und X2 beeinflussen sich gegenseitig. X1 und X2 werden von X3 beeinflußt. X1 , X2 und X3 sind miteinander korreliert. X1 und X2 sind kausal für X3. X4 verursacht die Korrelation zwischen X1 und X2. X1 und X2 sind kausal für X3. X1 ist kausal für X2. X1 ist kausal für X2, X2 ist kausal für X3. .... X1 X2 X1 X2 X1 X2 X1 X2 X3 X2 X1

Ein Strukturgleichungsmodell zurück

Syntax, Terminologie X manifeste Variable (gemessen) X latente Variable (Konstrukt), auch: Fehler Regression („kausale Beziehung“) (mit fixiertem Gewicht) 1 Korrelation (deskriptiv) endogene (abhängige) Variablen: mindestens ein gerichteter Pfeil zeigt auf sie exogene (unabhängige) Variablen: kein gerichteter Pfeil zeigt auf sie. Exogene Variablen sind immer korrelativ verknüpft. Kein Pfeil: r=0.

Messmodelle und Strukturmodell Messmodell: Verknüpfung zwischen latenter Variable und ihren (manifesten) Indikatoren Aptitude Verbal Analytic Quantitative r3 r4 r5 1 Performance in Grad School Knowledge Grades Skills r10 r11 r12 Social Support Family Friends r1 r2 Happiness Smiling 2 Laughing 2 Contentment 2 Satisfaction 2 r13 r14 r15 r16 Strukturmodell: Verknüpfung zwischen latenten Variablen Aptitude Performance in Grad School Happiness Social Support Previous Happiness

Modellparameter Diejenigen Größen, die durch das Modell festgelegt werden sollen: Alle exogenen Variablen (inkl. Fehler, Residuen) (endogene Variablen werden ja „erklärt“...) Alle (nicht fixierten) Pfade: Regressionen (sofern kein fixiertes Gewicht dransteht) Korrelationen (die man einzeichnet, der Rest ist auf 0 fixiert) Happiness

Daten Alle Varianzen von manifesten Variablen (Anzahl p) Alle Kovarianzen zwischen manifesten Variablen (Anzahl p · (p – 1) / 2) Alle Tripelvarianzen (Anzahl p · (p – 1) · (p – 2) / 6) zusammen: p · (p + 1) / 2 Happiness

Identifizierbarkeit Anzahl Daten < Anzahl Modellparameter: unteridentifiziert Modell nicht lösbar. X + Y = 1. Anzahl Daten = Anzahl Modellparameter: exakt identifiziert Modell lösbar, aber nicht prüfbar. X = 1. Anzahl Daten > Anzahl Modellparameter: überidentifiziert Modell lösbar und prüfbar. X = 1  X = 2.

Definitionsgleichungen Aptitude Performance in Grad School Social Support Previous Happiness d2 1 Jede endogene Variable wird per Regression erklärt: PGS = b1·A + b2·SS + b3·PH + d2 Die Korrelation zwischen jedem denkbaren Paar exogener Variablen wird festgelegt: rr6,r16 = R1, rr7,r15 = R1, rr8,r14 = R3, rr9,f13 = R4, rr6,r7 = rr6,r8 = rr6,r9 = ... = 0. r13 r14 r15 r16 r9 r8 r7 r6 Happiness

Strukturgleichungen Definitionsgleichungen für (p) manifeste Variablen auflösen, bis rechts nur noch exogene Variablen stehen. Alle (p · (p+1) / 2) Varianzen und Kovarianzen mit Hilfe der Definitionsgleichungen „erklären“: Z = aX + bY: VZZ = a²VXX + b²VYY + 2abVXY. W = cU + dV: VZW = acVXU + adVXV + bcVYU + bdVYV. zurück

Lineare Abhängigkeiten Manchmal reichen viele Gleichungen nicht, um viele unbekannte Größen zu bestimmen: X + Y = 10. 2X + 2Y = 20. 3X + 3Y = 30. ... Wenn alle fortführenden Pfade einer latenten Variable frei (nicht fixiert) sind, können Gewichte und Varianz gegeneinander ausgespielt werden. Previous Happiness Smiling 1 Laughing 1 Contentment 1 Satisfaction 1 1 Friends r2 1 Happiness zurück

Ein einfaches Meßmodell 1 was fehlt? Messung 1 Messung 2 Messung 3 1 Fehler 1 Fehler 2 Fehler 3 Konstrukt Identifizierbarkeit: exakt. 6 Modellparameter, 6 (Ko-)Varianzen. Definitionsgleichungen: M1 = 1 · K + F1 M2 = a · K + F2 M3 = b · K + F3 cor(F1,F2) = cor(F1,K) = cor(F1,F3) = cor(F2,K) = cor(F2,F3) = cor(F3,K) = 0 Strukturgleichungen VM1M1 = 1²·VKK + VF1F1 + 2·VKF1 VM2M2 = a²·VKK + VF2F2 VM3M3 = b²·VKK + VF3F3 VM1M2 = 1·a·VKK VM1M3 = 1·b·VKK VM2M3 = a·b·VKK

Weitere einfache Meßmodelle Konstrukt 1 Fehler 1 Fehler 2 Messung 1 Messung 2 1 Konstrukt Fehler 1 Fehler 2 Fehler 3 1 Messung 1 Messung 2 Messung 3 Fehler 4 Messung 4 1

Identifikationsgleichungen Konstrukt 1 Fehler 1 Fehler 2 Fehler 3 Messung 1 Messung 2 Messung 3 zurück Strukturgleichungen VM1M2 = 1·a·VKK VM1M3 = 1·b·VKK VM2M3 = a·b·VKK VM1M1 = 1²·VKK + VF1F1 VM2M2 = a²·VKK + VF2F2 VM3M3 = b²·VKK + VF3F3 umformen Identifikationsgleichungen VKK = VM1M2VM1M3 / VM2M3 a = VM2M3 / VM1M3 b = VM2M3 / VM1M2 VF1F1 = VM1M1 – VM1M2VM1M3 / VM2M3 VF2F2 = VM2M2 – VM2M3VM1M2 / VM1M3 VF3F3 = VM3M3 – VM2M3VM1M3 / VM1M2 lokal identifizierbar: Jede einzelne Unbekannte ist identifizierbar.

Identifikationsgleichungen Konstrukt Fehler 1 Fehler 2 Fehler 3 1 Messung 1 Messung 2 Messung 3 Fehler 4 Messung 4 9 Unbekannte, 10 Ko/Varianzen, ... aber nicht lokal identifizierbar: VKK ist nicht identifizierbar.

Identifikationsgleichungen dienen der Diagnostik (Identifizierbarkeit) Die unbekannten Parameter werden anders bestimmt! wäre ja auch zu peinlich, wenn für überbestimmte Variablen mehrere verschiedene Werte herauskommen

Kovarianzmatrizen Stichprobenkovarianzmatrix V21 V22 V31 V32 V33 Stichprobenkovarianzmatrix Vxy = <xy> – <x> <y> =  (x–<x>)·(y–<y>) / n geschätzte Populationskovarianzmatrix („beobachtete Kovarianzmatrix“) Sxy =  (x–<x>)·(y–<y>) / (n–1) = Vxy · n / (n–1) implizierte Kovarianzmatrix xy() ist eine Funktion des Vektors  der unbekannten Parameter S-Gl. / I-Gl.

Kovarianzmatrizen geschätzte Populationskovarianzmatrix Sxy S21 S22 S31 S32 S33 Kovarianzmatrizen 11 21 22 31 32 33 geschätzte Populationskovarianzmatrix Sxy implizierte Kovarianzmatrix xy() Diskrepanzfunktion F[S, ()] F[S,T]  0 F[S,T] = 0  S = T F[S,T] + F[T,U]  F[S,U] Iterativ  verändern, so daß F kleiner wird. Wenn F minimiert wurde, gilt  als geschätzt.

Diskrepanzfunktionen unweighted least squares: FULS[S, ()] = Sum [Sxy – xy()]² skaliert mit Wertebereich der manifesten Variablen S-Gl. / I-Gl. generalized least squares: FGLS[S, ()] = Sum [Sxy – xy()]² / ||S||² ist für große Stichproben df²-verteilt, mit df = m – p · (p+1) / 2 Freiheitsgraden.

Hypothesenprüfung Nullhypothese H0: S = () diesmal nicht theoriefreie Verneinung von H1, sondern theoriekonforme Vorhersage. Grund: Verteilung bekannt, testbar. Alternativhypothese H1: S  () theoriefreie Verneinung von H0. -Fehler-Niveau festlegen, z. B. p = 0.05 wenn p(²|H0)  p: Modell verwerfen wenn p(²|H0) > p: ???

Kausalität und Korrelation X1 ist korreliert mit X2. X1 ist Ursache für X2. X2 ist Ursache für X1. X1 und X2 beeinflussen sich gegenseitig. X1 und X2 werden von X3 beeinflußt. X1 X2 1 X1 X2 e2 1 e1 X1 X2 X1 X2 X3 1 1 1 1 e1 X1 X2 e2

SGM für eine einfache Korrelation X ist korreliert mit Y. X ist Ursache für Y. X Y 1 X Y e Definitionsgleichungen: y = a + b · x + e cor(x,e) = 0 Strukturgleichungen Vxx = Vxx Vyy = b²·Vxx + Vee + 2·Vxe Vxy = b·Vxx + Vxe Identifikationsgleichungen Vxx = Vxx b = Vxy/Vxx = rxy ·  (Vyy/Vxx) Vee = Vyy – b²·Vxx = Vyy · (1 – rxy²)