Die Präsentation wird geladen. Bitte warten

Die Präsentation wird geladen. Bitte warten

Tutorium 21.05.07. Wiederholung Regression E(YIX) Bedingten EW E(YIX=1) Die echte Regression soll uns eine Gleichung liefern (Kurve) die durch diese bedingten.

Ähnliche Präsentationen


Präsentation zum Thema: "Tutorium 21.05.07. Wiederholung Regression E(YIX) Bedingten EW E(YIX=1) Die echte Regression soll uns eine Gleichung liefern (Kurve) die durch diese bedingten."—  Präsentation transkript:

1 Tutorium

2 Wiederholung Regression E(YIX) Bedingten EW E(YIX=1) Die echte Regression soll uns eine Gleichung liefern (Kurve) die durch diese bedingten EW verläuft bestmögliche Schätzung dafür stellen wir auf der Basis unserer SP (den Daten) ein Modell auf schätzen die Koeffizienten der Gleichung die entstandene Regressionsgleichung ist damit eine Schätzung für den Zusammenhang in der Population Man kann ausrechnen wie die Kurve verläuft (Werte von Y ausrechnen auch die bedingten EW für die Population, wir setzen alle Ausprägungen von X in die Gleichung ein X=1 …

3 Wiederholung Dabei sind die Werte der echten Regression immer gleich (man bekommt immer die selben Regressionswerte) Aber die Gleichung selbst kann unterschiedlich sein unterschiedlich Möglichkeiten zur Parametrisierung (ist auch gut so, denn so kann man unterschiedliche Fragestellungen realisieren… aus bst. Werte der Gleichungen kann man je nach Parametrisierung unter. Aussagen ableiten)

4 Aufgabe 3 (Ü4) – Baldwin 2

5 Generell ist das Kor (Y,E(YIX)) Und in dem Fall der einfachen Regression entspricht das der normalen Kor (Y,X) Normale ist Sonderfall Bei 2-fachen entspricht es dieser nicht umbedingt

6 Aufgabe 3 (Ü4) – Baldwin2 Hypothese des t- Tests der Koeffizienten in der 2- fachen Regression: Die Effekt dieses Regressionskoeffizienten (gegen 0 getestet), wenn der andere Prädiktor konstant bleibt (partieller Regressionskoeffizient) Bsp.: E(YIX,Z)= 0,5 +1X + 2Z Wie verändert sich Y wenn Z um 1 steigt und X konstant bleibt? (um 2) Ist der Koeffizient nicht sign. heißt das aber nicht, dass es keinen Einfluss hat, er hat nur keinen Einfluss wenn der Effekt der anderen Variable berücksichtigt wird

7 Aufgabe 3 (Ü4) - Baldwin2 Parameter des saturierten Models: Ausprägungen X= 4 Ausprägungen Kontext Z= 4 X x Z= 16 (4x 4 Parameter sind nötig)

8 Aufgabe 3 (Ü4) Weil es zur Kollinearität der Prädiktoren kommen kann bei hohe Kor. der Prädiktoren versagt der Schätzalgorithmus und SPSS schließt Prädiktoren aus

9 Aufgabe 4 (Ü4) Lineares Model E(YIX)= α0 + α1X Problem Y darf nur 0 oder 1 einnehmen: Wenn X groß genug dann würde das irgend wann den Wertebereich sprengen (da α1 = 0 wenn eine Abhänigkeit besteht) Deshalb bei dichotomer AV Logistische Regression

10 Aufgabe 5 (Ü4) E(YIX)= P(Y=1IX) E(YIX)= 1P(Y=1IX)+ 0P(Y=0IX) = P(Y=1IX) … wichtig ist, man kann die Regression als gewichtete Summe der Wahrscheinlichkeit, dafür das Y=1 und dafür das Y=0 ist darstellen

11 Aufgabe 1 Ist die Varianz der Zufallsvariablen E(YIX,Z) … - ein Maß für die Unterschiedlichkeit der Werte von dieser. Dabei ist das die Varianz, die von X und Z an Y aufgeklärt wird Dabei gilt Var(Y) = Var(E(YIX,Z)) + Var(Fehler)

12 Aufgabe 2 E(YIX,Z) Test partielle lineare regressive Unabhängigkeit Y von X, gegeben Z man untersucht wie Y von X abhängt, wenn man Z konstant hält dabei nur lineare Abh. betrachtet Dabei gibt es mehrere Möglichkeiten zur Testung

13 Aufgabe 2 Testung des Regressionskoeffizienten gegen Null (t-Test in der Koeffizienten-Tabelle) im normalen Modell der zweifachen Regression: Der partielle Regressionskoeffizient βi besagt, dass sich der bedingte Erwartungswert um den Betrag βi erhöht, sofern sich Z nicht ändert und X um eine Einheit steigt: Wenn dieser 0 ist dann keine Änderung in Y wenn sich X verändert aber hier sign. Unters. von 0

14 Aufgabe 2 der R2-Differenzentest, bei dem mittels F-Test, das einfache Regressionsmodell (nur mit X) mit dem Modell mit 2 Prädiktoren (X und Z) verglichen wird:

15 Aufgabe 2 Daraus können wir ableiten der partielle Regressionsparameter von X ist signifikant unterschiedlich von 0 … somit ist Y von X, gegeben Z partiell linear abhänig R²-Differenzentest … der Prädiktor X klärt auch dann noch signifikant Varianz an Y auf, wenn wir Z als weiteren Prädiktor hinzunehmen … somit ist Y von X, gegeben Z partiell linear abhänig Wir nehmen also die H1 an

16 Aufgabe 2 Wie wäre es denn bei dem Fall partielle lineare Abhängigkeit Y von Z gegeben X

17 Aufgabe 2 Beim Modellvergleich fällt besonders auf Y ist linear regressiv abhängig von Z, aber bei Hinzunahme eines weiteren Prädiktors X klärt Z nicht signifikant mehr Varianz an Y auf …Y iat also partiell linear regressiv unabhänig von Z, gegeben X Wir behalten hier als die H0 bei

18 Aufgabe 2 Die Konflikthäufigkeit (X) ist ein guter Prädiktor für die Länge der Partnerschaft, auch dann, wenn die Ähnlichkeit der Partner als weiterer Prädiktor hinzu genommen wird Was ist mit der Ähnlichkeit der Partner (Z) als Prädiktor?

19 Aufgabe 2 Die Ähnlichkeit der Partner (Z) ist durchaus ein guter Prädiktor für die Länge der Beziehung (Y) wenn man keine weitern Informationen hat Allerdings erklärt er keine weitere signifikante Varianz, wenn wir den weiteren Prädiktor Konflikthäufigkeit (X) haben

20 Aufgabe 2 Mediationsmodell Zusammenhang der Variablen Z ( Ähnlichkeit der Partner) X ( Konflikt- Häufigkeit) Y ( Dauer der Beziehung) -,283 -,10,52

21 Problem logisch sinnlose Interpretation!!! Leider wurden in der Aufgabenstellung X und Z vertauscht

22 Aufgabe 3 a) In zwei Fällen gilt die Gleichheit von einfachen und partiellen Regressionskoeffizient 1. wenn Cov(X,Z)=0 2. und /oder wenn β3=0

23 Aufgabe 3

24

25 Zusammenfassung Ich hätte gern von 5 Leuten einen wichtigen Aspekt des heutigen Tutoriums kurz zusammengefasst

26 Bis Bald!!!


Herunterladen ppt "Tutorium 21.05.07. Wiederholung Regression E(YIX) Bedingten EW E(YIX=1) Die echte Regression soll uns eine Gleichung liefern (Kurve) die durch diese bedingten."

Ähnliche Präsentationen


Google-Anzeigen