Präsentation herunterladen
1
Tutorium
2
Aufgabe 1 a) Variablen Y=Posttest (CPM2) X=Training
Einfache lineare Regression E(YIX)= α0 + α1X SPSS: Analysieren- Regression- linear- AV und UV eingeben - OK
3
E(YIX)= 29,83 + 3,258 X
4
Aufgabe 1 a) Wirkt das Training?
Ja die Leute unterscheiden sich hinsichtlich ihrer Posttestwerte je nachdem ob sie am Training teilgenommen haben oder nicht. Aber kausale Aussagen darüber, ob die Therapie wirkt, sollten nicht getroffen werden, da auch systematische Unterschiede (die schon vor dem Training da sein können) berücksichtigt werden müssen.
5
Aufgabe 1 b) Geeigneter Test auf partielle linear regressive Unabhängigkeit (siehe letzte Woche!) Y=Posttest (CPM2) X=Training Z=Prätest (CPM1) E(YIX,Z)=α0 + α1X+ α2Z 1.) R²- Differenzentest 2.)Test des partiellen Regressionskoeffizienten α2 gegen 0
6
Aufgabe 1b) Abhängigkeit
7
Aufgabe 1 c) Bedingt linear regressiv abhängig:
E(YIX,Z)= g0(X) + g1(X)Z = β0 + β1X + β2Z + β3XZ (gibt es einen Interaktionseffekt?) Die Mittelwerte der Gruppen von X unterscheiden sich für unterschiedliche Stufen des Prätests unterschiedlich partiell linear regressive abhängig: E(YIX,Z)= β0 + β1X + β2Z die MW der Gruppen von X unterscheiden sich (gleichermaßen) für die unterschiedlichen Stufen des Prätests
8
Aufgabe 1 c) Test auf bedingt linear regressive Abhängigkeit:
R²-Differenzentest Test des bedingten Regressionskoeffizienten β3 gegen 0 SPSS: als weiteren Prädiktor Interaktionsterm (XZ) einfügen
9
Aufgabe 1 c) Ist signifikant Y ist von X gegeben Z bedingt linear regressiv abhängig
10
Aufgabe 1 d) Geeigneter Kennwert für die Stärke der bedingt linear regressiven Abhängigkeit (praktische Signifikanz): Differenz in R²: R²YIX,Z - R²YIX = 0,152 Bedingtes Model klärt 15,2 % mehr Varianz an Y auf, als das einfache … eher geringe Interaktionseffekte, aber sie sind vorhanden Andere Interpretation für die Wirksamkeit des Trainings!!! es wirkt für die unterschiedlichen Stufen von Z (unters. Ausgangswerte) unterschiedlich!!! Effekte variieren in Gruppen!!! Keine allgemeine Aussage möglich!
11
Aufgabe 1 e) Prätestwerte sind wichtig, da sie bereits vorab bestehende Unterschiede zwischen den Gruppen statistisch kontrollieren (konstant halten) somit sind die Probleme der kausalen Interpretation von 1 a) berücksichtigt Gibt es vorher überhaupt systematische Gruppenunterschiede? t-Test zum vergleich von 2 Gruppenmittelwerten
12
Aufgabe 1 e) Es gibt ein signifikantes Ergebnis wir nehmen die H1 an (μ1 = μ2) Somit gibt es zu Beginn systematische Unterschiede zwischen den Gruppen! diese müssen in der Untersuchung berücksichtigt (kontrolliert) werden. Prinzip: Störvariablen berücksichtigen, damit kausale Interpretationen auf das Treatment zurück geführt werden können
13
Aufgabe 1 f) Hier ist es nicht möglich ein saturiertes Model aufzustellen Z hat zu viele Ausprägungen Um trotzdem die Linearität zu prüfen macht man den R²-Differenzentest gegen ein Model, welches mehr Parameter besitzt als das Lineare, aber dennoch weniger restriktiv ist als das saturierte Z.B. g- Funktionen sind Linear ( Lineares Model) gegen g- Funktionen sind quadratisch (höheres, aber nicht saturiertes Model) Wird durch Hinzunahme der Z² Werte mehr Varianz aufgeklärt???
14
Aufgabe 1 f) Nicht signifikant anderes Modell klärt nicht sign. mehr Varianz auf als das Lineare – Lineare beibehalten zeigt Problem Multikollinearität generell hohe Varianzaufklärung, aber kein Koeffizient wird signifikant!!! – korrelieren miteinander!
15
Aufgabe 1 g)
16
Aufgabe 1 g)
17
Aufgabe 1 g) Die standartisierten Regressionskoeffizienten geben den Zusammenhang (Kor) zwischen den Prätest und den Posttest (jeweils in der Gruppe von X ) an entsprechen in der einfachen Regression der Korrelation In den bzgl. X-bedingten Regressionen zeigen sich unterschiedlich starke Zusammenhänge zwischen Prä- und Posttestwerten
18
Aufgabe 2 Y ist von X , gegeben Z partiell linear regressiv abhängig
Es ist keine 2-fache lineare Regression E(YIX,Z)= g0(Z) + g1(Z)X g1 muss eine Konstante sein (dann ist kein Interaktionsterm in der Gleichung enthalten) E(YIX,Z)= (β0 + β1Z + β2Z²) + α0X g g1 (= Konstante)
19
Aufgabe 2 Bei der 2- fachen partiellen linear regressiven Abhängigkeit kann man X und Z umdrehen Sonderfall!!!! Bei allen anderen Fällen der partiellen linear regressiven Abhängigkeit ist das nicht möglich!
20
Aufgabe 3 Gegeben: E(YIX,Z)=g0(Z)+g1(Z)X E(YIX,Z)=(β0+β1Z)+(γ0+γ1Z)X
E(ZIX)=α0+α1X Gesucht: E(YIX) Ableitungen über die Parameter E[E(YIX,Z)IX] = E[ (β0+β1Z)+(γ0+γ1Z)X IX] E(YIX,Z) eingesetzt = β0+β1E(ZIX)+γ0E(XIX)+γ1E(ZXIX) E auflösen dabei ist: E(Konstante) = Konstante & E muss bei Var bleiben + Bdg X = β0+β1(α0+α1X)+γ0X+Xγ1(α0+α1X) E(ZIX) einsetzen E(XIX) = X E(ZXIX)= f(x)*E(ZIX) = β0+β1(α0+α1X)+γ0X+γ1Xα0+γ1α1X² Klammer aufgelöst = β0+β1α0+ (β1α1+γ0+γ1α0)X+γ1α1X² Klammer aufgelöst X ausgeklammert Man kann durch die echte und die bedingte Regression die unbedingte ausrechen und auch deren Parameter mit Rechenregeln bestimmen
21
Zusammenfassung Ich hätte gern von 5 Leuten einen wichtigen Aspekt des heutigen Tutoriums kurz zusammengefasst
22
Bis Bald!!!
Ähnliche Präsentationen
© 2024 SlidePlayer.org Inc.
All rights reserved.