Tutorium 30.05.07.

Slides:



Advertisements
Ähnliche Präsentationen
Tutorat Statistik II im SS 09 Mediator- & Moderatoranalyse
Advertisements

Statistik-Tutorat SS 2009 Christina
Korrektur Tutoratsaufgaben V
Induktive Statistik: Regressionsanalyse
Thema der Stunde I. Einführung in die Varianzanalyse:
Regression und Korrelation
EmPra Der Einfluss und die Verarbeitung von emotionalen Reizen
Einfaktorielle Varianzanalyse
Gliederung Vertrauensintervalle Arten von Hypothesen
Forschungsstatistik II Prof. Dr. G. Meinhardt SS 2005 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz KLW-24.
Forschungsstatistik II
Forschungsstatistik I
Forschungsstatistik I
Forschungsstatistik I Prof. Dr. G. Meinhardt WS 2004/2005 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz.
Forschungsstatistik II Prof. Dr. G. Meinhardt SS 2006 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz KLW-26.
Forschungsstatistik II Prof. Dr. G. Meinhardt SS 2006 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz KLW-18.
Der Zusammenhang metrischer Merkmale
Patrick Rössler Einführung in die Methoden der empirischen Kommunikationsforschung Vorlesung BA Kommunikationswissenschaft.
Mehrfachregressionen
Anwendungsseminar: Kausale Modellbildung
Quantitative Methoden I
Hypothesen testen: Grundidee
Mehrdeutigkeit eines positiven Effekts bei Querschnittsdaten
Modellierungsmethoden in der Verhaltenstherapie
Effektgrößen, Kontraste & Post-hoc-Tests
Aufgabe Der Zusammenhang zwischen einem traumatischen Erlebnis und der Entstehung einer PTBS wird von mehreren Variablen …………….: Copingstrategien, Kontrollüberzeigung,
Fragen Was wird mit der Alphafehler-Kumulierung bzw. –inflation bezeichnet? Wie hoch ist die Wahrscheinlichkeit bei einer Untersuchung mit 4 Gruppen einen.
Tutorat Deskriptive Statistik und Wahrscheinlichkeitstheorie
Strukturgleichungsmodelle
Tutorium
Tutorium Willkommen zurück, in der wunderbaren Welt der Statistik Teil II.
Tutorium
Unser letztes Tutorium
Tutorium
Tutorium Aufgabe 1 a) E(eIX)= 0 E(eIX)= E(Y-E(YIX)IX) = E(YIX)- E (E(YIX)IX) = E(YIX)- E(YIX) = 0 Im Mittel macht man mit seiner Schätzung keinen.
Tutorium
Unser letztes Tutorium Output – das Modell gut11 gut12 gut21 gut22 gut31 gut32 state1 state2 state3 XI MF
Unser neuntes Tutorium
Unser siebentes Tutorium
Unser zehntes Tutorium Materialien unter:
Tutorium Aufgabe 1 Informationen in Designmatrix in: - Darin sind die Prädiktoren enthalten - Aber sagt uns noch mehr! Untersuchungsdesign darin.
Unser sechstes Tutorium Materialien unter:
Vorlesung: ANOVA I
Vorlesung: ANOVA II.
Probleme der Modellspezifikation
Multikollinearität Wann spricht man von Multikollinearität?
Wiederholung: Einfache Regressionsgleichung
Deutsch als Zweitsprache: Experimentelle Methoden WS 2013/2014
Bestimmung der Regressionsgewichte in der multiplen Regression
Vergleich der 3 Arten des t-Tests Testergebnisse berichten
Überblick Statistik Deskriptive Statistik=beschreibende Statistik
Chi Quadrat Test Tamara Katschnig.
Logistische Regression
Überblick Statistik Deskriptive Statistik=beschreibende Statistik
Überblick Statistik Deskriptive Statistik=beschreibende Statistik
Quantum Computing Hartmut Klauck Universität Frankfurt WS 04/
Beweissysteme Hartmut Klauck Universität Frankfurt WS 06/
Überblick Statistik Deskriptive Statistik=beschreibende Statistik
Kapitel 10 Multikollinearität
Einfache und multiple Regression
1 STATISIK LV Nr.: 0021 WS 2005/ November 2005.
Bedingungen für Experimente nach Huber
Die einfache/multiple lineare Regression
Deskriptive Statistik, Korrelationen, Mittelwertvergleiche, Graphiken
setzt Linearität des Zusammenhangs voraus
Die einfache/multiple lineare Regression
Varianzanalyse und Eta²
Statistiken je nach Messniveau
 Gegenstandsbereich der Testtheorie: Analyse der Charakteristika von Tests:  Güte von Tests.  Struktur von Tests.  Schwierigkeit von Tests.  Gruppenunterschiede.
ANOVA für unabhängige Daten.
 Präsentation transkript:

Tutorium 30.05.07

Aufgabe 1 a) Variablen Y=Posttest (CPM2) X=Training Einfache lineare Regression E(YIX)= α0 + α1X SPSS: Analysieren- Regression- linear- AV und UV eingeben - OK

E(YIX)= 29,83 + 3,258 X

Aufgabe 1 a) Wirkt das Training? Ja die Leute unterscheiden sich hinsichtlich ihrer Posttestwerte je nachdem ob sie am Training teilgenommen haben oder nicht.  Aber kausale Aussagen darüber, ob die Therapie wirkt, sollten nicht getroffen werden, da auch systematische Unterschiede (die schon vor dem Training da sein können) berücksichtigt werden müssen.

Aufgabe 1 b) Geeigneter Test auf partielle linear regressive Unabhängigkeit (siehe letzte Woche!) Y=Posttest (CPM2) X=Training Z=Prätest (CPM1) E(YIX,Z)=α0 + α1X+ α2Z 1.) R²- Differenzentest 2.)Test des partiellen Regressionskoeffizienten α2 gegen 0

Aufgabe 1b)  Abhängigkeit

Aufgabe 1 c) Bedingt linear regressiv abhängig: E(YIX,Z)= g0(X) + g1(X)Z = β0 + β1X + β2Z + β3XZ (gibt es einen Interaktionseffekt?)  Die Mittelwerte der Gruppen von X unterscheiden sich für unterschiedliche Stufen des Prätests unterschiedlich partiell linear regressive abhängig: E(YIX,Z)= β0 + β1X + β2Z  die MW der Gruppen von X unterscheiden sich (gleichermaßen) für die unterschiedlichen Stufen des Prätests

Aufgabe 1 c) Test auf bedingt linear regressive Abhängigkeit: R²-Differenzentest Test des bedingten Regressionskoeffizienten β3 gegen 0 SPSS: als weiteren Prädiktor Interaktionsterm (XZ) einfügen

Aufgabe 1 c) Ist signifikant  Y ist von X gegeben Z bedingt linear regressiv abhängig

Aufgabe 1 d) Geeigneter Kennwert für die Stärke der bedingt linear regressiven Abhängigkeit (praktische Signifikanz): Differenz in R²: R²YIX,Z - R²YIX = 0,152 Bedingtes Model klärt 15,2 % mehr Varianz an Y auf, als das einfache … eher geringe Interaktionseffekte, aber sie sind vorhanden Andere Interpretation für die Wirksamkeit des Trainings!!!  es wirkt für die unterschiedlichen Stufen von Z (unters. Ausgangswerte) unterschiedlich!!! Effekte variieren in Gruppen!!! Keine allgemeine Aussage möglich!

Aufgabe 1 e) Prätestwerte sind wichtig, da sie bereits vorab bestehende Unterschiede zwischen den Gruppen statistisch kontrollieren (konstant halten)  somit sind die Probleme der kausalen Interpretation von 1 a) berücksichtigt Gibt es vorher überhaupt systematische Gruppenunterschiede?  t-Test zum vergleich von 2 Gruppenmittelwerten

Aufgabe 1 e) Es gibt ein signifikantes Ergebnis  wir nehmen die H1 an (μ1 = μ2) Somit gibt es zu Beginn systematische Unterschiede zwischen den Gruppen!  diese müssen in der Untersuchung berücksichtigt (kontrolliert) werden. Prinzip: Störvariablen berücksichtigen, damit kausale Interpretationen auf das Treatment zurück geführt werden können

Aufgabe 1 f) Hier ist es nicht möglich ein saturiertes Model aufzustellen  Z hat zu viele Ausprägungen Um trotzdem die Linearität zu prüfen macht man den R²-Differenzentest gegen ein Model, welches mehr Parameter besitzt als das Lineare, aber dennoch weniger restriktiv ist als das saturierte Z.B. g- Funktionen sind Linear ( Lineares Model) gegen g- Funktionen sind quadratisch (höheres, aber nicht saturiertes Model) Wird durch Hinzunahme der Z² Werte mehr Varianz aufgeklärt???

Aufgabe 1 f) Nicht signifikant  anderes Modell klärt nicht sign. mehr Varianz auf als das Lineare – Lineare beibehalten zeigt Problem Multikollinearität  generell hohe Varianzaufklärung, aber kein Koeffizient wird signifikant!!! – korrelieren miteinander!

Aufgabe 1 g)

Aufgabe 1 g)

Aufgabe 1 g) Die standartisierten Regressionskoeffizienten geben den Zusammenhang (Kor) zwischen den Prätest und den Posttest (jeweils in der Gruppe von X ) an  entsprechen in der einfachen Regression der Korrelation In den bzgl. X-bedingten Regressionen zeigen sich unterschiedlich starke Zusammenhänge zwischen Prä- und Posttestwerten

Aufgabe 2 Y ist von X , gegeben Z partiell linear regressiv abhängig Es ist keine 2-fache lineare Regression E(YIX,Z)= g0(Z) + g1(Z)X g1 muss eine Konstante sein (dann ist kein Interaktionsterm in der Gleichung enthalten) E(YIX,Z)= (β0 + β1Z + β2Z²) + α0X g0 g1 (= Konstante)

Aufgabe 2 Bei der 2- fachen partiellen linear regressiven Abhängigkeit kann man X und Z umdrehen Sonderfall!!!! Bei allen anderen Fällen der partiellen linear regressiven Abhängigkeit ist das nicht möglich!

Aufgabe 3 Gegeben: E(YIX,Z)=g0(Z)+g1(Z)X E(YIX,Z)=(β0+β1Z)+(γ0+γ1Z)X E(ZIX)=α0+α1X Gesucht: E(YIX)  Ableitungen über die Parameter E[E(YIX,Z)IX] = E[ (β0+β1Z)+(γ0+γ1Z)X IX]  E(YIX,Z) eingesetzt = β0+β1E(ZIX)+γ0E(XIX)+γ1E(ZXIX)  E auflösen dabei ist: E(Konstante) = Konstante & E muss bei Var bleiben + Bdg X = β0+β1(α0+α1X)+γ0X+Xγ1(α0+α1X) E(ZIX) einsetzen E(XIX) = X E(ZXIX)= f(x)*E(ZIX) = β0+β1(α0+α1X)+γ0X+γ1Xα0+γ1α1X²  Klammer aufgelöst = β0+β1α0+ (β1α1+γ0+γ1α0)X+γ1α1X²  Klammer aufgelöst X ausgeklammert Man kann durch die echte und die bedingte Regression die unbedingte ausrechen  und auch deren Parameter mit Rechenregeln bestimmen

Zusammenfassung Ich hätte gern von 5 Leuten einen wichtigen Aspekt des heutigen Tutoriums kurz zusammengefasst 

Bis Bald!!! 