Tutorium 21.05.07.

Slides:



Advertisements
Ähnliche Präsentationen
Zur Schätzung der Wiederkehrzeiten von Starkniederschlägen
Advertisements

Tutorat Statistik II im SS 09 Mediator- & Moderatoranalyse
Übung zur Vorlesung Theorien Psychometrischer Tests I
Lineare Funktionen mit der Gleichung y = mx
Einkommensungleichheit
Thema der Stunde I. Einführung in die Varianzanalyse:
Forschungsstatistik I Prof. Dr. G. Meinhardt WS 2006/2007 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz.
Regression und Korrelation
Gliederung Vertrauensintervalle Arten von Hypothesen
Forschungsstatistik II Prof. Dr. G. Meinhardt SS 2005 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz KLW-24.
Forschungsstatistik I Prof. Dr. G. Meinhardt WS 2004/2005 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz.
Forschungsstatistik I Prof. Dr. G. Meinhardt WS 2004/2005 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz.
Forschungsstatistik II Prof. Dr. G. Meinhardt SS 2006 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz KLW-18.
Das Allgemeine lineare Modell (ALM) - Varianz als Schlüsselkonzept
Der Zusammenhang metrischer Merkmale
Mehrfachregressionen
Hypothesen testen: Grundidee
Aufgabe Der Zusammenhang zwischen einem traumatischen Erlebnis und der Entstehung einer PTBS wird von mehreren Variablen …………….: Copingstrategien, Kontrollüberzeigung,
M-L-Schätzer Erwartungswert
Datenmatrix.
Korrelationskoeffizient nach Bravais-Pearson Eigenschaften X und Y unabhängig.
Maximum-Likelihood-Schätzer ( diskreter Fall) Likelihood-Funktion mit oder M-L-Schätzer.
Tutorium Willkommen zurück, in der wunderbaren Welt der Statistik Teil II.
Tutorium
Tutorium
Unser letztes Tutorium
Tutorium
Tutorium Aufgabe 1 a) E(eIX)= 0 E(eIX)= E(Y-E(YIX)IX) = E(YIX)- E (E(YIX)IX) = E(YIX)- E(YIX) = 0 Im Mittel macht man mit seiner Schätzung keinen.
Tutorium
Unser letztes Tutorium Output – das Modell gut11 gut12 gut21 gut22 gut31 gut32 state1 state2 state3 XI MF
Unser neuntes Tutorium
Unser siebentes Tutorium
Unser zehntes Tutorium Materialien unter:
Tutorium Aufgabe 1 Informationen in Designmatrix in: - Darin sind die Prädiktoren enthalten - Aber sagt uns noch mehr! Untersuchungsdesign darin.
Unser sechstes Tutorium Materialien unter:
(Gini-Koeffizient, Lorenz-Kurve)
Analyse kategorialer Variablen
Vorlesung Biometrie für Studierende der Veterinärmedizin Begriff der Zufallsgröße Ergebnisse von Zufallsexperimenten werden als Zahlen dargestellt:
Vorlesung: ANOVA I
Vorlesung: ANOVA II.
Eigenschaften der OLS-Schätzer
Einfache Regressionsgleichung
Probleme der Modellspezifikation
Multikollinearität Wann spricht man von Multikollinearität?
Wiederholung: Einfache Regressionsgleichung
Deutsch als Zweitsprache: Experimentelle Methoden WS 2013/2014
Logistische Regression
Das Allgemeine Lineare Modell (ALM)
Exponentialfunktionen zu unterschiedlichen Basen
STATISIK LV Nr.: 1375 SS März 2005.
STATISIK LV Nr.: 0028 SS Mai 2005.
Statistik: Mehr zur Regression.
Kapitel 10 Multikollinearität
Kapitel 2 Das klassische Regressionsmodell
Lineare Restriktionen
Einfache und multiple Regression
STATISIK LV Nr.: 0021 WS 2005/ November 2005.
1 STATISIK LV Nr.: 0021 WS 2005/ November 2005.
Theorie psychometrischer Tests, II
Die einfache/multiple lineare Regression
Testtheorie (Vorlesung 7: ) Rekapitulation: Modellierungsansatz
STATISIK LV Nr.: 1852 WS 2005/ Jänner 2006.
setzt Linearität des Zusammenhangs voraus
Die einfache/multiple lineare Regression
Varianzanalyse und Eta²
Übung zur Vorlesung Theorien Psychometrischer Tests I
Testtheorie (Vorlesung 13: ) Wiederholung: Richtigstellung
Der Wiener Prozess und seltene Ereignisse
 Gegenstandsbereich der Testtheorie: Analyse der Charakteristika von Tests:  Güte von Tests.  Struktur von Tests.  Schwierigkeit von Tests.  Gruppenunterschiede.
Die einfache/multiple lineare Regression
 Präsentation transkript:

Tutorium 21.05.07

Wiederholung Regression E(YIX) Bedingten EW  E(YIX=1) Die echte Regression soll uns eine Gleichung liefern (Kurve) die durch diese bedingten EW verläuft  bestmögliche Schätzung dafür stellen wir auf der Basis unserer SP (den Daten) ein Modell auf schätzen die Koeffizienten der Gleichung die entstandene Regressionsgleichung ist damit eine Schätzung für den Zusammenhang in der Population Man kann ausrechnen wie die Kurve verläuft (Werte von Y ausrechnen auch die bedingten EW für die Population, wir setzen alle Ausprägungen von X in die Gleichung ein  X=1 …

Wiederholung Dabei sind die Werte der echten Regression immer gleich (man bekommt immer die selben Regressionswerte) Aber die Gleichung selbst kann unterschiedlich sein  unterschiedlich Möglichkeiten zur Parametrisierung (ist auch gut so, denn so kann man unterschiedliche Fragestellungen realisieren… aus bst. Werte der Gleichungen kann man je nach Parametrisierung unter. Aussagen ableiten)

Aufgabe 3 (Ü4) – Baldwin 2

Aufgabe 3 (Ü4) – Baldwin 2 Generell ist das Kor (Y,E(YIX)) Und in dem Fall der einfachen Regression entspricht das der „normalen“ Kor (Y,X) Normale ist Sonderfall Bei 2-fachen entspricht es dieser nicht umbedingt

Aufgabe 3 (Ü4) – Baldwin2 Hypothese des t- Tests der Koeffizienten in der 2- fachen Regression: Die Effekt dieses Regressionskoeffizienten (gegen 0 getestet), wenn der andere Prädiktor konstant bleibt („partieller Regressionskoeffizient“) Bsp.: E(YIX,Z)= 0,5 +1X + 2Z Wie verändert sich Y wenn Z um 1 steigt und X konstant bleibt? (um 2)  Ist der Koeffizient nicht sign. heißt das aber nicht, dass es keinen Einfluss hat, er hat nur keinen Einfluss wenn der Effekt der anderen Variable berücksichtigt wird

Aufgabe 3 (Ü4) - Baldwin2 Parameter des saturierten Models: Ausprägungen X= 4 Ausprägungen Kontext Z= 4 X x Z= 16 (4x 4 Parameter sind nötig)

Aufgabe 3 (Ü4) Weil es zur Kollinearität der Prädiktoren kommen kann  bei hohe Kor. der Prädiktoren versagt der Schätzalgorithmus und SPSS schließt Prädiktoren aus

Aufgabe 4 (Ü4) Lineares Model E(YIX)= α0 + α1X Problem Y darf nur 0 oder 1 einnehmen: Wenn X groß genug dann würde das irgend wann den Wertebereich sprengen (da α1 = 0 wenn eine Abhänigkeit besteht) Deshalb bei dichotomer AV  Logistische Regression

Aufgabe 5 (Ü4) E(YIX)= P(Y=1IX) E(YIX)= 1P(Y=1IX)+ 0P(Y=0IX) … wichtig ist, man kann die Regression als gewichtete Summe der Wahrscheinlichkeit, dafür das Y=1 und dafür das Y=0 ist darstellen

Aufgabe 1 Ist die Varianz der Zufallsvariablen E(YIX,Z) … - ein Maß für die Unterschiedlichkeit der Werte von dieser. Dabei ist das die Varianz, die von X und Z an Y aufgeklärt wird Dabei gilt Var(Y) = Var(E(YIX,Z)) + Var(Fehler)

Aufgabe 2 E(YIX,Z)  Test partielle lineare regressive Unabhängigkeit Y von X, gegeben Z man untersucht wie Y von X abhängt, wenn man Z konstant hält  dabei nur lineare Abh. betrachtet Dabei gibt es mehrere Möglichkeiten zur Testung

Aufgabe 2 Testung des Regressionskoeffizienten gegen Null (t-Test in der Koeffizienten-Tabelle) im normalen Modell der zweifachen Regression: Der partielle Regressionskoeffizient βi besagt, dass sich der bedingte Erwartungswert um den Betrag βi erhöht, sofern sich Z nicht ändert und X um eine Einheit steigt: Wenn dieser 0 ist dann keine Änderung in Y wenn sich X verändert  aber hier sign. Unters. von 0

Aufgabe 2 der R2-Differenzentest, bei dem mittels F-Test, das einfache Regressionsmodell (nur mit X) mit dem Modell mit 2 Prädiktoren (X und Z) verglichen wird:

Aufgabe 2 Daraus können wir ableiten der partielle Regressionsparameter von X ist signifikant unterschiedlich von 0 … somit ist Y von X, gegeben Z partiell linear abhänig R²-Differenzentest … der Prädiktor X klärt auch dann noch signifikant Varianz an Y auf, wenn wir Z als weiteren Prädiktor hinzunehmen … somit ist Y von X, gegeben Z partiell linear abhänig Wir nehmen also die H1 an

Aufgabe 2 Wie wäre es denn bei dem Fall partielle lineare Abhängigkeit Y von Z gegeben X

Aufgabe 2 Beim Modellvergleich fällt besonders auf Y ist linear regressiv abhängig von Z, aber bei Hinzunahme eines weiteren Prädiktors X klärt Z nicht signifikant mehr Varianz an Y auf …Y iat also partiell linear regressiv unabhänig von Z, gegeben X  Wir behalten hier als die H0 bei

Aufgabe 2 Die Konflikthäufigkeit (X) ist ein guter Prädiktor für die Länge der Partnerschaft, auch dann, wenn die Ähnlichkeit der Partner als weiterer Prädiktor hinzu genommen wird Was ist mit der Ähnlichkeit der Partner (Z) als Prädiktor?

Aufgabe 2 Die Ähnlichkeit der Partner (Z) ist durchaus ein guter Prädiktor für die Länge der Beziehung (Y) wenn man keine weitern Informationen hat Allerdings erklärt er keine weitere signifikante Varianz, wenn wir den weiteren Prädiktor Konflikthäufigkeit (X) haben

Z (Ähnlichkeit der Partner) (Konflikt-Häufigkeit) Aufgabe 2 Mediationsmodell  Zusammenhang der Variablen Z (Ähnlichkeit der Partner) -,10 -,283 X (Konflikt-Häufigkeit) Y (Dauer der Beziehung) ,52

Problem logisch sinnlose Interpretation!!! Leider wurden in der Aufgabenstellung X und Z vertauscht

Aufgabe 3 In zwei Fällen gilt die Gleichheit von einfachen und partiellen Regressionskoeffizient 1. wenn Cov(X,Z)=0 2. und /oder wenn β3=0

Aufgabe 3

Aufgabe 3

Zusammenfassung Ich hätte gern von 5 Leuten einen wichtigen Aspekt des heutigen Tutoriums kurz zusammengefasst 

Bis Bald!!! 