Die Präsentation wird geladen. Bitte warten

Die Präsentation wird geladen. Bitte warten

Tutorat Statistik II im SS 09 Multiple Regression

Ähnliche Präsentationen


Präsentation zum Thema: "Tutorat Statistik II im SS 09 Multiple Regression"—  Präsentation transkript:

1 Tutorat Statistik II im SS 09 Multiple Regression

2 Organisatorisches: Tutoratsformat Gliederung -Memo & Fragen zum Thema der letzten Stunde sowie Fragen zu den Aufgaben (ca. 15 min) -Inhaltlicher Teil zum aktuellen Thema (ca. 30 min) -Übungen (ca. 60 min) Kontakt: Folien:

3 Organisatorisches: Übungsaufgaben Struktur der Vorlesung: Multiple Korrelation Multiple Regression Einführung in die Matrizenrechnung Das Allgemeine Lineare Modell Varianzanalyse I VarianzanalyseII Varianzanalyse III Kovarianzanalyse Faktorenanalyse Struktur des Ordners: Multiple Korrelation Multiple Regression Einfaktorielle Varianzanalyse Mehrfaktorielle Varianzanalyse & Kontraste Kovarianzanalyse Faktorenanalyse Allgemeines Lineares Modell & Matrizenrechnung Spezielle Regressionsanalysen: Moderator- und Mediatoranalyse, logistische Regression gemischte Aufgaben

4 Memo: Multiple Korrelation Was fällt euch noch ein?

5 Inkrementelle Validität Definition: Eine Variable besitzt inkrementelle Validität, wenn ihre Aufnahme als zusätzlicher Prädiktor den Anteil der aufgeklärten Varianz (R²) am Kriterium erhöht – also die Vorhersage verbessert. y x z

6 Partial- & Semipartialkorrelation oPartialkorrelation r xy.z Herauspartialisieren eines dritten Merkmals aus beiden Variablen Konstanthalten von Störvariablen oSemipartialkorrelation r x(y.z) Herauspartialisieren eines dritten Merkmals aus nur einer Variable Berechnung des zusätzlichen (inkrementellen) Erklärungswerts (Varianzaufklärung) des verbleibenden Prädiktors y.z x.z x y.z

7 r yx = r xy (einfache Korrelation) R y.xz (multiple Korrelation) y x z y x z Multiple Korrelation

8 Supressor-Effekt Ein Prädiktor verbessert die multiple Korrelation ohne dass er mit dem Kriterium korreliert

9 Supressor-Effekt y x z y x z

10 Thema: Multiple Regression

11 Gliederung I.Wiederholung lineare Regression II.Berechnung der multiplen Regression III.Signifikanzprüfung & Korrektur

12 I.Wiederholung

13 oDas Ziel einer linearen Regression ist die Vorhersage einer Variable y durch eine Variable x. Wörtlich: Rückführung oEine solche Vorhersage ist nur möglich, wenn x und y zusammenhängen, also miteinander korrelieren. oDie vorherzusagende Variable (y) heißt Kriteriumsvariable. oDie zur Vorhersage verwendete Variable (x) heißt Prädiktorvariable. Anwendungsbeispiele: -Werte von X wurden bereits erhoben, Werte von Y sind nicht bekannt -X kann zum jetzigen Zeitpunkt erfasst werden, Y erst viel später -X ist leicht (einfach, preiswert, schnell) zu erfassen, Y nur durch teure, aufwändige Untersuchung zu erheben

14 Lineare Regression - grafisch Prinzip: Es wird eine Gerade ermittelt, die den Zusammenhang zwischen x und y beschreibt. Mit einer solchen Gerade kann zu jedem Wert von x ein Wert von y vorausgesagt werden. z.B.x=120 y=30 x=80 y=13

15 Mathematisches Prinzip: Methode der kleinsten Quadrate Für einen Datensatz (eine Punktewolke) werden a und b so gewählt, dass der quadrierte Vorhersagefehler über alle Probanden minimal ist: Für die Ermittlung der Regressionsgleichung wird die Differenz der tatsächlichen von den vorhergesagten y-Werten also quadriert. Das hat 2 Vorteile… (1) Abweichungswerte sind immer positiv. (2) Große Abweichungen werden stärker berücksichtigt als kleine Abweichungen.

16 Strukturformel der Linearen Regression wobei b für die Steigung und a für den y-Achsen-Abschnitt steht. Allgemeine Funktion einer Gerade: Bei der Regression schreibt man:

17 Voraussetzungen oIntervallskalenniveau von x und y oNormalverteilung von x und y oHomoskedastizität o(Unabhängigkeit und Normalverteilung der Residuen) oNur lineare Zusammenhänge!

18 II.Berechnung

19 Problem: -Komplexe Welt: Kriterium hängt meist nicht nur von einem Prädiktor ab. -Zusammenhänge mit vielen Variablen Beispiel: Erfolg in Statistik II hängt ab von… - Mathematischen Fähigkeiten -Anzahl der Vorlesungs- und Tutoratsbesuche -Anzahl der Arbeitsstunden zu Hause - Motivation / Interesse -IQ -…-… Multiple Regression

20 Strukturgleichung – Multiple Regression –Erweiterung der einfachen linearen Regression mehrere Prädiktorvariablen –Bestimmung über die Methode der kleinsten Quadrate

21 Regressionskoeffizienten (b) b-Gewichte der einzelnen Prädiktorvariablen (auch Partialregressionskoeffizienten) relatives Gewicht einer Prädiktorvariablen in der Vorhersage Die Regressionsgewichte können mit einem t-Test auf Signifikanz geprüft werden.

22 Konstante (a) Auch die Regressionskonstante wird mit einem t-Test auf Signifikanz geprüft!

23 Standardisierte Regressionsgewichte (β – Gewichte) Die Regressionsgerade kann auch in einer standardisierten Form beschrieben werden: unstandardisiert: standardisiert: Vorteil: Die Beta-Gewichte nehmen nur Werte zwischen -1 und +1 an. Sie können wie Korrelationskoeffizienten interpretiert werden. Die additive Konstante (a) entfällt, da die z y einen Mittelwert von Null hat.

24 III.Signifikanzprüfung & Korrektur

25 Signifikanztest der multiplen Regression und Korrelation Die multiple Regression wird mit einem F-Test auf Signifikanz getestet. Der F-Test beruht auf einer Zerlegung der Varianz des Kriteriums in einen erklärten und einen nicht erklärten Teil. Die Quadratsumme (SS = sum of squares) ist ein unstandardisiertes Maß für die Variabilität.

26 Quadratsummen unstandardisiert: Sums of Squares standardisiert: Mean Sums of Squares K:Anzahl der Prädiktoren N:Anzahl der Probanden

27 Wenn F emp > F krit ist das Testergebnis signifikant Die Prädiktoren weisen dann insgesamt einen bedeutsamen Zusammenhang mit dem Kriterium auf. Signifikanztest der mult. Regression

28 Signifikanztest - Beispiel YX1X2 Y X X21.0 Es besteht ein bedeut- samer Zusammenhang zwischen dem Kriterium und den Prädiktoren

29 Multiple Korrelation/Regression: Korrigiertes R² R überschätzt Populationszusammenhang! Die Vorhersage in einer Stichprobe überschätzt Vorhersage in anderen Stichproben bzw. in der Population Je kleiner die Stichprobe und je größer die Anzahl der Prädiktoren desto größer die Überschätzung von R² (Capitalization of Chance) Bei einem Nullzusammenhang in Population ergibt sich ein Erwartungswert für R² von E(R²) = (k-1)/(N-1) Beispiel: k=3; N=10: E(R²) = 2/9 =.22 Empfehlung: Verhältnis N/K von mind. 20, besser 30 Beispiel: k=2, N=40: E(R²) = 1/39 =.03 k=2, N=60: E(R²) = 1/59 =.02

30 Korrigiertes R² Schrumpfungskorrektur nach Olkin & Pratt: Beispiel: k=3; N=20; R² =.50

31 Vielen Dank für eure Aufmerksamkeit!

32 Aufgabe 1 Eine Regressionsanalyse ergab folgende Zusammenhänge:

33 Aufgabe 1 Berechnen sie für die drei Personen mit folgenden Prädiktorwerten den vorhergesagten Kriteriumswert: Computerk. 4, Umgangsformen 9 Computerk. 6, Umgansformen 6 Computerk. 8, Umgangsformen 3 Nehmt an, dies sei das statistisch aggregierte Ergebnis eines Assessment-Centers und hohe Werte weisen auf hohe Eignung hin. Welchen der drei Bewerber stellt ihr aufgrund der vorliegenden Vorhersage seiner Passung zum Unternehmen ein?

34 Lösung Aufgabe 1 a)4 x 0, x 0, ,065 = 1,8 b)6 x 0, x 0, ,065 = 1,67 c)8 x 0, x 0, ,065 = 1,53 Bewerber a), da er die höchsten Werte und damit voraussichtlich die beste Eignung aufweist.

35 Aufgabe 2 Nennen sie die Vorteile der Standardisierung der Koeffizienten bei der multiplen Regression. Die Beta-Gewichte nehmen nur Werte zwischen -1 und +1 an und können damit wie Korrelationskoeffizienten interpretiert werden – d.h. ihr relativer Einfluss auf die Vorhersage wird direkt und zwischen verschiedenen Vorhersagen vergleichbar deutlich.

36 Aufgabe 3 Welche Vor- und Nachteile hat die Verwendung des Einschlussverfahrens bei der Bestimmung der Anzahl der Prädiktoren für eine multiple Regression?

37 Lösung Aufgabe 3 Vorteile: –Hypothesengeleitetes Vorgehen –Keine Capitalization of Chance Nachteile: –Möglicherweise Aufnahme von mehr Prädiktoren als unbedingt erforderlich (Prädiktoren, die keinen signifikanten Beitrag leisten) –Möglicherweise werden wichtige Prädiktoren übersehen bzw. vergessen

38 Arbeitsblatt Aufgabe 1 Eine Regressionsanalyse ergab folgende Zusammenhänge: Berechnen Sie den vorhergesagten Wert für Note für (a) eine Person mit rating02=3 und rating13=6, und (b) für eine Person mit rating02=8 und rating13=8.

39 Ergebnis Aufgabe 1

40 Arbeitsblatt Aufgabe 2 Eine Multiple Korrelation mit 3 Prädiktoren klärt 60% der Varianz des Kriteriums auf. Die Stichprobe besteht aus 40 Probanden. Ist dieser Zusammenhang signifikant? F krit = 2,92

41 Ergebnis Aufgabe 2 Der Zusammenhang des Kriteriums mit den Prädiktoren ist statistisch bedeutsam.

42 Arbeitsblatt Aufgabe 3 Beschreiben Sie kurz das Vorgehen der Rückwärts-Eliminierung

43 Ergebnis Aufgabe 3 Zunächst werden alle Prädiktoren in die Regression eingeschlossen. In jedem Schritt wird jeweils der Prädiktor, der am wenigsten zur Vorhersage beiträgt, weggelassen. Diese Schritte werden wiederholt, bis es zu einer signifikanten Verschlechterung der Vorhersage kommt.

44 Arbeitsblatt Aufgabe 4 (a) Ist der Zusammenhang statistisch bedeutsam? Begründen Sie Ihre Antwort. (b) Wie groß war die Stichprobe? Wie viele Prädiktoren gab es? (c) Ist die Stichprobengröße ausreichend? Begründen Sie Ihre Antwort. Eine Regressionsanalyse ergab folgendes Ergebnis:

45 Ergebnis Aufgabe 4 Für so viele Prädiktoren sollte eine wesentlich größere Stichprobe gewählt werden (Mindestens k*20 = 100 Vpn).

46 Arbeitsblatt Aufgabe 5 Aus folgender Ergebnistabelle wurden einige Angaben gelöscht. Ergänzen Sie alle fehlenden Zahlen!

47 Ergebnis Aufgabe 5


Herunterladen ppt "Tutorat Statistik II im SS 09 Multiple Regression"

Ähnliche Präsentationen


Google-Anzeigen