Die Präsentation wird geladen. Bitte warten

Die Präsentation wird geladen. Bitte warten

Tutorat Deskriptive Statistik und Wahrscheinlichkeitstheorie

Ähnliche Präsentationen


Präsentation zum Thema: "Tutorat Deskriptive Statistik und Wahrscheinlichkeitstheorie"—  Präsentation transkript:

1 Tutorat Deskriptive Statistik und Wahrscheinlichkeitstheorie
Termin 1 Tutorat Deskriptive Statistik und Wahrscheinlichkeitstheorie Kai Vogt

2 Hallo erst mal !  Fragen entweder direkt an mich oder an Aufgabenblätter gibt es im Buch, im Tutorat oder im Ordner in der Psycho-Bib Habt ihr im voraus Wünsche und Ideen zum Ablauf? Was unterscheidet Statistik I und II voneinander?

3 Ziele des Tutorats! Überblick über den Stoff verschaffen!!!
Vertiefung von Themen aus der Vorlesung Offene Fragen in der Gruppe klären Verstehen von grundlegenden Ideen Rechnen trainieren Sp(a)ss 

4 Gliederung Wiederholung: (lineare) Korrelation (Produkt-Moment- Korrelation) rxy Multiple Korrelationen Ry.x1x2 Partialkorrelation rxy.z Semipartialkorrelation rx(y.z) Inkrementelle Validität Suppressor-Effekt Multikollinearität Wiederholung: Lineare Regression Multiple Regression Biased Estimate & Capitalization of Chance Kreuzvalidierung Signifikanzprüfung Strategien bei der multiplen Regression Aufgaben

5 Wiederholung: Korrelation (Semester 1)
Die Produkt-Moment-Korrelation, die Kovarianz und die sonstigen Korrelationskoeffizienten aus dem ersten Semester sind Maße für den (linearen) Zusammenhang zwischen zwei Variablen. Positive Korrelation bzw. positiver Zusammenhang Negative Korrelation bzw. negativer Zusammenhang Keine Korrelation bzw. kein Zusammenhang

6 Multiple Korrelation

7 Multiple Korrelation Erstes Semester: Zusammenhänge zwischen 2 Variablen! Psychologische „Phänomene“ sind aber selten nur mit einer Variable korreliert Bsp: Welche Variablen stehen im Zusammenhang mit Aggressivität? Genetische Einflüsse, Hormone, Erziehung, Umwelt usw… Deswegen… Multiple Korrelation = Korrelationen zwischen mehr als zwei Variablen!

8 Multiple Korrelation ryx = rxy (einfache Korrelation) Ry.xz
Z.B.: Zusammenhang zwischen genetischem Einfluss und Aggressivität Z.B.: Zusammenhang zwischen Erziehung, genetischem Einfluss und Aggressivität

9 Partialkorrelation Partialkorrelation rxy.z
Herauspartialisieren eines dritten Merkmals aus beiden Variablen Warum? Störvariablen „rausrechnen“ Beispiel: Der Einfluss der Erziehung in der Kindheit (Variable y) und die Aggressivität (Variable x) korrelieren hoch miteinander. Durch die Partialkorrelation kann der Einfluss der Gene (Variable z) „rausgerechnet“ werden. Anzahl der Ertrinkenden und die Menge von konsumiertem Eis korrelieren hoch. Man kann mit der Partialkorrelation den Einfluss des Wetters neutralisieren. x.z y.z

10 Semipartialkorrelation
x y.z Semipartialkorrelation rx(y.z) Herauspartialisieren eines dritten Merkmals aus nur einer Variable Warum? Berechnung des zusätzlichen (inkrementellen) Erklärungswerts (Varianzaufklärung) der verbleibenden Variable Beispiel: Wie groß ist der Anteil an der Gesamtvarianz (erklärbarer Anteil) der Variable Aggressivität (x) der nur durch die Variable Erziehung in der Kindheit (y) erklärt werden kann?  Berechnung der Semipartialkorrelation Die Schulnote korreliert hoch mit dem IQ-Wert. Hat die Motivation des Schülers auch noch einen eigenen Erklärungswert?

11 Partialkorrelation VS. Semipartialkorrelation
Inkrementelle Validität x y.z x.z y.z rxy.z rx(y.z) Zweck: Zum „rausrechnen“ von Störvariablen aus einem interessierenden Zusammenhang Zweck: Zur Ermittlung der inkrementellen Validität einer Variable an einem Kriterium Inkrementelle Validität = Anteil an Varianz den ausschließlich eine gewählte Variable aufklären kann. Der Varianzanteil des Kriteriums wird nicht verringert!

12 Inkrementelle Validität
Inkrementelle Validität („zusätzliche erklärte Varianz“) der Variable w am Kriterium y Inkrementelle Validität Definition: Eine Variable besitzt inkrementelle Validität, wenn ihre Aufnahme als zusätzlicher Prädiktor den Anteil der aufgeklärten Varianz (R²) am Kriterium erhöht – also die Vorhersage verbessert. x y z w

13 Suppressor-Effekt ryx1= .55 < ry(x1.x2)= .66
Ein Prädiktor verbessert die multiple Korrelation (erhöht den Wert) ohne dass er selbst mit dem Kriterium korreliert. Der Suppressor-Effekt kann über die Semipartialkorrelation belegt werden. Nominklatur: z kann z.B. auch als x2 bezeichnet werden. y x1 x2 ryx1= .55 < ry(x1.x2)= .66 Die Semipartialkorrelation (x2 aus x1 herausgerechnet) ist größer als die Korrelation zwischen y und x1! Diese Tatsache belegt einen Suppressor-Effekt!

14 Multikollinearität x = Die Prädiktoren korrelieren miteinander, so dass manche Varianzanteile des Kriteriums von verschiedenen Prädiktoren erklärt werden können. Die Summe der einzelnen Determinationskoeffizienten ist aufgrund dieser Überlappung größer als der multiple Determinationskoeffizient! Seltene Ausnahme: Bei einem Suppressor- Effekt kann der multiple Determinationskoeffizient größer sein als die Summe der einzelnen Determinationskoeffizienten! y z w Beispiel: Y= Aggressivität X= Erziehung Z=Genetischer Einfluss Gemeinsamer Anteil von X & Z: Gene sind von den Eltern die möglicherweise auch auf Grund ihrer Veranlagung einen aggressiven Erziehungsstil pflegen.

15 Wiederholung lineare Regression

16 Lineare Regression Ziel: Vorhersage einer Variable y durch eine Variable x. Wörtlich: Rückführung Eine solche Vorhersage ist nur möglich, wenn x und y zusammenhängen, also miteinander korrelieren. Die vorherzusagende Variable (y) heißt Kriteriumsvariable Die zur Vorhersage verwendete Variable (x) heißt Prädiktorvariable Anwendungsbeispiele: Werte von X wurden bereits erhoben, Werte von Y sind nicht bekannt X kann zum jetzigen Zeitpunkt erfasst werden, Y erst viel später X ist leicht (einfach, preiswert, schnell) zu erfassen, Y nur durch teure, aufwändige Untersuchung zu erheben Beispiel: Prädiktor X: Optimismus Kriterium Y: Risikobereitschaft

17 Lineare Regression - grafisch
Prinzip: Es wird eine Gerade ermittelt, die den Zusammenhang zwischen x und y beschreibt. Mit einer solchen Gerade kann zu jedem Wert von x ein Wert von y vorausgesagt werden. z.B. x=120  y=30 x=80  y=13

18 Mathematisches Prinzip: Methode der kleinsten Quadrate
Für einen Datensatz (eine Punktewolke) werden a und b so gewählt, dass der quadrierte Vorhersagefehler über alle Probanden minimal ist: Für die Ermittlung der Regressionsgleichung wird die Differenz der tatsächlichen von den vorhergesagten y-Werten also quadriert. Das hat 2 Vorteile… (1) Abweichungswerte sind immer positiv. (2) Große Abweichungen werden stärker berücksichtigt als kleine Abweichungen.

19 Strukturformel der Linearen Regression
Allgemeine Funktion einer Gerade: wobei b für die Steigung und a für den y-Achsen-Abschnitt steht. Bei der Regression schreibt man:

20 Voraussetzungen der linearen Regression
Folgende Voraussetzungen müssen erfüllt sein, damit eine lineare Regressionsanalyse berechnet werden darf: Die Variablen x und y müssen intervallskaliert sein Die Variablen x und y müssen normalverteilt sein. Die Homoskedastizität der Variablen muss gegeben sein. Die Residuen müssen unabhängig und normalverteilt sein. Wichtig: Nur lineare Zusammenhänge dürfen berücksichtigt werden.

21 multiple Regression

22 Multiple Regression Problem:
Komplexe Welt: Kriterium hängt meist nicht nur von einem Prädiktor ab. Zusammenhänge mit vielen Variablen. Und daher muss z.B. bei einer Vorhersage auch mehrere Variablen berücksichtigt werden. Beispiel: Sportliche Leistung kann nur präzise vorhergesagt werden wenn viele wichtige Variablen miteinbezogen werden: Training, Talent, Umfeld, Psychologische Stabilität, Ehrgeiz usw…

23 Strukturgleichung: Multiple Regression
Erweiterung der einfachen linearen Regression  mehrere Prädiktorvariablen Bestimmung über die Methode der kleinsten Quadrate

24 Regressionskoeffizienten (b)
„b-Gewichte“ der einzelnen Prädiktorvariablen (auch Partialregressionskoeffizienten) relatives Gewicht einer Prädiktorvariablen in der Vorhersage (Sprich: Wie wichtig ist eine Variable für die Vorhersage! Z.B.: Trainingszeit hat einen großen Einfluss auf die Vorhersage einer Sportlichen Leistung (großes „b-Gewicht“). Die Anzahl der Topfpflanzen in der Wohnung dagegen nicht (sehr kleines „b-Gewicht“)! Regressionsgewicht Signifikanztestung? 1) Semipartialkorrelation 2) inkrementelle Validität groß genug?  t-Test Die Regressionsgewichte können mit einem t-Test auf Signifikanz geprüft werden.

25 Konstante (a) Auch die Regressionskonstante wird mit einem t-Test auf Signifikanz geprüft!

26 Standardisierte Regressionsgewichte (β – Gewichte)
Die Regressionsgerade kann auch in einer standardisierten Form beschrieben werden: unstandardisiert: standardisiert: Die additive Konstante (a) entfällt, da die zy einen Mittelwert von Null hat. Vorteil: Die Beta-Gewichte nehmen nur Werte zwischen -1 und +1 an. Sie können wie Korrelationskoeffizienten interpretiert werden.

27 Biased Estimate & Capitalization of Chance
Bei einer Multiplen Regression werden eine Vielzahl von Korrelationskoeffizienten zwischen den einzelnen Prädiktoren und dem Kriterium berücksichtigt! Diese Koeffizienten korrelieren aber möglicherweise auch miteinander (= Multikollinearität)! Resultierendes Problem: R² überschätzt den Populationszusammenhang = „biased estimate“ Je mehr Prädiktoren in der Regression berücksichtigt werden, desto größer wird der „biased estimate“ (exponentieller Anstieg) = „Capitalization of Chance“ Verdeutlichung Mithilfe von Grafik (Venn-Diagramm) und Beispiel (Aggressivität)

28 Biased Estimate & Capitalization of Chance
Bei einer Multiplen Regression werden eine Vielzahl von Korrelationskoeffizienten zwischen den einzelnen Prädiktoren und dem Kriterium berücksichtigt! Diese Koeffizienten korrelieren aber möglicherweise auch miteinander (= Multikollinearität)! Resultierendes Problem: R² überschätzt den Populationszusammenhang = „biased estimate“ Je mehr Prädiktoren in der Regression berücksichtigt werden, desto größer wird der „biased estimate“ (exponentieller Anstieg) = „Capitalization of Chance“ Verdeutlichung Mithilfe von Grafik (Venn-Diagramm) und Beispiel (Aggressivität)

29 Biased Estimate & Capitalization of Chance
Faktoren die den biased estimate (Überschätzung der Multiplen Korrelation in anderen Stichproben bzw. der Population) beeinflussen: Anzahl Prädiktoren Je mehr Prädiktoren desto größer Verzerrung = Cap. of .Chance Höhe der Korrelationen zwischen den Prädiktoren Je höher (=Multikollinearität) desto größer Verzerrung Stichprobengröße Je größer desto kleiner die Verzerrung Lösungen: korrigiertes R², Kreuzvalidierung, N↑, nur relevante und möglichst unkorrelierte Prädiktoren aufnehmen.

30 Kreuzvalidierung einer Multiplen Regression

31 Korrigiertes R² Schrumpfungskorrektur nach Olkin & Pratt:
Beispiel: k=3; N=20; R² = .50

32 Signifikanzprüfung

33 Signifikanztest der multiplen Regression
Die multiple Regression wird mit einem F-Test auf Signifikanz getestet. Der F-Test beruht auf einer Zerlegung der Varianz des Kriteriums in einen erklärten und einen nicht erklärten Teil. Die Quadratsumme (SS = „sum of squares“) ist ein unstandardisiertes Maß für die Variabilität.

34 Quadratsummen unstandardisiert: „Sums of Squares“
standardisiert: „Mean Sums of Squares“ K: Anzahl der Prädiktoren N: Anzahl der Probanden

35 Signifikanztest der mult. Regression
1) 2) Häufig in SPSS ausgegeben Häufig in Studien / Texten angegeben Wenn Femp > Fkrit ist das Testergebnis signifikant  Die Prädiktoren weisen dann insgesamt einen bedeutsamen Zusammenhang mit dem Kriterium auf.

36 Signifikanztest - Beispiel
Y X1 X2 1.0 .45 .60 .30 Es besteht ein bedeutsamer Zusammenhang zwischen dem Kriterium und den Prädiktoren! Die Prädiktoren können das Kriterium zuverlässig vorhersagen

37 Strategien bei der multiplen Regression

38 Strategien Inhaltliche Auswahl Alle möglichen Untermengen
Vorwärtsselektion Rückwärtselimination Schrittweise Regression Wie geht’s? Vorteile? Nachteile? Siehe Buch!!!!!

39 Aufgaben

40 Aufgabe 1 Eine Regressionsanalyse ergab folgende Zusammenhänge:

41 Aufgabe 1 Berechnen sie für die drei Personen mit folgenden Prädiktorwerten den vorhergesagten Kriteriumswert: - Computerk. 4, Umgangsformen 9 - Computerk. 6, Umgansformen 6 - Computerk. 8, Umgangsformen 3 Nehmt an, dies sei das statistisch aggregierte Ergebnis eines Assessment-Centers und hohe Werte weisen auf hohe Eignung hin. Welchen der drei Bewerber stellt ihr aufgrund der vorliegenden Vorhersage seiner Passung zum Unternehmen ein?

42 Lösung Aufgabe 1 4 x 0, x 0, ,065 = 1,8 6 x 0, x 0, ,065 = 1,67 8 x 0, x 0, ,065 = 1,53 Bewerber a), da er die höchsten Werte und damit voraussichtlich die beste Eignung aufweist.

43 Aufgabe 2 Nennen sie die Vorteile der Standardisierung der Koeffizienten bei der multiplen Regression. Die Beta-Gewichte nehmen nur Werte zwischen -1 und +1 an und können damit wie Korrelationskoeffizienten interpretiert werden – d.h. ihr relativer Einfluss auf die Vorhersage wird direkt und zwischen verschiedenen Vorhersagen vergleichbar deutlich.

44 Aufgabe 3 Welche Vor- und Nachteile hat die Verwendung der Inhaltlichen Auswahl bei der Bestimmung der Anzahl der Prädiktoren für eine multiple Regression?

45 Lösung Aufgabe 3 Vorteile: Nachteile: Hypothesengeleitetes Vorgehen
Keine Capitalization on Chance Nachteile: Möglicherweise Aufnahme von mehr Prädiktoren als unbedingt erforderlich (Prädiktoren, die keinen signifikanten Beitrag leisten) Möglicherweise werden wichtige Prädiktoren „übersehen“ bzw. „vergessen“

46 Arbeitsblatt Aufgabe 4 Eine Regressionsanalyse ergab folgende Zusammenhänge:

47 Berechnen Sie den vorhergesagten Wert für „Note“ für
eine Person mit rating02=3 und rating13=6, und (b) für eine Person mit rating02=8 und rating13=8.

48 Ergebnis Aufgabe 4

49 Arbeitsblatt Aufgabe 5 Eine Multiple Korrelation mit 3 Prädiktoren klärt 60% der Varianz des Kriteriums auf. Die Stichprobe besteht aus 40 Probanden. Ist dieser Zusammenhang signifikant? Fkrit = 2,92

50 Ergebnis Aufgabe 5 Der Zusammenhang des Kriteriums mit den Prädiktoren ist statistisch bedeutsam.

51 Arbeitsblatt Aufgabe 6 Beschreiben Sie kurz das Vorgehen der „Rückwärts- Eliminierung“

52 Ergebnis Aufgabe 6 Zunächst werden alle Prädiktoren in die Regression eingeschlossen. In jedem Schritt wird jeweils der Prädiktor, der am wenigsten zur Vorhersage beiträgt, weggelassen. Diese Schritte werden wiederholt, bis es zu einer signifikanten Verschlechterung der Vorhersage kommt.

53 WICHTIGES AUS TERMIN 1 Multiple Korrelationen Ry.x1x2
Partialkorrelation rxy.z Semipartialkorrelation rx(y.z) Inkrementelle Validität Suppressor-Effekt Multikollinearität Multiple Regression Biased Estimate & Capitalization of Chance Kreuzvalidierung Signifikanzprüfung Strategien der Prädiktorauswahl

54 Vielen Dank für eure Aufmerksamkeit!
Bis nächste Woche… Schreibt euch Fragen auf wenn ihr welche habt… Fragen an Vielen Dank für eure Aufmerksamkeit! Psychoparteeey Wann: Heute!!! Ab 22:00 Uhr Wo: Ruefetto DJs: Kegelfreunde Oberschwieberdingen  Eintritt: 3 Euro


Herunterladen ppt "Tutorat Deskriptive Statistik und Wahrscheinlichkeitstheorie"

Ähnliche Präsentationen


Google-Anzeigen