Die Präsentation wird geladen. Bitte warten

Die Präsentation wird geladen. Bitte warten

Forschungsstatistik I Prof. Dr. G. Meinhardt WS 2004/2005 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz.

Ähnliche Präsentationen


Präsentation zum Thema: "Forschungsstatistik I Prof. Dr. G. Meinhardt WS 2004/2005 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz."—  Präsentation transkript:

1 Forschungsstatistik I Prof. Dr. G. Meinhardt WS 2004/2005 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz Stunde 11.01.05

2 Themen der Woche Partialkorrelation Multiple Korrelation und Regression

3 Deutungsmöglichkeiten der bivariaten Korrelation 1.Kausalität: X 1 X 2 2.Latente Drittvariable: 3.Direkte und indirekte Kausalität: x1x1 x2x2 x1x1 x2x2

4 Partialkorrelation Die Korrelation zweier Variablen, die vom Effekt anderer (spezifizierter) Variablen bereinigt wurden. Prüfung einer Kausalvermutung: r xy komme dadurch zustande, daß z ursächlich auf x und y einwirkt: z xy r zy r zx r xy GG

5 Partialkorrelation Prüfung 1.Sage x aus z voraus und berechne Residuen e x 2.Sage y aus z voraus und berechne Residuen e y 3.Berechne die Korrelation r e x e y x y rexeyrexey zz r xy Ist Partialkorrelation (Korrelation r e x e y ) Null, so beruht die Korrelation r xy tatsächlich nur auf der Einwirkung von z.

6 Partialkorrelation Y aus Z X aus Z e x und e y korrelieren: [Tafelbeispiele]

7 Datenbeispiel X: Rechnen Y: Sprache Z: Förderdauer r yz =.73 Korreliert Rechen und Sprache nur, weil die Kinder Frühförderung erhalten haben? r xz =.72 r xy =.56

8 Datenbeispiel: Korr. der Residuen X: Rechnen Y: Sprache Z: Förderdauer Ja: Ohne die Frühförderung sind Rechen- und Sprachleistung unabhängig! r xy.z =.07 Residuen: Korrelation der Residuen: [Tafelbetrachtung]

9 Multiple Regression Schätzung eines Kriteriums aus einer Linearkombination von Prädiktoren Mit konkreten Meßvariablen Information über die Wichtigkeit einzelner Einflußgrößen im Kontext von Multikollinearität Ziele

10 Multiple Korrelation & Regression Variable X, Y, Z: Sage Z aus X und Y vorher ! Die ß- Koeffizienten müssen nach dem Kleinstquadratkriterium bestimmt werden!

11 Allgemeine Schätzgleichung Vorhergesagtes Kriterium Beobachtetes Kriterium

12 Modellformulierung Schätzung der Regressionsgewichte Schätzfehler: Optimierungskriterium für die Regressionsgewichte: wobei

13 Modellformulierung, standardisiert Schätzung der Regressionsgewichte Kriterium: mit die additive Konstante fällt weg, nur Gewichte für Prädiktoren

14 Lösung: Normalgleichungen Schätzung der Regressionsgewichte Vektorschreibweise: Multipliziere nacheinander mit jedem Prädiktor, summiere über Fälle und teile durch N, führt auf:

15 Normalgleichungen in Matrix Notation Schätzung der Regressionsgewichte System: wobei: Lösung: Inverse Prädiktorkorrelationsmatrix vormultiplizieren

16 3 Variablen Fall Kleinstquadratkriterium: [Tafelrechnung] Für den 3 Variablenfall (x,y,z) bequem nach Standardisierung über Normalgleichungen zu lösen! führt auf:

17 Multipler Korrelationskoeffizient Schätzung der Regressionsgewichte Bedeutung aus Varianzzerlegung:

18 Multipler Korrelationskoeffizient Im 3 Variablenfall: 2)Ist immer größer oder gleich der größten Einzelkorrelation 3)Sein Quadrat gibt wieder den Anteil der Vorhersagevarianz an der Gesamtvarianz an: 1)Ist die Korrelation der vorhergesagten Werte mit den beobachteten Werten Z

19 Multiple Korrelation & Regression Interpretation Sind die Prädiktoren unabhängig, so sind die ß-Gewichte gleich den Kriteriumskorrelationen und die aufgeklärte Varianz ist die Summe der Quadrate der ß-Gewichte 1) Sind die Prädiktoren abhängig (interkorreliert), so unterscheiden wir 3 Fälle: 2) 1.Der Pädiktor enthält Information, die schon der andere Prädiktor enthält: er ist redundant 2.Der Prädiktor unterdrückt irrelevante Varianzanteile in dem anderen Prädiktor: er ist ein Suppressor 3.Der Prädiktor besitzt Kriteriumsvarianz, die der andere Prädiktor nicht besitzt und unterdrückt irrelevante Varianz des anderen Prädiktors: er ist valide und nützlich. Interpretation

20 Interpretation der Lösung 1. Unabhängige Prädiktoren Bei rein unabhängigen Prädiktoren sind die b- Gewichte identisch mit den Kriteriumskorrelationen Der multiple Determinationskoeffizient ist dann einfach die Summe der quadrierten Kriteriumskorrelationen (=erklärter Varianzanteil) Interpretation

21 Interpretation: abhängige Prädiktoren Untersuchung der Abhängigkeit im Kontext von Multikollinearität 1.Bedeutet die Abhängigkeit Redundanz, d.h. messen die vielen Variablen Aspekte gemeinsam, so daß man prinzipiell weniger (latente) Variablen benötigt? (unerwünschter Aspekt) 2.Erfassen die Abhängigkeiten Teile der Kontamination der Variablen und wirken so optimierend auf die gesamte Schätzgleichung (Suppressionseffekt, erwünscht)? Interpretation

22 Multiple Korrelation & Regression Redundanz Die Variable j ist redundant zur Vorhersage von Variable k, Wenn gilt: [Tafelbeispiele] Nützlichkeit der Variable j zur Vorhersage von k: so existieren Suppressionseffekte. U ist der Betrag, um den R 2 wächst durch Aufnahme von Variable j in die Gleichung. Interpretation

23 Identifikation von Suppressionseffekten Für mehr als 3 Variablen über die Nützlichkeit: Variable j ist Suppressor, wenn gilt Also die Zunahme der erklärten Varianz durch Aufnahme der Variable muss grösser sein als die quadrierte einzelne Validität. Für nur 3 Variablen (x,y,z) relativ einfach (z = Kriterium): Variable y ist Suppressor, wenn gilt Interpretation

24 Multiple Korrelation & Regression Suppression [Berechnungsbeispiele, Venn-Diagramme] r xy ZYX r yz =0 r xz Y bindet irrelevante Kriteriumsinformation Partialkorrelation r xz.y ist erheblich größer als r xz


Herunterladen ppt "Forschungsstatistik I Prof. Dr. G. Meinhardt WS 2004/2005 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz."

Ähnliche Präsentationen


Google-Anzeigen