Die Präsentation wird geladen. Bitte warten

Die Präsentation wird geladen. Bitte warten

Methoden der Politikwissenschaft Regressionsanalyse Siegfried Schumann.

Ähnliche Präsentationen


Präsentation zum Thema: "Methoden der Politikwissenschaft Regressionsanalyse Siegfried Schumann."—  Präsentation transkript:

1 Methoden der Politikwissenschaft Regressionsanalyse Siegfried Schumann

2 2 Prognosegleichung Backhaus-Formel für den Regressionskoeffizienten (S. 16) –äquivalent zum Grundkurs! –aber: Rohwerte! –in SPSS: B Backhaus-Formel für die Regressionskonstante (S. 16) –wie im Grundkurs –aber Benennung: b 0 ! –in SPSS: CONST

3 3 Standardisierte Regressionskoeffizienten Standardisierte Regressionskoeffizienten: ˆ bei Backhaus: Standardisierung entspricht dem Koeffizienten für z-standardisierte Variablen! Sinn: Vergleichbarkeit innerhalb einer Gleichung herstellen! In SPSS: BETA

4 4 Arbeitsblatt 1: Eine unabhängige Variable Konstante = ? r aus Gleichungen 1 u. 2 errechenbar? 1 Jahr (Alter) 10 Jahre SYCDU x 10

5 5 Multiple Regression Regressionsgleichung: Zielfunktion der multiplen Regressionsfunktion: e = Residuum

6 6 Arbeitsblatt 1: y-Werte für Gleichung y = 2x 1 + x Lego-Modell!

7 7 Demonstration am Modell: Regressionsgerade Regressionsebene Regressionskoeffizienten: Steigung unabhängig von den übrigen UVs! Interpretationen: –Regressionskoeffizienten –Regressionskonstante analog zum bivariaten Modell

8 8 Arbeitsblatt 1: z-Standardisierung / Unabhängigkeit bereits bekannt? Hätte R 2 auch kleiner sein können als in vorhergehender Tabelle? Nächste Zeile: Welche Werte sind bekannt?

9 9 Wdh: Bestimmtheitsmaß R 2 – Zerlegung eines Werts Regressionsgerade

10 10 Wdh: Zerlegung eines y-Wertes Regressionsgerade arithmetisches Mittel x Werte für Beispiel 2 (Grundkurs) Abweichung vom arithmetischen Mittel

11 11 Wdh: Berechnung von R 2

12 12 Bestimmtheitsmaß R 2 Prüfung der Regressionsfunktion insgesamt Backhaus: R 2 r 2 R 2 wird beeinflusst von: –Zahl der Regressoren –Größe der Stichprobe Korrigiertes Bestimmtheitsmaß: Bei großen Fallzahlen kaum bedeutsam. Beispiel: N=K=1000, J=5:r 2 = 0.81 r 2 korr = r 2 = 0.49 r 2 korr = r 2 = 0.09 r 2 korr = Anmerkung: R = r = Multipler Korrelationskoeffizient J = Anzahl der Regressoren K = Zahl der Beobachtungen ?

13 13 Prüfung des Bestimmtheitsmaßes F-Test: Hat sich R 2 emp 0 zufällig ergeben, (Backhaus: r 2 emp 0) obwohl in der Grundgesamtheit R 2 gleich 0 ist? –H 0 : Kein Zusammenhang zwischen der AV und den UVs (in der Grundgesamtheit) –H 1 : Zusammenhang zwischen der AV und den UVs (in der Grundgesamtheit) Testgröße: F-Verteilung: (Dichte) J = Anzahl der Regressoren K = Zahl der Beobachtungen Zähler- bzw. Nennerfreiheitsgrade nach Bortz 1989: 107 ––––––––– df. Zähler: 1 df. Nenner: df. Zähler: 10 df. Nenner: 10

14 14 F-Tabelle - Vertrauenswahrscheinlichkeit 0.95 / 0.99 aus: Clauß u.a. 1994: 366 f. (Tabellen in Backhaus: S. 576ff.; Auszug: S. 27) f 1 = J: Anzahl der UVs f 2 = K - J - 1: Fallzahl - Anzahl der UVs - 1 Beispiel: J = 1 K = 10 F emp = 4.23 n.s.

15 15 Weiteres Gütemaß Standardfehler der Schätzung Im Beispiel: Bezogen auf den Mittelwert von Y (1806.8) –beträgt der Standardfehler der Schätzung 21% –was nicht als gut bewertet werden kann (Backhaus u.a : 73) Gibt an, welcher mittlere Fehler bei der Verwendung der Regressionsfunktion zur Schätzung der AV gemacht wird. (Backhaus u.a. 2006: 73)

16 16 Prüfung der Regressionskoeffizienten Für jede der unabhängigen Variablen (UV) ist H 0 gegen H 1 zu prüfen: –H 0 : Der Regressionskoeffizient hat in der Grundgesamtheit den Wert 0 (kein Einfluss der betreffenden UV auf die AV!) –H 1 : Der Regressionskoeffizient hat in der Grundgesamtheit einen Wert 0 (Einfluss der betreffenden UV auf die AV!) Testgröße: T-Verteilung (Dichte) (aus: Bleymüller u.a. 1992: 63)

17 17 Kritische Werte der t-Verteilung (Wdh.) Tafel 4 aus: Clauß u.a. 1994: SNV df.: K-J-1 Beispiel: K = 10 J = 1 α = 0.05 J = Anzahl der Regressoren K = Zahl der Beobachtungen

18 18 Konfidenzintervalle für Regressionskoeffizienten Berechnung des Konfidenzintervalls (KI): mit: = Regressionskoeffizient des j-ten Regressors = Standardfehler des j-ten Regressionskoeffizienten t = t-Wert für gewählte Vertrauenswahrscheinlichkeit Interpretation? –Intervall liegt mit einer Wahrscheinlichkeit von [Vertrauenswahrscheinlichkeit] so, dass es den Regressionskoeffizienten in der Grundgesamtheit umschließt. –Je größer das KI, desto unsicherer die Schätzung der Steigung des Regressionskoeffizienten. –Gilt insbesondere bei Vorzeichenwechsel innerhalb des KI!

19 19 Prämissen / Prämissenverletzungen (PV) beim linearen Regressionsmodell

20 20 Annahmen des linearen Regressionsmodells Das Modell ist richtig spezifiziert. –Es ist linear in den Parametern β j. –Es enthält die relevanten UVs (und nur diese!). –Zahl der zu schätzenden Parameter (J+1) < Zahl der Beobachtungen (K). Die Störgrößen haben den Erwartungswert Null. Keine Korrelation zwischen den UVs und der Störgröße Störgrößen haben eine konstante Varianz (Homoskedaszidität) Störgrößen sind unkorreliert (keine Autokorrelation) Keine lineare Abhängigkeit zwischen den UVs (keine perfekte Multikollinearität). Die Störgrößen sind normalverteilt. ( relevant bei statistischen Tests!) Praktisches Problem: Ausreichende Varianz der UVs in der Stichprobe! nach Backhaus u.a. 2006: 79

21 21 PV: Nicht lineare Regressionsbeziehung nach Backhaus u.a. 2006: 82 Lineare Regressionsfunktion Y = β 0 + β 1 · X Nichtlineare Regressionsfunktion Y = β 0 + β 1 · X 0.5 oder: Strukturbruch? PV = Prämissenverletzung!

22 22 PV: Nicht lineare Regressionsbeziehung II nach Backhaus u.a. 2006: 82 Strukturbruch: Trendänderung Strukturbruch: Niveauänderung

23 23 PV: nicht alle relevanten UVs im Modell enthalten UVs: Sympathie J. Fischer Sympathie J. Trittin Irak gerechtfertigt Zuzug Ausländer AKWs abschalten Zufried. Grüne in Koalition NEO-FFI: OE NEO-FFI: GW Links-Rechts Selbsteinstufung Erklärte Varianz R 2 : Abhängige Variable (AV) jeweils: Sympathie für die Grünen Zahlenwerte: standardisierte Regressionskoeffizienten nicht signifikant (unter Signifikanzniveau.05)

24 24 PV: Nicht konstante Varianz der Störgrößen nach Backhaus u.a. 2006: 87 Heteroskedaszidität II Heteroskedaszidität I Relevant vor allem bei Zeitreihen! Homoskedaszidität: Alle bedingten Verteilungen der u i haben Erwertungswert 0 und konstante Varianz σ u 2. (Bleymüller, 1992: 149)

25 25 PV: Nicht unkorrelierte Störgrößen (Autokorrelation) nach Backhaus u.a. 2006: 87 Negative Autokorrelation Positive Autokorrelation Relevant vor allem bei Zeitreihen!

26 26 Erkennen von Autokorrelation (Zeitreihen!) Optische Inspektion (Residuen) Durbin-Watson-Test (aus Backhaus u.a. 2006: 101) = + Beziehung? Berechnung? : (Standardfehler der Residuen in der Grundgesamtheit!)

27 27 Test auf Autokorrelation (Durbin-Watson-Formel) Kritische Werte (Tabelle!) Empirischer Wert der Prüfgröße d ?

28 28 Durbin-Watson Tabelle aus Backhaus u.a. 2006: 820 Vertrauenswahrscheinlichkeit: einseitig 0.975, zweiseitig 0.95 Beispiel: K = Zahl der Beobachtungen J = Zahl der Regressoren d + u = unterer Grenzwert des Unschärfebereichs d + o = unterer Grenzwert des Unschärfebereichs

29 29 Test auf Autokorrelation (Durbin-Watson-Formel) Beispiel: d + u (hier: d u ) = 1.21 d + o (hier: d o ) = d o = d u = 2.79 d = 2.02 H o keine Auto- korrelation kann nicht zurückge- wiesen werden! d = 2.02

30 30 Test auf Autokorrelation: Beispiel 1 d = Indexwert für die Prüfung auf Autokorrelation e k = Residualgröße für den Beobachtungswert in Periode k (k = 1, 2, …, K) ?

31 31 Test auf Autokorrelation: Beispiel 2 d = Indexwert für die Prüfung auf Autokorrelation e k = Residualgröße für den Beobachtungswert in Periode k (k = 1, 2, …, K) ?

32 32 Keine perfekte Multikollinearität d.h. Forderung: Keine perfekte lineare Abhängigkeit der UVs Prüfung auf Multikollinearität: –1. Prüfung: Korrelationsmatrix der UVs –2. multiple Korrelation R 2 1 – R 2 (Toleranz) Variance Inflation Factor (VIF) = Kehrwert der Toleranz Abhilfemöglichkeiten: –Variablen (UVs) entfernen –Ersetzung von Variablen durch Faktoren PV: Starke

33 33 Beispiele für Regressionsmodelle

34 34 Bivariates Modell: Lineare Einfachregression REGRESSION /MISSING LISTWISE /STATISTICS COEFF OUTS CI R ANOVA TOL /CRITERIA=PIN(.05) POUT(.10) /NOORIGIN /DEPENDENT fr4_3 /METHOD=ENTER fr9_5 /CASEWISE DEPENDENT PRED RESID OUTLIRE (0) : = Zusammenhang? 0,000

35 35 t-Verteilung Standardnormalverteilung z = 1.96 γ = 0.05 z = 2.58 γ = 0.01 z = γ = z = γ = SPSS

36 36 Multiple Regression – Modell 1 (Ausgangsmodell) REGRESSION /MISSING LISTWISE /STATISTICS COEFF OUTS CI R ANOVA TOL /CRITERIA=PIN(.05) POUT(.10) /NOORIGIN /DEPENDENT fr4_3 /METHOD=ENTER fr6_2 fr9_5 fr29_4 fr29_10 fr40_24 /RESIDUALS HIST(ZRESID). Y: erklärte Streuung Y: nicht erklärte Streuung Y: Gesamt- Streuung SAQ y J K=2262 K-J-1 K-1 : = : = Quotient ? ? ? ?

37 37 Fs.: Multiple Regression – Modell 1

38 38 Fs.: Multiple Regression – Modell 1 Normalverteilung der Residuen?

39 39 Fs.: Multiple Regression – Modell 1

40 40 Multiple Regression – Modell 2 (+ LIRE) vorher:.113 vorher: vorher:.000

41 41 Multiple Regression – Modell 3 (+ Symp. CDU) vorher:.173 vorher:

42 42 Multiple Regression – Modell 4 (+ Symp. CSU) vorher:.434 ? r CDU CSU =.86

43 43 Multiple Regression – Modell 4 Modell 3 Modell 4

44 44 Zusammenfassung / Überblick zu den Modellen

45 45 Produktvariablen im linearen Regressionsmodell

46 46 Produktvariablen - 1 Interaktion: Offenheit x Bildung? R 2 =.281 R 2 =.285 nur: Produktvariable Ausgangsmodell

47 47 Produktvariablen - 2 BI und OE sind korreliert ! Explodieren des Zusammenhangs durch Produktbildung Abhilfe: Mittelwert herausnehmen (zentrieren reicht!) Korrelationsmatrix symmetrisch!

48 48 Produktvariablen - 3 Werte der z- standardisierten Produktvariablen x 1 · x 2 x1x1 x2x2 Für z- standardisierte Varaiblen:

49 49 Produktvariablen - 4 R 2 =.281 Ausgangsmodell Ausgangsmodell mit z-standardisierter Produktvariable z - Produktvariable R 2 =.285

50 50 Interpretation des Interaktionseffekts I negative Werte: Bildung, keine OE keine Bildung, OE positive Werte: Bildung, OE keine Bildung, keine OE Produktvariable (extrem) rechte Einstellungen

51 51 Interpretation des Interaktionseffekts II unter Mittelwert über Mittelwert BILDUNG OFFENHEI T über Mittelwert unter Mittelwert (n = 758) (n = 689) (n = 464) (n = 353) Gruppenmittelwerte (empirisch ermittelt) Geschätzte Werte (aus Modell ohne Interaktionseffekt)

52 52 Dichotome unabhängige Variablen im linearen Regressionsmodell

53 53 Vorstellung der Variablen NBL = 1 ABL = 0 dichotome Variable ABL NBL hohe Werte: Rechts Umfrage 2003

54 54 Modell 1: AV = LIX, UV = NBL NBL LIX 0 (ABL) 1 (NBL) Interpretation?

55 55 Modell 2: AV = LIX,UV = LIRE (getrennt: ABL,NBL) ABL NBL R 2 =.073 R 2 =.035 LIRE LIX Weiteres Vorgehen: Ein Modell? leichter Interaktionseffekt?

56 56 Modell 3: AV = LIX, UV = LIRE und NBL R 2 =.230 ABL + NBL R 2 =.073 R 2 = LIRE LIX LIRE LIX NBL 0 1 LIRE LIX Interaktion?

57 57 Modell 4: AV = LIX, UV = LIRE und NBL + Interaktion

58 58 Dummyvariablen als unabhängige Variablen im linearen Regressionsmodell

59 59 Bildung der Dummyvariablen Ausgangsvariable nachfolgende Berechnungen: Daten aus der Studie 2003 AV: Sympathie für die CSU (-5 … +5)

60 60 Lineare Abhängigkeit der Dummyvariablen Katholiken: kath = 1 ev = 0NoKo = 0 Σ = 1 Protestanten: kath = 0 ev = 1NoKo = 0 Σ = 1 keine Konf.: kath = 0 ev = 0NoKo = 1 Σ = 1

61 61 Bivariate Regressionen R 2 = R 2 = R 2 = 0.046

62 62 AV: Sympathie CSU, UV: 2 der 3 Dummyvariablen R 2 = 0.056

63 63 Umrechnung der unstandardisierten Koeffizienten

64 64 Empirische Ergebnisse zum Vergleich (Wdh.) R 2 = 0.056

65 65 Dummyvariablen zentriert R 2 = 0.056

66 66 Dummyregression zentriert

67 67 Dummyvariablen zentriert (Wdh.) R 2 = 0.056

68 68 Dummyvariablen z-standardisiert R 2 = 0.056

69 69 Dummyregression z-standardisiert – Teil I

70 70 Dummyregression z-standardisiert – Teil II zentrierte Werte SDs dividieren!

71 71 Dummyvariablen z-standardisiert (Wdh.) R 2 = 0.056

72 72 (SPSS) AV: Sympathie CSU; UVs: ev, kath, NoKo REGRESSION /MISSING LISTWISE /STATISTICS COEFF OUTS R ANOVA TOL /CRITERIA=PIN(.05) POUT(.10) /NOORIGIN /DEPENDENT fr5_3 (Sympathie/Antipathie CSU) /METHOD=ENTER ev kath NoKo /RESIDUALS HIST(ZRESID).

73 73 Vielen Dank für Ihre Aufmerksamkeit!

74 74


Herunterladen ppt "Methoden der Politikwissenschaft Regressionsanalyse Siegfried Schumann."

Ähnliche Präsentationen


Google-Anzeigen