Mehrfachregressionen Beispiel: Erklärung der Attraktivität von Städten für die Kunden des Einzelhandels Kundenbewertung B werde durch Umfrage ermittelt (Skala von 0 .. 10) Vermutung: B hängt entscheidend von Stadtgröße (EH-Fläche) und Hochwertigkeit des Güterangebotes (Umsatz/qm) ab
Erklärung der Standortattraktivität durch Mehrfachregression
Grafische Interpretation: Attraktivität B Umsatz U Fläche F a
Ergebnis im Beispiel: Zusammenhang ist rel. eng (hohes R2) Nur Fläche ist signifikant (t-Wert > 3) Koeffizienten geben keine Gewichtung von F und U an
Oft vorteilhaft: Einzelwerte zunächst standardisieren
Standardisierte Werte:
Koeffizienten ändern sich natürlich Bestimmtheitsmaß R2 und t-Werte aber unverändert
Wesentlicher Vorteil der Standardisierung: Koeffizienten = aussagekräftige Gewichte
Typischer Excel-Ausdruck (Auszug):
Wichtige Prüfmaße Bestimmtheitsmaß R2: Anteil erklärter Y-Abweichungen vom Mittelwert/Summe der Y-Abweichungen vom Mittelwert = Quadrat des Korrelationskoeffizienten R zwischen geschätzten und tatsächlichen Y-Werten; je näher an +1, desto besser Korrigiertes Bestimmtheitsmaß R2korr: Berücksichtigt Zahl der erklärenden Variablen (-) im Verhältnis zur Zahl der Schätzwerte (+) und somit Zahl der „Freiheitsgrade“; kann sinken, obwohl R2 steigt F-Wert: Prüft Gesamtverläßlichkeit der Schätzung, d.h. Wahrscheinlichkeit dafür, daß die Korrelation nicht nur zufällig besteht. F-Wert muß größer als kritischer F-Wert sein t-Wert = Koeffizient/Standardfehler: prüft Verläßlichkeit einzelner Koeffizienten, sollte nach Faustregel absolut größer als 3 sein Multikollinearität: einzelne oder alle erklärende Variablen sind voneinander linear abhängig (Korrelationsmatrix) => schränkt Erklärungskraft ein, kann zu falschen Vorzeichen und Werten führen Durbin-Watson-Test: prüft Autokorrelation (Residuen sind voneinander nicht unabhängig => Schätzung unzuverlässig): Residuen sollten innerhalb +/- 2* Standardabweichung liegen