Die Präsentation wird geladen. Bitte warten

Die Präsentation wird geladen. Bitte warten

Ökonometrie II Multikollinearität.

Ähnliche Präsentationen


Präsentation zum Thema: "Ökonometrie II Multikollinearität."—  Präsentation transkript:

1 Ökonometrie II Multikollinearität

2 Der Sachverhalt Modell Y = Xb + u, Ordnung von X: nxk
Annahme A2: r(X) = k In der Realität: Spalten von X können Linearkombinationen anderer Spalten sein („Rangabfall“); Determinante von X‘X ist Null Regressoren können hoch korreliert sein; Determinante von X‘X hat Wert nahe bei Null Fragestellungen: Konsequenzen von Multikollinearität Möglichkeiten zum Identifizieren von Multikollinearität Möglichkeiten, die Auswirkungen von Multikollinearität zu vermindern Multikollinearität

3 Ein Beispiel Rang von X‘X ist 2
Determinante det(X‘X) von X‘X hat Wert Null Die Inverse (X‘X)-1 kann ermittelt werden als (CX‘X: Matrix der Kofaktoren); ist nicht definiert, wenn det(X‘X) = 0 Achtung! Korrelation zwischen 2. und 3. Spalte von X ist 1! Multikollinearität

4 Konsumfunktion C = b0 + b1 Ya + b2 Ye + b3 Yt + u C: Privater Konsum
Ya: Einkommen aus unselbständiger Erwerbstätigkeit Ye: Einkommen aus Besitz und Unternehmung Yt: gesamtes Einkommen (Yt =Ye + Ya) X hat Ordnung nx4, aber Rang 3; X‘X hat Ordnung 4x4, aber Rang 3; die Inverse (X‘X)-1 existiert nicht! Multikollinearität

5 Korrelierte Regressoren
Ordnung von X: nxk X‘X kann eine nahezu singuläre Matrix sein Invertieren von X‘X liefert sehr große Werte Wegen Var{bt} = s2 (Xt’Xt)-1 sind Standardabweichungen der Schätzer gross Die t-Werte sind klein, die Macht der t-Tests ist reduziert Multikollinearität

6 Konsumfunktion, Forts. C = a + b1 Ya + b2 Ye + u
OLS-Schätzer für b1, geschrieben als partieller Regressionskoeffizient: bca: Schätzer aus einfacher Regression C = a + b1 Ya + u; analog bce, bea rae: Korrelationskoeffizient zwischen Ya und Ye rae = 1; z.B. für Ye = c Ya: bce = c bca, bae = c-1 bca.e = 0/0 (unbestimmte Form) für orthogonale Regressoren gelten rae = bae = 0 und bca.e = bca Multikollinearität

7 Identifizierte Parameter
C = a + b1 Ya + b2 Ye + u Lineare Abhängigkeit: Ye = c Ya C = a + (b1 + cb2 )Ya + u = a + g Ya + u OLS-Schätzer für g = b1 + cb2 kann problemlos berechnet werden, nicht aber für b1 und b2 Man sagt: g ist identifiziert, b1 und b2 sind nicht identifiziert Multikollinearität

8 Konsumfunktion für 1976-2001 Datensatz DatS01 (Konsum und Einkommen)
C = b0 + b1 YDR + b2 PC + b3 MP + u C: Privater Konsum YDR: verfügbares Einkommen der Haushalte PC: Konsumdeflator MP: privates Geldvermögen Multikollinearität

9 Konsumfunktion, Forts. Dependent Variable: CR Method: Least Squares
Date: 04/28/05 Time: 20:26 Sample(adjusted): Included observations: 26 Variable Coefficient Std. Error t-Statistic Prob. C YDR MP PC R-squared Mean dependent var Adjusted R-squared S.D. dependent var S.E. of regression Akaike info criterion Sum squared resid Schwarz criterion Log likelihood F-statistic Durbin-Watson stat Prob(F-statistic) Multikollinearität

10 Konsumfunktion, Forts. Dependent Variable: CR Method: Least Squares
Date: 04/28/05 Time: 20:29 Sample(adjusted): Included observations: 26 Variable Coefficient Std. Error t-Statistic Prob. C YDR PC R-squared Mean dependent var Adjusted R-squared S.D. dependent var S.E. of regression Akaike info criterion Sum squared resid Schwarz criterion Log likelihood F-statistic Durbin-Watson stat Prob(F-statistic) Multikollinearität

11 Multikollinearität Orthogonale Regressoren: für jedes Paar von Spalten xi und xj aus X gilt xi‘xj = 0 Unkorrelierte Regressoren: für jedes Paar von Spalten xi und xj aus X gilt rij = 0 Unter Multikollinearität versteht man das Nicht-Zutreffen der Orthogonalität der Regressoren bzw. das Nicht-Zutreffen der Unkorreliertheit der Regressoren Konsequenzen von Multikollinearität sind umso gravierender, je stärker die Regressoren korreliert sind Häufige Ursache für Multikollinearität ist ein gemeinsamer Trend zwischen den Regressoren; Achtung bei Lagstrukturen Multikollinearität

12 Residuendarstellung von bi
Modell Y = Xb + u, Ordnung von X: nxk OLS-Schätzer für bi (vergl. Kap. 6.3 in Hackl, 2004): Mi: residuenerzeugende Matrix für Regression von Xi auf alle Spalten von X außer Regressor Xi („Hilfsregression für Xi“) = Mixi: Residuen der Regression von Xi auf alle Spalten von X außer Xi Multikollinearität

13 Schätzer für unkorrelierte Daten
Die Matrix A = I – i(i‘i)-1i‘, i=(1,…,1)‘, erzeugt zentrierte Xi: AX2 enthält Abweichungen von den Mittelwerten für die Spalten Xi, i=2,…,k Für orthogonale Regressoren ist X2‘AX2 eine Diagonalmatrix i-te Komponente von b2: mit bi* stimmt mit dem OLS-Schätzer von bi aus Y = a+biXi+u überein Multikollinearität

14 Vergleich von bi und bi*
OLS-Schätzer bi sind unverzerrt; das gilt für die Schätzer bi* im allgemeinen nicht die Varianz von bi kann sehr viel größere Werte annehmen als die Varianz von bi* der Schätzer der Varianz der Störgrößen ist unverzerrt Multikollinearität

15 Ein Maß für Multikollinearität
mit TSS = , RSS = Ri2 ist das Bestimmtheitsmaß der Regression von Xi auf die Spalten von X ohne Xi („Hilfsregression“) Ri2 ≈ 0: bi* ≈ bi, Korr{Xi,Xj} ≈ 0 für alle i ≠ j; Ri2 ≈ 1: RSS << TSS, d.h. Xi ist lineare Funktion der Spalten von X ohne Xi Multikollinearität bedeutet, dass Ri2 ≈ 1 für mindestens ein i Multikollinearität

16 Indikatoren für Multikollinearität
Bestimmtheitsmaße Ri2 der Hilfsregressionen VIFi (variance inflation factors) Determinante der Matrix der Korrelationskoeffizienten der Regressoren (ein Wert nahe bei Null zeigt Multikollinearität an) Konditionszahl (condition index, condition number) k von X‘X: lmax (lmin) ist maximaler (minimaler) Eigenwert von X‘X; ein großer Wert (>20) von k ist Hinweis auf Multikollinearität Effekt des Hinzufügens eines Regressors auf se(bi): Regressor ist (a) relevant: se(bi) wird größer; (b) multikollinear: se(bi) wird kleiner Multikollinearität

17 Die Größen VIFi und Ri2 : variance inflation factor von bi
Ergibt sich aus VIFi ≈ 0: Ri2 ≈ 0, bi* ≈ bi, Corr{Xi,Xj} ≈ 0 für alle i ≠ j; kein Problem mit Multikollinearität VIFi ≈ 1 für mindestens ein i: Ri2 ≈ 1, Xi ist lineare Funktion der Spalten von X ohne Xi; Achtung! Multikollinearität Multikollinearität

18 Gründe für große Var{bi}
Ist SXti2 klein: zu wenig Beobachtungen (extrem: n < k) Ist klein: zu geringe Varianz der Xti (extrem: Var {Xi} = 0) Ist : Multikollinearität (extrem: Ri2 = 1) Multikollinearität

19 t-Test bei Multikollinearität
Der Schätzer für s wird durch Multikollinearität nicht gestört; se(bi) wird bei Multikollinearität überschätzt t-Test von H0: bi=0; Teststatistik T = bi/se(bi) unter H0 gilt: T ~ t(n-k), unabhängig von Multikollinearität (kein Effekt auf Wahrscheinlichkeit des Typ I Fehlers) unter H1: bi ≠ 0 gilt: Wahrscheinlichkeit des Typ II Fehlers wächst mit Var{bi} Multikollinearität

20 Maßnahmen bei Multikollinearität
Vergrößern der in die Schätzung einbezogenen Datenmenge Eliminieren der für Multikollinearität verantwortlichen Regressoren Bei gemeinsamen Trends: Spezifikation des Modells in Differenzen statt in Niveauwerten Berücksichtigen von Information über Struktur der Parameter Multikollinearität


Herunterladen ppt "Ökonometrie II Multikollinearität."

Ähnliche Präsentationen


Google-Anzeigen