Die Präsentation wird geladen. Bitte warten

Die Präsentation wird geladen. Bitte warten

Einfache Regressionsgleichung

Ähnliche Präsentationen


Präsentation zum Thema: "Einfache Regressionsgleichung"—  Präsentation transkript:

1 Einfache Regressionsgleichung
Ökonomische Theorie leitet Beziehungen zwischen unterschiedlichen ökonomischen Variablen ab Ziel der Ökonometrie: Verifizierung und Quantifizierung der abgeleiteten theoretischen Beziehung Beispiel: Wodurch und in welchem Ausmaß werden individuelle Löhne bestimmt? durch Ausbildung, Berufserfahrung? durch das Geschlecht ? Alexander Spermann WS 2007/2008

2 Einfache Regressionsgleichung
Beispiel: y = Lohn x = Schuljahre Ökonomische Theorie lässt positive Beziehung zwischen beiden Variablen vermuten allgemein: y = f(x) z.B. lineare Beziehung y =  +  x (Ökonomisches Modell) Quelle: Dougherty Alexander Spermann WS 2007/2008

3 Einfache Regressionsgleichung
reale Beobachtungen werden kaum auf einer Gerade liegen yi =  + xi + ui (Ökonometrisches Modell); i = 1,..., n (= 4) y = abhängige Variable, x = erklärende Variable u = Störterm (error term), erfasst zufällige sowie nicht beobachtbare Einflussfaktoren, die auf y wirken x ist eine nicht-stochastische exogene Variable Alexander Spermann WS 2007/2008

4 Einfache Regressionsgleichung - die Gauss-Markov Bedingungen
Der Annahmen der Methode der kleinsten Quadrate liegen folgende Gauss-Markov Bedingungen zugrunde: 1. Bedingung: Durchschnittswert der Störterme gleich Null 2. Bedingung: Homoskedastizität = gleiche Varianz der Störterme 3. Bedingung: Keine Autokorrelation (autocorrelation) zwischen den Störtermen 4. Bedingung: Der Störterm soll unabhängig verteilt von den erklärenden Variablen sein Alexander Spermann WS 2007/2008

5 Einfache Regressionsgleichung
Ökonometr. Modell: u Zufallsvariable  y ebenfalls Zufallsvariable E(y) = E( +  x + u) = E( +  x) + E(u) =  +  x lineare Beziehung zwischen E(y) und x y = E(y) + u Var(y) = E(y - E(y))2 = E(y -  -  x)2 = E(u)2 = Var(u) Alexander Spermann WS 2007/2008

6 Einfache Regressionsgleichung – 1. Gauss-Markov (GM) Bedingung
1. Gauss-Markov Bedingung: E(ui lxi) = 0 Durchschnittswert der Störterme gleich Null Intuition: Die positiven Störterm-Werte gleichen die negativen ui-Werte aus, so dass der Durchschnittswert bezogen auf y Null ist. Quelle: Gujarati Alexander Spermann WS 2007/2008

7 Einfache Regressionsgleichung – 2. Gauss-Markov Bedingung (1)
2. Gauss-Markov Bedingung: Var(ui|xi) = E[ui -E(ui)]² = E(ui)² wegen GM1 Homoskedastizität oder gleiche = ², z.B. ² = 5 Varianz der Störterme. Quelle: Gujarati Alexander Spermann WS 2007/2008

8 Einfache Regressionsgleichung – 2. Gauss-Markov Bedingung (2)
Zum Vergleich: Heteroskedastizität: Var(ui|xi) = i² , d.h. Var ≠ konst. Quelle: Gujarati Alexander Spermann WS 2007/2008

9 Einfache Regressionsgleichung – 3. Gauss-Markov Bedingung
3. Gauss-Markov Bedingung: Cov(ui,uj) = E[ui -E(ui)] E[uj -E(uj)] Keine Autokorrelation zwischen den Störtermen = E[ui uj] wegen GM1 = 0 i ≠ j Beispiel: Quelle: Gujarati Positive Autokorrelation Negative Autokorrelation keine Autokorrelation Alexander Spermann WS 2007/2008

10 Einfache Regressionsgleichung – 4. Gauss-Markov Bedingung
Kovarianz Null zwischen u und x : Cov(x, u) = 0. Intuition: Störterm und erklärende Variablen sind in verschiedenen Perioden (Zeitreihe) bzw. über verschiedene Individuen (Querschnitt) unabhängig voneinander. Der Störterm fängt alle fehlenden Variablen auf. Besonderheit: GM4 ist automatisch erfüllt, wenn x keine Zufallsvariable, d.h. nicht zufällig oder nicht stochastisch ist, oder GM1 gilt. Alexander Spermann WS 2007/2008

11 Einfache Regressionsgleichung – GM und Zentrales Grenzwerttheorem
Annahme der Normalverteilung (normality assumption) der Störterme ui: n sehr groß n groß n klein Zentrales Grenzwerttheorem (central limit theorem):  die theoretische Rechtfertigung für die Annahme der Normalverteilung von ui.  Aussage zur Angleichung an Normalverteilung mit steigendem n: „Wenn eine Zufallsvariable X den Durchschnittswert  und die Varianz 2 hat, dann wird die Verteilung der Stichprobe von X normal, wenn die Anzahl der Observationen n zunimmt.“  gilt auch für die Verteilung der Störterme ui Alexander Spermann WS 2007/2008

12 a und b sind die Schätzer für
Einfache Regressionsgleichung Ökonometrisches Modell: yi =  +  xi + ui , i = 1,..., n Ziel: Schätzwerte a und b für „wahre“ Parameter  und  geschätzte Werte sind dann: ŷi=a+bxi a und b sind die Schätzer für Quelle: Dougherty Alexander Spermann WS 2007/2008

13 Einfache Regressionsgleichung
OLS = Ordinary Least Squares = Methode der kleinsten Quadrate  Minimiere S (Ableiten nach a und b) ! ŷi=a+bxi = Kleinstquadratvorhersagen ei = Kleinstquadratresiduen Quelle: Dougherty Alexander Spermann WS 2007/2008

14 Einfache Regressionsgleichung
Kleinstquadrat- oder OLS-Schätzer: Alexander Spermann WS 2007/2008

15 Einfache Regressionsgleichung
Alexander Spermann WS 2007/2008

16 Einfache Regressionsgleichung – Streudiagramm
Streudiagramm (scatterplot) für: Alexander Spermann WS 2007/2008

17 Interpretation der Koeffizienten in empirischen Schätzgleichungen
Lineares Modell: y =  +  x + u  gibt an, um wie viel Einheiten sich y verändert , wenn x sich um eine Einheit verändert Alexander Spermann WS 2007/2008

18 Interpretation der Koeffizienten in empirischen Schätzgleichungen
Logarithmisches Modell: ln( y) =  +  ln(x) + u  gibt an, um wie viel Prozent sich y verändert , wenn x sich um ein Prozent verändert Alexander Spermann WS 2007/2008

19 Interpretation der Koeffizienten in empirischen Schätzgleichungen
Semi-Logarithmisches Modell: ln(y) =  +  x + u  gibt an, um wie viel Prozent sich y verändert , wenn x sich um eine Einheit verändert Alexander Spermann WS 2007/2008

20 Interpretation der Koeffizienten in empirischen Schätzgleichungen
Lohngleichungen werden üblicherweise als semi-logarithmisches Modell spezifiziert: ln(y)= ln(y0) + ß ·x u x = Schuljahre ß wird dann als Ertragsrate eines weiteren Schuljahres bzw. Berufserfahrungsjahres interpretiert (ß = „return to education“) Alexander Spermann WS 2007/2008

21 Bestimmtheitsmaß R2 (=Goodness of Fit)
Alexander Spermann WS 2007/2008

22 } Bestimmtheitsmaß R2 TSS = ESS + RSS TSS ESS RSS Alexander Spermann
WS 2007/2008

23 Bestimmtheitsmaß R2 = 0 Zwischen den Variablen Y und X herrscht keine
Beziehung: Alexander Spermann WS 2007/2008

24 Bestimmtheitsmaß R2 = 1 Alle Beobachtungen von Y und X liegen auf der
Regressionsgeraden, folglich werden diese vollständig von dem Modell erklärt: Alexander Spermann WS 2007/2008


Herunterladen ppt "Einfache Regressionsgleichung"

Ähnliche Präsentationen


Google-Anzeigen