Eigenschaften der OLS-Schätzer

Slides:



Advertisements
Ähnliche Präsentationen
T - Test Prüfung des Mittelwerteunterschieds bei abhängigen und unabhängigen Stichproben.
Advertisements

Forschungsstrategien Johannes Gutenberg Universität Mainz
Gliederung Vertrauensintervalle Arten von Hypothesen
Forschungsstatistik II
Forschungsstatistik II Prof. Dr. G. Meinhardt SS 2005 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz KLW-24.
Forschungsstatistik II Prof. Dr. G. Meinhardt SS 2006 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz KLW-18.
Forschungsstatistik II Prof. Dr. G. Meinhardt SS 2006 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz KLW-18.
Hypothesen testen: Grundidee
Induktive Statistik.
Statistische Methoden I
Statistische Methoden II
Die Vorlesung Statistische Methoden II findet am (nächste Woche) nicht nicht statt. Diese Vorlesung wird zu einem späteren Termin, der noch bekannt.
Statistische Methoden II SS 2008
Konfidenzintervalle Intervallschätzung
Statistische Methoden II SS 2008 Vorlesung:Prof. Dr. Michael Schürmann Zeit:Freitag (Pause: ) Ort:Hörsaal Makarenkostraße (Kiste)
M-L-Schätzer Erwartungswert
Statistische Methoden II SS 2007 Vorlesung:Prof. Dr. Michael Schürmann Zeit:Freitag (Pause: ) Ort:Hörsaal Loefflerstraße Übungen.
TESTS. Worum es geht Man möchte testen, ob eine bestimmte Annahme (Hypothese) über Parameter der Realität entspricht oder nicht. Beobachtung (Stichprobe)
Die Student- oder t-Verteilung
Erwartungswert und Varianz I Der endliche Fall Erwartungswert Varianz.
Konfidenzintervalle Intervallschätzung Jeder Beobachtung wird ein Intervall C( ) der reellen Zahlen zugeordnet Niveau Dabei ist die Wahrscheinlichkeit,
Statistische Methoden I SS 2005 Vorlesung:Prof. Dr. Michael Schürmann Zeit:Freitag (Pause: ) Ort:Hörsaal Loefflerstraße Übungen.
Statistische Methoden I SS 2005
Statistische Methoden I WS 2007/2008 Donnerstag, 31. Januar 2008 und Freitag, 1. Februar 2008 Probeklausur nächste Woche - statt Vorlesungen -
Maximum-Likelihood-Schätzer ( diskreter Fall) Likelihood-Funktion mit oder M-L-Schätzer.
Statistische Methoden I SS 2005
TESTS TESTS TESTS TESTS TESTS TESTS TESTS.
Klausurtermin (laut Prüfungsamt) Probeklausur Freitag, 13. Juni 2003 statt Vorlesung.
Achtung Vorlesung am Montag, den 21. Juni Zeit: Uhr Ort: Kiste.
II. Wahrscheinlichkeitstheorie
Die Vorlesung am 14. Mai (Tag nach Himmelfahrt) wird auf Montag, den 17. Mai verlegt! Zeit: 16 Uhr Ort: Kiste Nächste Woche!!!!
Statistische Methoden II SS 2003 Vorlesung:Prof. Dr. Michael Schürmann Zeit:Freitag (Pause: ) Ort:Hörsaal Loefflerstraße Übungen.
III. Induktive Statistik
Statistische Methoden II SS 2003
Maximum-Likelihood-Schätzer ( diskreter Fall) Likelihood-Funktion mit oder M-L-Schätzer.
Achtung Vorlesung am Montag, den 21. Juni Zeit: Uhr Ort: Kiste.
Achtung Vorlesung am Montag, den 21. Juni Zeit: Uhr Ort: Kiste.
Bedingte Wahrscheinlichkeiten und diagnostische Tests II
Unser neuntes Tutorium
Vorlesung: ANOVA I
Dummy-Variablen Gleicher Lohn bei gleicher Qualifikation: Frauen verdienen im Durchschnitt zwar weniger als Männer, aber ist die Ursache dafür in der Diskriminierung.
Einfache Regressionsgleichung
Probleme der Modellspezifikation
Multikollinearität Wann spricht man von Multikollinearität?
Wiederholung: Einfache Regressionsgleichung
Formulierung und Überprüfung von Hypothesen
Die Poisson-Verteilung: Mittelwert und Standardabweichung
Mittelwert und Standardabweichung
STATISIK LV Nr.: 1375 SS März 2005.
STATISIK LV Nr.: 0028 SS Mai 2005.
STATISIK LV Nr.: 0028 SS Mai 2005.
STATISIK LV Nr.: 0021 WS 2005/ Oktober 2005.
STATISIK LV Nr.: 1852 WS 2005/ Dezember 2005.
STATISIK LV Nr.: 1375 SS März 2005.
Konfidenzintervall und Testen für den Mittelwert und Anteile
Kapitel 18 Dynamische Modelle: Schätzen der Parameter
Kapitel 3 Lineare Regression: Schätzverfahren
Mehr zum Testen von Hypothesen
STATISIK LV Nr.: 0021 WS 2005/ November 2005.
1 Stichprobenverfahren zur Qualitätssicherung Hilfestellung der Statistik in der Wirtschaftsprüfung.
Zusammengestellt von Mag. Raimund Hermann
1 STATISIK LV Nr.: 0021 WS 2005/ November 2005.
Tutorium Statistik II Übung IV Philipp Schäpers Mi – 11.45
Einführung zur Fehlerrechnung
2.4 Residualkomponente und Korrelogramm
STATISIK LV Nr.: 1852 WS 2005/ Jänner 2006.
Stochastik ganz kurz Beispiel diskret Würfelwurf Beispiel stetig
Der Binomialtest Man habe einen wahren Anteil P. Kann man aufgrund von p sagen, daß in der Population tatsächlich der Anteil P zugrunde liegt? [Beispiele]
STATISIK LV Nr.: 1375 SS März 2005.
/ SES.125 Parameterschätzung
 Präsentation transkript:

Eigenschaften der OLS-Schätzer Erinnerung: OLS-Schätzer a und b werden anhand der Zufallsvariable y ermittelt (Ann.: u und y normalverteilt) a und b sind ebenfalls Zufallsvariablen und unterliegen dann ebenfalls Normalverteilung mit Erwartungswert und Varianz Was sagen Erwartungswert und Varianz von a und b aus? Man kann zeigen, dass E(a) =  und E(b) = ß, d.h. dass die OLS-Schätzer erwartungstreu (unverzerrt) sind, was bedeutet, dass der Durchschnittswert der Schätzer beim wahren Wert  und  liegt a 

Eigenschaften der OLS-Schätzer Verteilung des Schätzers b Wahrscheinlichkeit b Wahrscheinlichkeit b  b b  Systematische Unterschätzung (biased estimator), wobei  der wahre Wert und b der Schätzer sind Erwartungstreuer OLS-Schätzer (unbiased estimator)

Eigenschaften der OLS-Schätzer Weiterhin kann man zeigen, dass gilt: Der OLS-Schätzer ist ein effizienter Schätzer = varianzminimaler Schätzer Wahrscheinlichkeit b Wahrscheinlichkeit b  b  b Inefficient Estimator Efficient Estimator Quelle: Pindyck; Rubinfeld

Gauss-Markov Theorem (BLUE) Unter OLS-Annahmen sind OLS-Schätzer a und b beste, lineare, unverzerrte Schätzer Best: Minimum-Varianz = effizienter Schätzer Linear: a und b sind Linearkombinationen aus x und y Unbiased: unverzerrt E(B) = ß, E(a) =  Estimator: Schätzer

4. Sitzung: Hypothesentest Schätzgleichung: y= + ßx+u „Wahre“ Parameter  und ß sind unbekannt, wie kann von Schätzwerten a und b auf wahre Parameter geschlossen werden? H0: Nullhypothese H1: Alternativhypothese H0 : ß = ß0 H1 : ß ≠ ß0 ß0 kann hierbei beliebigen Wert annehmen (wichtiger Fall: ß0 = 0)

Type I Error (-Fehler) Definition: Wahre Nullhypothese wird verworfen. Die Wahrscheinlichkeit P für diesen Fehler soll üblicherweise minimiert werden. Beispiel: P = 0,05 Gesucht: Verteilung für Schätzer b unter der Annahme, dass Nullhypothese wahr ist, also ß = ß0 b normalverteilt, bei bekannter Varianz Var(b) kann b derart normiert werden, so dass auf tabellierte Standard-Normalverteilung N(0,1) zurückgegriffen werden kann Problem: Var(b) nicht bekannt, sondern muss geschätzt werden!

t-Test (zweiseitig oder two-tailed) Man kann zeigen, dass folgender Ausdruck t-(oder „student“)-verteilt ist: wobei s.e.(b) = geschätzte Standardabweichung vom Schätzer b Wie kommen Werte t0,025 = - 2 und t0,975 = 2 zustande? Quantile hängen normalerweise von der Anzahl der Beobachtungen und der erklärenden Variablen ab: -2 und 2 gelten approximativ für großes n (Stichprobengröße). Faustregel: H0 wird abgelehnt, wenn | t | > 2 . t

t-Test (zweiseitig oder two-tailed) Intuition: bedeutet, dass Differenz zwischen Schätzwert b und ß0 relativ groß ist, je größer diese Differenz, desto eher wird natürlich H0 abgelehnt s.e.(b), d.h. geschätzte Standardabweichung von b relativ klein ist: Je genauer der Schätzwert b, desto weniger wird Abweichung zwischen b und ß0 „toleriert“ und desto eher wird H0 abgelehnt t

t-Test Beispiel: H0 : ß = 0 H1 : ß ≠ 0 Dieser Wert wird üblicherweise von Standard-Statistik-Software im Regressionsoutput automatisch ausgegeben.  H0 („Schulbildung hat keinen Einfluss auf Lohn“) wird abgelehnt

4. Sitzung: Hypothesentest

t-Test Anderes Beispiel: H0:  = 1 H1:  ≠ 1  H0 wird nicht verworfen

Type I Error (-Fehler) Definition: Wahre Nullhypothese wird verworfen. Intuition: Je geringer das Signifikanzniveau, desto unwahrscheinlicher ist das Risiko eines Typ I Fehlers. Also ist z.B ein 0.1%-iges Signifikanzniveau sicherer in bezug auf den Typ I Fehler. Interpretation für ß0 = 0: Wenn „wahres“ ß = 0 ist, dann wird mit nur 0,1%-iger Wahrscheinlichkeit fälschlicherweise geschlossen, dass ß von Null verschieden ist

 - Wahrscheinlichkeit Signifikanzniveau Intuition: Je geringer das Signifikanzniveau, desto höher ist die Hürde, die Nullhypothese zu verwerfen. 0.1% Extrem hohe Hürde 1% Verschärfung 5% Standard Signifikanzniveau  - Wahrscheinlichkeit

Type II Error (-Fehler) Definition: Falsche Nullhypothese wird nicht verworfen. Intuition: Je geringer das Signifikanzniveau, desto wahrscheinlicher ist das Risiko eines Typ II Fehlers, weil die Anforderungen an das Verwerfen der Nullhypothese steigen.  trade-off zwischen Typ I und Typ II Fehler Graphische Intuition: je geringer das Signifikanzniveau, desto größer ist die Akzeptanzregion für die Nullhypothese, desto wahrscheinlicher ist ein Typ II Fehler t Quelle: Pindyck, Rubinfeld

Einseitiger Test (one-tailed test) Hypothesen: H0: ß < (>) ß0 H1: ß > (<) ß0 Faustregel: H0: ß < ß0 wird abgelehnt, wenn (siehe Grafik) H0: ß >ß0 wird abgelehnt, wenn t Quelle: Pindyck, Rubinfeld

Einseitiger Test (one-tailed test) z.B. Hypothese: H0: ß < 0 H1: ß > 0 Ökonomische Begründung: negative Werte des Regressionskoeffizienten machen ökonomisch keinen Sinn. Vorteil: Bei gleichem Signifikanzniveau sinkt der kritische Wert tcrit. Das heißt, die Nullhypothese wird eher verworfen als bei einem zweiseitigem Test. Achtung: Das Risiko eines Typ I Fehlers bleibt gleich, nämlich 5%, weil das Signifikanzniveau unverändert bleibt. Aber das Risiko eines Typ II Fehlers sinkt, weil die Nullhypothese eher verworfen wird als beim two-tailed test. t Quelle: Pindyck, Rubinfeld

Konfidenzintervall Konfidenzintervall : Gegenstück zum Hypothesentest P [-2 < t < 2] = P [-2 < < 2] = 0.95 P [b - 2· s.e.(b) < ß0 < b + 2 ·s.e.(b)] = 0.95 t t

Berechnung des Konfidenzintervalls untere Grenze: obere Grenze: Bei Signifikanzniveau von 5%: Konfidenzintervall: [0,060 ; 0,092]  Wert ß0 = 0 nicht enthalten

Konfidenzintervall Das Konfidenzintervall ist durch das gewählte Signifikanzniveau festgelegt. Beispiel: Die Endpunkte des Konfidenzintervalls werden durch den Schätzer b und seine Standardabweichung bestimmt  untere und obere Konfidenzintervallgrenzen sind Zufallsvariablen Richtige Interpretation: Die Wahrscheinlichkeit, dass das Konfidenzintervall den wahren Wert 0 enthält, ist 95 %. Falsche Interpretation: Die Wahrscheinlichkeit ist 95 %, dass der wahre Wert in diesem Intervall liegt. Nein, diese Wahrscheinlichkeit ist entweder 0 oder 1. 99,9 % 0,1 % 99 % 1 % 95 % 5 % Signifikanzniveau Konfidenzintervall P 1- P