(1) (1) 3. Zur Kritik an der herkömmlichen Schätzmethodik im Rahmen der univariaten Regressionsanalyse Die Methodik der empirischen Makroökonomie ist seit.

Slides:



Advertisements
Ähnliche Präsentationen
Algorithmen und Datenstrukturen
Advertisements

Christian Scheideler SS 2009
Rekursion: Rekurrenz: Algorithmen rufen sich selbst (rekursiv) auf.
Falls Algorithmen sich selbst rekursiv aufrufen, so kann ihr Laufzeitverhalten bzw. ihr Speicherplatzbedarf in der Regel durch eine Rekursionsformel (recurrence,
Vorlesung Programmieren II
Algebraische Zahlen: Exaktes Rechnen mit Wurzeln
Prof. Dr. W. Conen 15. November 2004
Die wichtigste Frage des Lebens!
Empirische Forschung Empirisch = eine wissenschaftliche Vorgehensweise betreffend, die nicht auf theoretischen Begründungen, sondern auf nachvollziehbaren.
Projektumfeld Gesellschaftliche Strömungen Strukturen/ Gliederung
Forschungsstatistik II Prof. Dr. G. Meinhardt SS 2005 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz KLW-24.
Forschungsstatistik II
Forschungsstatistik II Prof. Dr. G. Meinhardt SS 2006 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz KLW-18.
Algorithmentheorie 04 –Hashing
Kapitel 5 Stetigkeit.
Kapitel 6 Differenzierbarkeit. Kapitel 6: Differenzierbarkeit © Beutelspacher Juni 2005 Seite 2 Inhalt 6.1 Die Definition 6.2 Die Eigenschaften 6.3 Extremwerte.
Mehrfachregressionen
6. Chaos-theoetische Konjunkturerklärung
2. Univariate Regressionsanalyse 2.1 Das statische Regressionsmodell
PG 520 Intelligence Service – gezielte Informationen aus dem Internet
(Ron Rivest, Adi Shamit, Leonard Adleman , 1977)
Strukturgleichungsmodelle
Konfidenzintervalle Intervallschätzung
Die Student- oder t-Verteilung
Achtung Vorlesung am Montag, den 21. Juni Zeit: Uhr Ort: Kiste.
Univariate Statistik M. Kresken.
Tutorium
Tutorium
Tutorium Aufgabe 1 Informationen in Designmatrix in: - Darin sind die Prädiktoren enthalten - Aber sagt uns noch mehr! Untersuchungsdesign darin.
Vorlesung: Biometrie für Studierende der Veterinärmedizin
Einfache Regressionsgleichung
Probleme der Modellspezifikation
Multikollinearität Wann spricht man von Multikollinearität?
Entwicklung standardorientierter Aufgaben – am Beispiel naturwissenschaftliche Erkenntnisgewinnung Jürgen Mayer.
Histogramm/empirische Verteilung Verteilungen
Einführung in die beurteilende Statistik
Partielle Autokorrelation
KOOTHS | BiTS: Makroökonomik WS 2013/2014, Teil 5 1 Makroökonomik Teil 5 Dr. Stefan Kooths BiTS Berlin Wintersemester 2013/2014
Kapitel 17 Erwartungen, Wirtschaftsaktivität und Politik
Quantum Computing Hartmut Klauck Universität Frankfurt WS 05/ /23.1.
Information und Kommunikation Hartmut Klauck Universität Frankfurt SS
Information und Kommunikation
Information und Kommunikation Hartmut Klauck Universität Frankfurt SS
§3 Allgemeine lineare Gleichungssysteme
Anspruchsmerkmale und technische Äquivalente
STATISIK LV Nr.: 1375 SS März 2005.
Statistik: Mehr zur Regression.
Kapitel 10 Multikollinearität
Kapitel 9 Analyse der Modellstruktur Hackl, Einführung in die Ökonometrie 2 Rekursive OLS-Schätzung Spezifiziertes Modell: y = X + u y, u:
Kapitel 2 Das klassische Regressionsmodell
Kapitel 18 Dynamische Modelle: Schätzen der Parameter
Ökonometrie I Analyse der Modellstruktur Ökonometrie I2 Rekursive OLS-Schätzung Spezifiziertes Modell: y = X + u y, u: n-Vektoren; X: Ordnung.
Kapitel 19 Kointegration
Kapitel 16 Ökonometrische Modelle
Einfache und multiple Regression
Projekt: Schüler verbessern ihren Unterricht
Projekt: Schüler verbessern ihren Unterricht
Tutorium Statistik II Übung IV Philipp Schäpers Mi – 11.45
Grundzüge II: Makroökonomie 11.Vorlesung,
10. KFKI-Seminar • • Bremerhaven
Empirische Sozialforschung am Beispiel der Limburger Nordstadt
Gegenstand der Psychologie
Methoden der Sozialwissenschaften
Tutorium zur Einführung in die Philosophie
Thema der Stunde I. Die Form der Stichprobenkennwerteverteilung
Programmiersprachen II Fortsetzung Datenstrukturen Balancierte Bäume 3 Prof. Dr. Reiner Güttler Fachbereich GIS HTW.
Die klassischen Methoden der historisch-vergleichenden Forschung Universität Zürich Soziologisches Institut Seminar: Methoden des internationalen Vergleichs.
 Gegenstandsbereich der Testtheorie: Analyse der Charakteristika von Tests:  Güte von Tests.  Struktur von Tests.  Schwierigkeit von Tests.  Gruppenunterschiede.
Außenhandelsbeziehungen zwischen China, USA, EU Makroökonometrie Vorlesung Dr. Oliver Bode.
Außenhandelsbeziehungen zwischen China, USA, EU Makroökonometrie Vorlesung Dr. Oliver Bode.
 Präsentation transkript:

(1) (1) 3. Zur Kritik an der herkömmlichen Schätzmethodik im Rahmen der univariaten Regressionsanalyse Die Methodik der empirischen Makroökonomie ist seit Mitte der siebziger Jahre in die Kritik geraten; Siehe z.B. Summers, L.H., 1991 The Scientific Illusion in Empirical Macroeconomics, Scandinavian Journal of Economics, 93, S Woran macht sich die methodische Kritik fest? Welche Alternativen werden vorgeschlagen?

(2) (2) 3.1 Die Kritik von Leamer (1) Leamer's Beispiel einer (makabren) Regressionsanalyse Abh. Variable: begangene Morde pro Einwohner Erklärende Variablen: (i) Abschreckungsvariablen: Aufklärungsquote Exekutionswahrscheinlichkeit bei Verurteilung mittlere Strafe für Mord (in Jahren) (ii) ökonomische Variablen: mittleres Familieneinkommen Prozentanteil der Familien unterhalb der Armutsgrenze Arbeitslosenquote

(3) (3) Die Kritik von Leamer (2) (iii) Variablen des soziale Umfelds: Prozentanteil Nicht-Wei ß e Prozentanteil Jugendliche st ä dtisches Umfeld (Dummy-Variablen) S ü dstaaten -Dummy

(4) (4) Die Kritik von Leamer (3) Die Regressionsanalyse wird mit einer Reihe von alternativen Spezifikationen, die sich durch den jeweils verwendeten Set von Regressoren unterscheiden; Ergebnis der Analyse: der Abschreckungseffekt von Exekutionen liegt – je nach Spezifikation – zwischen – 28 und + 12 (Morde pro Einwohner) Schlussfolgerung von Leamer: die Ergebnisse der Regressionsanalyse h ä ngen zu stark von der gew ä hlten Spezifikation ab, sie sind fragil ; weiterhin: das Vorurteil des Forschers k ö nnte einen Einfluss auf die Ergebnisse haben...

(5) (5) Die Kritik von Leamer (4) Welche Konsequenzen folgen aus der kritischen Analyse? Leamer schlägt vor, dass ein gewissenhafter Ökonometriker immer die Spannbreite angibt, innerhalb derer die geschätzten Koeffizienten bei unterschiedlichen Spezifikationen liegen; falls sich herausstellt, dass diese Spannbreite sogar einen Wechsel im Vorzeichen der Koeffizienten umfasst (wie im vorliegenden Beispiel), so muss der Ehrlichkeit halber gesagt werden, dass offensichtlich die Qualität bzw. der Umfang der Daten keine gesicherte Aussage zulässt;

(6) (6) Die Kritik von Leamer (5) Gegenkritik an Leamer Leamers Forderung (Publikationen von Spannbreiten) geht implizit davon aus, dass alle Spezifikationen gleich gut sind. Dies ist jedoch nicht der Fall: in aller Regel kann der Anwender zwischen den verschiedenen Spezifikationen anhand objektiver Testkriterien diskriminieren. Es mag jedoch auch dann noch eine Spannbreite der Ergebnisse von Schätzungen geben, die auf Grundlage der durchgeführten Tests annähernd gleich gut sind.

(7) (7) 3.2 Zur Kritik des probabilistischen Ansatzes (1) Probabilistischer Ansatz (Haavelmo, Econometrica 1944): The probabilistic approach in econometrics Stoßrichtung: gegen reinen Empirismus. Dieser lässt sich wie folgt karikieren: Ein hohes R 2 auf der Suche nach einer Interpretation... (Desai) Sherlock Holmes Ansatz: Its a capital mistake to theorize before you have all evidence (Leamer)

(8) (8) 3.2 Zur Kritik des probabilistischen Ansatzes (2) Kernthese von Haavelmo: Schlussfolgerungen aus einer Stichprobe von Beobachtungen müssen im Rahmen eines vorspezifizierten stochastischen Modells erfolgen, von dem angenommen wird, dass es die Erzeugung von Daten adäquat beschreibt.

(9) (9) Zur Kritik des probabilistischen Ansatzes (3) Die Vorstellung hinter dem probabilistischen Ansatz: die Relation wird durch einen stochastischen Störterm ergänzt; aus den Ergebnissen der Schätzung werden die strukturellen Parameter des zugrunde liegenden theoretischen Modells erschlossen; (Voraussetzung dafür ist, dass sich die strukturellen Parameter identifizieren lassen) Theorie liefert auf eindeutige Weise eine zu schätzende Relation; (gegebenenfalls ist zur Verwendung als Schätzansatz eine Transformation wie z.B. eine Linearisierung notwendig)

(10) (10) Haavelmo schwebt offenbar die Vorgehensweise der Naturwissenschaft vor, aber:... in real statistic analysis there are no true models (Durbin 1988) no laws in economics... (Kalman) konkrete Probleme: u.U. fehlende Identifizierbarkeit (alternative Modelle sind beobachtungsäquivalent) Strukturbrüche (Parameter sind keine Naturkonstanten) partieller Charakter jedes ökonomischen Modells Zur Kritik des probabilistischen Ansatzes (4)

(11) (11) Zur Kritik des probabilistischen Ansatzes (5) Der Haavelmo-Ansatz wendet sich gegen den unkritischen Empirismus, er hat eine idealtypische Verbindung von Theorie und Empirie vor Augen. Es ist jedoch fraglich, ob diejenigen, die sich auf den Ansatz berufen haben, diesen Anspruch tatsächlich eingehalten haben. Kritische Fragen in diesem Zusammenhang: Wurde der Haavelmo-Ansatz missbraucht? Trägt er grundsätzliche Schwächen in sich? Wurde die Rolle, die die Theorie spielen kann, überschätzt? Ist diese in der Lage, eine eindeutige Grundlage für die empirische Untersuchung zu liefern?

(12) (12) 3.3 Die Lucas-Kritik Ein grundsätzliches Problem einer Schätzung betrifft die unterstellte strukturelle Invarianz einer Schätzbeziehung; da ökonomische Beziehungen nicht den Status von Naturgesetzen haben, können sie sich im Zeitablauf verändern; sofern sich eine solche Veränderung abrupt vollzieht, spricht man von einem Strukturbruch; dieser kann durch Strukturbruchtests überprüft wird (sofern der Zeitpunkt der Veränderung a-priori bekannt ist: z.B. durch einen Chow-F-Test); Lucas (1976) hat aber noch ein tiefergehendes Problem aufgezeigt: Schätzbeziehungen können sich u.U. nicht nur durch äußere Ereignisse, sondern auch aufgrund ökonomischer Modellzusammenhänge (modellendogen) verändern!

(13) (13) Die Lucas-Kritik (2) Die Lucas-Kritik kommt insbesondere dann ins Spiel, wenn das Modell Verhaltenssteuerung durch Erwartungsbildung impliziert. Beispiel: Es sei unterstellt, dass über einen längeren Zeitraum eine Politik eines konstanten Geldmengenwachstums von m =5% bei einem realen Wachstum der Wirtschaft von Ŷ= 2% betrieben worden sei; die Inflationserwartungen Erwartungen haben sich demzufolge auf eine Höhe von e = m – Ŷ = 3% eingestellt. Mit Daten für diesen Zeitraum wird nun ökonometrisch eine Phillipskurve geschätzt, d.h. ein Zusammenhang zwischen Arbeitslosigkeit und Inflation.

(14) (14) Die Lucas-Kritik (3) Fortsetzung des Beispiels: Aus der makroökonomischen Theorie ist bekannt, dass die Lage der Phillipskurve von den Inflationserwartungen abhängig ist; d.h. der Lageparameter der Kurve ist nur solange stabil, wie die Inflationserwartungen konstant sind; falls nun die ökonometrisch bestimmte Phillipskurve als wirtschaftspolitische trade-off-Beziehung verstanden wird und die Politik die Beziehung ausnützen möchte (z.B. eine Reduktion der Arbeitslosigkeit durch expansive Politik anstrebt), verändern sich die Inflationserwartungen; damit wird der trade-off instabil, die Wirkung der Politik- maßnahme wird nicht mehr durch die ursprüngliche Schätzrelation beschrieben; aufgrund der modellendogenen Veränderungen kommt es damit zu einer Fehlprognose der Politikwirkungen.

(15) (15) Die Lucas-Kritik (4) Fortsetzung des Beispiels: Die Lucas-Kritik ist also insbesondere dann relevant, wenn Schätzergebnisse als Grundlage wirtschaftspolitischer Eingriffe dienen und Wirtschaftssubjekte rationale Erwartungen bilden; dies kann dazu führen, dass sich durch die politische Intervention die Parameter der ökonomischen Relation verändern; man könnte von einer durch Politikmaßnahmen verursachten endogenen Instabilität der Parameter eines Modells sprechen.

(16) (16) Die Lucas-Kritik (5) Konsequenzen Die Lucas-Kritik hat weit gehende Konsequenzen: Selbst wenn das Modell korrekt spezifiziert ist und die Parameter im Beobachtungszeitraum stabil waren, kann sich die Modellstruktur verändern, sobald wirtschaftspolitische Eingriffe erfolgen; damit wäre der Nutzen ökonometrischer Modelle für die Politikberatung fundamental infrage gestellt. Für die empirische Methodik entsteht das Problem, Tests zu entwickeln, die die Stabilität des Modells bei Politikänderungen überprüfen.

(17) (17) 3.4 Die Kritik von Hendry (data mining) (1) Worauf zielt der Vorwurf des data mining im Sinne von Hendry? Kritik an folgendem typischen Vorgehen: Gegeben sei eine abhängige Variable (z.B. Konsum); gegeben sei ferner eine Menge von Variablen, die als Regressoren in Frage kommen (z.B. das verfügbare Einkommen, Vermögen, Altersstruktur, Zinssätze, Konsumklima)

(18) (18) Die Kritik von Hendry (data mining) (2) Es existieren dann sehr viele Variationsmöglichkeiten für den Schätzansatz, z.B. durch Veränderung der Spezifikation der Schätzgleichung (z.B. Auswahl der Regressoren, der funktionalen Form, der Modellierung der Anpassungsprozesse) durch Wahl des Beobachtungszeitraums durch Wahl der konkreten Daten (z.B. Auswahl alternativer Zinssätze) Viele Varianten der Schätzgleichung können ohne großen Aufwand berechnet werden (und werden es in der Regel auch); dadurch kann meist eine große Spannbreite von Ergebnissen generiert werden.

(19) (19) Die Kritik von Hendry (data mining) (3) Der Suchprozess wird solange fortgesetzt, bis eine befriedigende Variante gefunden ist, d.h. der Forscher versucht eine Variante zu finden, in der Vorzeichen und Größenordnung der Parameter den theoretischen Erwartungen (oder dem Vorurteil) entsprechen und in der statistisch/ ökonometrische Kriterien erfüllt, z.B. auf ein hohes R 2, signifikante t- Statistiken, keine Autokorrelation etc. Dieses Vorgehen mag auf den ersten Blick vernünftig erscheinen, ist jedoch sehr methodologisch außerordentlich problematisch!

(20) (20) Die Kritik von Hendry (data mining) (4) Es besteht die Gefahr, dass das Ergebnis der Analyse sehr stark durch die subjektive Vormeinung der Forscher bestimmt wird. Damit wird ein wesentliches Prinzip des wissenschaftlichen Vorgehens verletzt: die Objektivität bzw. die zu fordernde Unvoreingenommenheit gegenüber dem Ergebnis der Analyse. Hendry karikiert dieses Vorgehen wie folgt: Die Daten werden solange gefoltert, bis sie gestehen. (If you torture the data long enough, nature will confess.) Er begründet seine Kritik am data mining mit Lovell´s Bias...

(21) (21) Die Kritik von Hendry (Lovells Bias) (5) Betrachtet wird ein Experiment, in dem voneinander unabhängige Zufallszahlen aufeinander regressiert werden; Modell1:

(22) (22) Die Kritik von Hendry (Lovells Bias) (6)

(23) (23) Die Kritik von Hendry (Lovells Bias) (7)

(24) (24) Die Kritik von Hendry (Lovells Bias) (8)

(25) (25) Die Kritik von Hendry (Lovells Bias) (9)

(26) (26) Die Kritik von Hendry (Lovells Bias) (10)

(27) (27) Experiment für Modell 2: Auswahl von 2 Regressoren aus c unabhängigen Zufallsvariablen Signifikante Koeffizienten Wahrscheinlichkeit bei Auswahl aus c Kandidaten ,7740,5990,3580, ,2040,3150,3770,031 mind %12%22,6%40,1%92,3% Die Kritik von Hendry (Lovells Bias) (11) Berechnung