Strategie der Modellbildung

Slides:



Advertisements
Ähnliche Präsentationen
Falls Algorithmen sich selbst rekursiv aufrufen, so kann ihr Laufzeitverhalten bzw. ihr Speicherplatzbedarf in der Regel durch eine Rekursionsformel (recurrence,
Advertisements

Simulation komplexer technischer Anlagen
Schnelle Matrizenoperationen von Christian Büttner
Theorie psychometrischer Tests, III
Multivariate Analysemethoden Johannes Gutenberg Universität Mainz
Newton-Verfahren Standardverfahren bringt keine Nullstelle
Einführung Übersicht Einsatz der Zielwertsuche Einsatz des Solvers
Minimieren ohne Ableitungen
Diese Fragen sollten Sie beantworten können
Simulation komplexer technischer Anlagen
Diese Fragen sollten Sie beantworten können
FH-Hof Optimierungsverfahren für kombinatorische Probleme Richard Göbel.
ARCH- und GARCH Modelle
1 Vorlesung Informatik 2 Algorithmen und Datenstrukturen (03 – Verschiedene Algorithmen für dasselbe Problem) Prof. Dr. Th. Ottmann.
Vorlesung Informatik 2 Algorithmen und Datenstrukturen (27 – Kürzeste Wege) Prof. Th. Ottmann.
Informatik II, SS 2008 Algorithmen und Datenstrukturen Vorlesung 4 Prof. Dr. Thomas Ottmann Algorithmen & Datenstrukturen, Institut für Informatik Fakultät.
1 Vorlesung Informatik 2 Algorithmen und Datenstrukturen (03 – Verschiedene Algorithmen für dasselbe Problem) Prof. Dr. Th. Ottmann.
Schwierigkeitsgrad III 6 X - 7 = X
Beispiele für Gleichungssysteme
V 12: Systemen partieller Differentialgleichungen
Produktform der Inversen 1
Zeitreihenanalyse WS 2004/2005 Michael Hauhs / Gunnar Lischeid
(Ron Rivest, Adi Shamit, Leonard Adleman , 1977)
Minimum Spanning Tree: MST
F FnFn z Prof. Dr. Johann Graf Lambsdorff Universität Passau SS a. Anhang zur Bestimmung der optimalen Taylor-Regel.
Approximation von Nullstellen: Newtonverfahren
Tutorium Aufgabe 1 Informationen in Designmatrix in: - Darin sind die Prädiktoren enthalten - Aber sagt uns noch mehr! Untersuchungsdesign darin.
Kontrollfragen zu Kapitel 1
Matrix-Algebra Grundlagen 1. Matrizen und Vektoren
Computergrafik – Inhalt Achtung! Kapitel ist relevant für CG-2!
Kapitel 9 Analyse der Modellstruktur
Effiziente Algorithmen
Sali zäma.
Partielle Autokorrelation
Ausgleichungsrechnung II
Quantum Computing Hartmut Klauck Universität Frankfurt WS 05/ /23.1.
Effiziente Algorithmen Hartmut Klauck Universität Frankfurt SS
Gleichungen und Gleichungssysteme
STATISIK LV Nr.: 0028 SS Mai 2005.
Kapitel 13 Zeitreihen und Zeitreihen-Modelle
Kapitel 15 Instrumentvariablen- Schätzung
Kapitel 10 Multikollinearität
STATISIK LV Nr.: 1375 SS März 2005.
Kapitel 9 Analyse der Modellstruktur Hackl, Einführung in die Ökonometrie 2 Rekursive OLS-Schätzung Spezifiziertes Modell: y = X + u y, u:
Kapitel 2 Das klassische Regressionsmodell
Kapitel 18 Dynamische Modelle: Schätzen der Parameter
Ökonometrie I Modellvergleich (Übersicht) Ökonometrie I2 Vergleich von Modellen Fragestellungen für Modellvergleich 1.Fehlende Regressoren.
Kapitel 18 Dynamische Modelle: Schätzen der Parameter.
STATISIK LV Nr.: 0021 WS 2005/ November 2005.
Lösung nichtlinear Gleichungssysteme
Methode der kleinsten Quadrate
DAS HERON-VERFAHREN Heron erkannte, dass man die Quadratwurzel einer Zahl bestimmen kann, indem man verschiedene Mittelwerte berechnet. Solche Nährerungsverfahren.
Das Heronverfahren arithmetisches Mittel geometrisches Mittel
3.4 ARMA- und ARIMA-Modelle
Zeitreihenanalyse und Prognoseverfahren
Newton Verfahren.
Lineare Gleichungen mit 2 Variablen
Integritätserhaltung und -Überprüfung in deduktiven Datenbanken
3.2 Autoregressive Prozesse (AR-Modelle) AR(p)-Prozesse
SFZ FN Sj. 13/14 Python 3 Rekursion Inf K1/2 Sj 13/14
Nichtlineare Optimierung
Anfang Präsentation 3. November, 2004 Tarjan’s Schleifenaufbrechalgorithmus In dieser Vorlesung wird ein Verfahren vorgestellt, welches in der Lage ist,
Lineare Gleichungen Allgemeine Einführung Äquivalenzumformungen
Geoinformationssysteme
Programmiersprachen II Fortsetzung Datenstrukturen Balancierte Bäume 3 Prof. Dr. Reiner Güttler Fachbereich GIS HTW.
Dr. Wolfram Amme, Semantik funktionaler Programme, Informatik II, FSU Jena, SS Semantik funktionaler Programme.
 Gegenstandsbereich der Testtheorie: Analyse der Charakteristika von Tests:  Güte von Tests.  Struktur von Tests.  Schwierigkeit von Tests.  Gruppenunterschiede.
Prognose von Zeitreihen Hans Nübel Hans Nübel Prognose von Zeitreihen Aufbau 1.Motivation 2.Holt-Winters-Verfahren 3.Prognose.
Multivariate Analysemethoden Johannes Gutenberg Universität Mainz
 Präsentation transkript:

Strategie der Modellbildung (Phasen der Modellbildung)

Modellschätzung Schätzung eines AR(p)-Modells Substitution der Autokorrelationen  durch die Stichprobenkorrelationen r in die Yule-Walker-Gleichungen: kompakt: Auflösen des Gleichungssystems nach dem Koeffizientenvektor  (falls Inverse von R existiert): enthält die geschätzten Parameter des Parametervektors eines AR(p)-Modells. .

Beispiel: AR(1)-Modell: AR(2)-Modell:

Schätzung von MA-Modellen (nach Box und Jenkins, 1970; vgl. auch Chatfield, 1980) · MA(1)-Modell: Ein Schätzer für den Parameter 1 könnte zwar aus der Bestimmungsgleichung für den Autokorrelationskoeffizienten 1. Ordnung (1)        unter Berücksichtigung der Bedingung ermittelt werden, doch hätte eine solche Schätzfunktion nur eine geringe Effizienz. Box und Jenkins schlagen daher ein Iterationsverfahren vor, in dem folgende Startwerte für  und 1 verwendet werden: gemäß (1)  Aus (1) folgt (quadratische Gleichung in ) Lösung der quadratischen Gleichung

Dann werden zunächst die Residuen rekursiv berechnet Dann werden zunächst die Residuen rekursiv berechnet. Die Rekursionsgleichungen sind allgemein im l-ten Iterationsschritt durch und da stets gleich 0 gesetzt wird: Es kann dann die Summe der quadrierten Residuen bestimmt werden: Die Iteration wird für alternative Werte für  und 1 durchgeführt, die mittels eines Gitternetzes in der -Ebene festgelegt werden. Als Kleinst-Quadrate-Schätzer werden diejenigen Werte für  und 1 gewählt, für die die Kriteriumsfunktion Q minimal wird: Sofern die Schocks Ut normalverteilt sind, sind die Kleinst-Quadrate-Schätzer zugleich Maximum-Likelihood-Schätzer.

Schätzung eines ARMA(p,q)-Modells [Bem.: Das Iterationsverfahren kann verfeinert werden durch ein sog. Backforecasting zur Bestimmung von . Dies ist jedoch nur erforderlich, wenn 1 nahe an 1 oder –1 herankommt.] Für Prozesse höherer Ordnung ist das Iterationsverfahren analog einsetzbar. So sind z.B. bei einem MA(2)-Prozess Anfangswerte zu ermitteln, aus denen die Residuen rekursiv ermittelt werden und die dann zur Berechnung der Residualquadratsumme Q ver-wendet werden. Allerdings bietet es sich bei MA-Prozessen höherer als 2. Ordnung an, auf nichtlineare Optimierungsverfahren wie z.B. das Gradiantenverfahren zurück­zugreifen, womit eine effizientere Bestimmung der Kleinst-Quadrate-Schätzer erzielt wird. Schätzung eines ARMA(p,q)-Modells

Kleinst-Quadrate-Kriterium: Dahinter steht die Tatsache, dass sich ein ARMA(p,q)-Prozess durch einen unendlichen MA-Prozess darstellen lässt. Dieser kann mit hinreichend großem r durch ein MA(r)-Prozess approximiert werden. Für tmax {p,q} sind die Residuen ut jedoch nicht bestimmbar, da die ut für t0 unbekannt sind und Startwerte für xt für t0 benötigt werden. CLS-Schätzung (conditional least-squares) [bedingte Kleinst-Quadrate-Schätzung]  Startwerte werden Null gesetzt: t=0 für t0 xt=0 für t0 Q ist keine quadratische Funktion der Parameter 1,...,p, 1,...,q, so dass die CLS-Schätzer mittels numerischer Optimierungsmethoden ausgehend von bestimmten Anfangswerten iterativ bestimmt werden müssen. Als numerische Optimierungsmethoden kommen z.B. das Newton-Raphson-Verfahren oder der Marquardt-Algorithmus in Betracht.

Mit den Schätzern im -ten Schritt erhält man die Residuen für t1 aus den Rekursionsgleichungen Daraus lässt sich die Residuen-Quadratsumme bestimmen. Mittels eines numerischen Optimierungsverfahrens werden neue Schätzer bestimmt, die die Bedingung erfüllen. Die Iteration wird so lange durchgeführt, bis das Verfahren konvergiert. Als Konvergenzkriterium kann z.B. die maximale Differenz der Schätzwerte der Parameter 1,...,p,1,...,q zweier aufeinanderfolgender Schritte verwendet werden:

Danach wird das Verfahren beendet, wenn die maximale Differenz zweier aufeinander folgender Parameterschätzer kleiner oder gleich einem vorgegebenen Wert  ist. sind dann die CLS-Schätzer: Die Residualvarianz ist durch gegeben. ULS-Schätzung (unconditional least-squares) [unbedingte Kleinst-Quadrate-Schätzung] Bei der unbedingten Kleinst-Quadrate-Schätzung werden Schätzwerte für x0,x-1,...,x1-r mittels einer sog. Backforecasting-Technik ermittelt, womit die Residuen für t=1–r,...,n rekursiv bestimmt werden können. Bei gegebenen x0,x-1,...,x1-r braucht man hierzu nur noch die Residuen ut für t<1–r gleich Null zu setzen. Das Backforecasting-Verfahren schätzt die Anfangswerte x0,x-1,...,x1-r durch eine „Prognose“ der Zeitreihe in die Vergangenheit.

Informationskriterien Um die Güte der Anpassung alternativer ARIMA-Modelle in Bezug auf ihre Prognosefähigkeit zu überprüfen, sind diverse Informationskriterien entwickelt worden. Sie basieren einerseits auf der logarithmischen Likelihood-Funktion und andererseits auf einer Straffunktion, die dem Prinzip der Sparsamkeit bei der Modellauswahl Rechnung tragen soll. Die Likeli-hood-Funktion allein als Auswahlkriterium heranzuziehen, wäre nicht adäquat. Denn sie weist stets eine bessere Modellanpassung aus, wenn das ARIMA-Modell umfangreicher wird. Je umfangreicher das ARIMA-Modell jedoch wird, um so größer ist die Gefahr, dass nicht­ signifikante Parameterschätzungen auftreten. Es werden möglicherweise Zufallsschwan-kungen berücksichtigt, die für die Prognose störend sein können. Die Modellschätzung insgesamt tendiert dahin, instabil zu werden, wenn das Modell überparametrisiert ist. Zum Schutz gegen ein derartiges „Overfitting“ wird zusätzlich eine Straffunktion (penalty function) eingeführt, die eine sparsame Modellbildung belohnt. Auf diese Weise trägt sie auch zu einer Selektion stabiler ARIMA-Modelle bei, die im Hinblick auf eine Prognose um-fangreicheren Modellen vorzuziehen sind. Die logarithmierte Likelihood-Funktion eines ARMA(p,q)-Modells wird aus der gemein-samen Dichtefunktion der multivariat verteilten Zufallsvariablen X1,X2,...,Xn bestimmt: Die Vektoren enthalten darin die Koeffizienten der MA- bzw. AR-Terme des ARMA-Modells. Für die Maximum-Likelihood-Schätzer der Parameter des ARMA-Modells wird die logarithmierte Likelihood-Funktion maximal:

Das bedeutet, dass ein ARMA-Modell bei gegebenen p und q größte „likelihood“ besitzt und damit die beste Anpassung aufweist, wenn seine Parameter durch geschätzt werden. Man kann nun zeigen, dass der maximale Wert der logarithmierten Likelihood-Funktion entscheidend von der Residualvarianz des ARMA (p,q)-Modells abhängig ist:        C ist darin eine Konstante, die für die Modellselektion nicht von Bedeutung ist. Je mehr Parameter das ARMA-Modell umfasst, um so kleiner wird die Residualvarianz und um so größer wird damit der maximale Wert der Likelihood-Funktion. Somit gilt für p’p und q’q stets Eine Erweiterung des ARMA-Modells kann folglich unter keinen Umständen zu einer Verschlechterung der Modellanpassung führen. In den Informationskriterien geht die logarithmierte Likelihood-Funktion in der Modifikation     ein. Akaikes Informationskriterium AIC kann in der Hinsicht interpretiert werden, dass ein umfangreiches ARMA-Modell dadurch „bestraft“ wird, dass die p+q Parameter von der maximierten Loglikelihood subtrahiert werden. Die Straffunktion ist dann einfach durch die Anzahl der Parameter eines ARMA-Modells gegeben. Unter Berücksichtigung der Modifikation (9) ist das AIC-Kriterium durch

gegeben. Auf der Grundlage dieses Kriteriums ist dasjenige ARMA-Modell vorzuziehen, das zu einem minimalen AIC-Wert führt. Die Erweiterung eines ARMA-Modells mit gegebenem p und q kann sowohl zu einem größeren als auch zu einem kleineren AIC-Wert führen. Denn bei einer Erhöhung der Parameterzahl sinkt zwar die Residualvarianz, aber es steigt der Wert der Straffunktion. Welcher der beiden Effekte letztlich dominiert, lässt sich a priori nicht voraussagen. Wie gut arbeitet nun das AIC-Kriterium? Eine wünschenswerte Eigenschaft wäre es, wenn das korrekte ARMA-Modell auf der Grundlage des AIC-Kriteriums fast sicher selektiert werden könnte, wenn der Stichprobenumfang, d.h. die Länge der Zeitreihe, immer größer wird. Diese Eigenschaft der Konsistenz erfüllt das AIC-Kriterium jedoch nicht. Es hat sich gezeigt, dass das AIC-Kriterium dazu tendiert, die Modellordnung zu überschätzen. Die verwendete Straffunktion ist nicht ausreichend. In der Zeitreihenanalyse kann das AIC-Kriterium unter diesem Aspekt verwendet werden, um eine obere Grenze der Modellordnung festzulegen. Ein konsistentes Informationskriterium ist dagegen das Bayessche Informationskriteri-um BIC:

Es ist ähnlich zu interpretieren wie das AIC-Kriterium, jedoch wird eine höhere Modellordnung beim BIC-Kriterium stärker bestraft. Ebenfalls konsistent ist das Hannan-Quinn-Kriterium HQ,        das sich von den Informationskriterien AIC und BIC durch die Straffunktion unterscheidet. c ist hierin eine wählbare Konstante, über die keine konkreten Aussagen gemacht werden. Die Restriktion c>1 sichert die Konsistenz dieses Kriteriums.   In der Praxis der Zeitreihenanalyse empfiehlt sich eine vorsichtige Anwendung der Informa-tionskriterien AIC und BIC bei der Modellauswahl. Beide Kriterien können eine Residuen-analyse zur Aufdeckung von Ausreißern und Verteilungsanomalitäten nicht ersetzen. Sie sollten erst dann angewendet werden, wenn diese Probleme hinreichend gelöst sind.