Zeitreihenanalyse WS 2004/2005 Michael Hauhs / Gunnar Lischeid Definition einer Zeitreihe, Eigenschaften Tests und Trenderkennung bei Zeitreihen Beispiele (ACF, Tests), Fouriertransformationen, Powerspektrum Zeitreihenmodellierung der ARMA-Klasse Modellierung von Zeitreihen mit langem Gedächtnis Kausalität, Transferfunktionen, multivariate Methoden Skalierung, (Multi-)Fraktale Komplexität und Information von Zeitreihen Wavelets
1. Die Box-Cox Transformation für Zeitreihen Dabei wird c so gewählt, dass der Ausdruck in der Klammer immer > 0 wird Die Box-Cox Transformation hat das Hauptziel, die Wahrscheinlichkeitsdichte der Werte einer Normalverteilung anzunähern. Bestimmte Instationaritäten lassen sich so ebenfalls vermindern.
2. Schätzung von Mittelwert und Varianz 3. Kovarianzmatrix
4. Bestimmung des ML-Funktionals Bedingte kombinierte Wahrscheinlichkeit: Bedingte Erwartungswerte des Rauschens: Es gilt (Box und Jenkins 1976)
ML-Optimierung Damit ist das ML-Funktional: Parametervektor 5. Maximierung zur Bestimmung der opt. Parameter Oft ändert sich die Determinante nur langsam; dann wird nur minimiert Optimierung i.d.R. numerisch mit Standardverfahren (Powell-Algorithmus)
Wie genau sind die Parameter bestimmt? Informationsmatrix: Standardfehler der geschätzten Parameter: Algorithmische Umsetzung: Box-Jenkins-Verfahren (1976)
6. Portmanteau Test für Residuen Nach Identifikation eines ARMA(p,q)-Modells bestimmt man die Residuen und die residuale Autokorrelationsfunktion Die Portmanteau-Statistik ist dann und genügt einer 2-Verteilung mit (L-p-q) Freiheitsgraden
B. Qualitätsbeurteilung verschiedener ARMA-Modelle: Akaike Informations-Kriterium soll minimiert werden! Plausibilität eines Modells i gegenüber einem anderen j:
Beispiel: Sonnenfleckenzahlen Ablesebeispiel: ARMA(5,5) ist mit einer Wahr- scheinlichkeit von 5.5% besser als das beste Modell
Modellierung von Zeitreihen mit langem Gedächtnis Problem der ARMA/ARIMA(p,q)-Modelle: Autokorrelation fällt exponentiell für grosse Abstände ( ) Beobachtete Zeitreihen haben aber oft ein langes Gedächtnis: Wiederholung: Das Gedächtnis M einer Zeitreihe ergibt sich aus den Autokorrelationskoeffizienten Langes Gedächtnis Z.B. wenn für grosse Abstände (algebraisches Abklingen)
Modellierung beliebig langreichweitiger Korrelationen: Fractional Autoregressive Integrated Moving Average (FARIMA) Modelle Beobachtungen, unkorreliertes (Gaußsches) Rauschen Rückwärtsschiebeoperator Autoregressives Polynom der Ordnung p Moving Average Polynom der Ordnung q Differenzenoperator Reihenentwicklung: D.h. alle vorangegangenen Zeitpunkte tauchen auf (bis zum Abbruch)!
Verhalten von FARIMA(p,d,q)-Modellen Verhalten der Autokorrelation: d heißt Persistenz-Parameter (d=0 keine, d=0.5 maximale Persistenz)
Vorgehen bei der Konstruktion von FARIMA(p,d,q)-Modellen an Beispielen (Montanari et al., WRR 33, 1035-1044 (1997); WRR 36, 1249-1259 (2000)) x(t): 51 Jahre tägliche Werte, 18748 Datenpunkte; 122 Jahre monatliche Werte, 1466 Datenpunkte Elimination von periodischen Instationaritäten: Desaisonalisierung mit geeignetem Verfahren Berechnung der Autokorrelation für die desaisonalisierte Reihe und Abschätzung der benötigten Terme für den Differenzenoperator Ggf. Transformation der Daten, um Normalverteilung zu approximieren (Box-Cox-Transformation), nicht immer nötig Bestimmung einer ersten Schätzung für d (Hurst-Analyse) Wahl von p und q und Ermittlung der optimalen Koeffizienten mit Maximum Likelihood-Verfahren Auswahl des besten Modells mit dem Akaike-Informations-Kriterium
Untersuchung der Residuen (unkorreliertes Gaußsches Rauschen Untersuchung der Residuen (unkorreliertes Gaußsches Rauschen?) mit dem Portmanteau-Test Simulation der Zeitreihe mit dem besten Modell und Vergleich von Autokorrelation und Wahrscheinlichkeitsverteilung Falls erfolgreich: Abflussgenerator gefunden!
Beispiel: Lago Maggiore-Zufluss Langreichweitige Autokorrelationen sind klar vorhanden. Die Entwicklung des Differenzenoperators sollte ca. 100 Terme umfassen.
Die Portmanteau-Statistik zeigt: optimales Modell ist FARIMA(1,0.38,1), genauer: ...aber auch, dass das Restrauschen nicht Gaußsch ist!
Das Restrauschen ist nicht signifikant korreliert Das Restrauschen ist nicht mit einer Normalverteilung verträglich
Die Simulationen mit dem optimalen Modell liefern AKFs und pdfs, die die Beobachtungen sehr gut widerspiegeln
Das Hurst-Phänomen H: Hurst-Koeffizient (-Exponent) Beobachtung (Hurst 1951): Der Wertebereich q oder die Höhe von Extremereignissen hängt von der gewählten Zeitauflösung oder Aggregation k wie eine Potenzfunktion ab: H: Hurst-Koeffizient (-Exponent) Theoretische Rechnung: Bei Prozessen erster Ordnung (Random Walk, ARIMA(0,1,0), Brownsche Bewegung) gilt Beobachtung an Nil-Hochwässern (2000 Jahre): D.h. die Extremereignisse wachsen sehr viel schneller an: Persistenz
Längste hydrologische Zeitreihe der Welt: Das Nilometer bei Kairo: Längste hydrologische Zeitreihe der Welt: 621-1921 A.D. aus: Sutcliffe and Parks (1999)
Nil-Abfluß
Nile runoff 1872 - 1996 Years
Beispiel Nil: Autokorrelation
Nil-Wahrscheinlichkeiten
Die R/S Methode zur Hurst Statistik Teilsummen Fenstermittel Abweichungen vom linearen Verhalten Bereichsstatistik Standardabweichung im Fenster Mandelbrots Test Statistik Man plottet log q gegen log k und bestimmt die Steigung H
Eigenschaften des Hurst-Exponenten Klassifikation von Prozessen: Persistenz (H > 0.5), Anti-Persistenz (H < 0.5), Brownsches Rauschen (H = 0.5) Regen meistens in der Nähe von H=0.5 Typischer Abflusswert (Weltmittel) : H=0.73 (Nil ist ein Extremfall) Theoretischer Zusammenhang mit dem Persistenzparameter: d=H-0.5 (manchmal nicht gut erfüllt, s. später) Prinzipielles Problem: Langsame Instationaritäten (sehr lange Mittelwertdrifts), die durch Trendtests nicht erkannt werden, führen zu H>0.5 genau wie "echte" Persistenz
Steinkreuz Hurst Statistik 3.9 Abfluss, H=0.96 3.4 Regen, H=0.68 2.9 2.4 1.9 log q 1.4 0.9 0.4 -0.1 -1.5 -1 -0.5 0.5 1 1.5 2 2.5 3 log k Im Regensignal ist ein endliches Gedächtnis (Abflachen) zu erkennen
Hurst-Exponenten von Flüssen (weltweit) 0.9 0.85 Paar Loisach Amper Donau 0.8 Hurst-Exponent Ammer 0.75 Isar 0.7 0.65 Nil Fischen Inkhofen Dillingen Kelheim Donauwörth Ingolstadt Oberndorf Hofkirchen Achleiten Kochel Mittenwald Lenggries Dasing Manching Amazonas Mississippi Oberammergau Fürstenfeldbruck Bad Tölz Kraftwerk Garmisch u.d. Partnach Günzburg u.d. Mündung Günz Ort