Die Präsentation wird geladen. Bitte warten

Die Präsentation wird geladen. Bitte warten

Zeitreihenanalyse WS 2004/2005 Michael Hauhs / Gunnar Lischeid Definition einer Zeitreihe, Eigenschafte Tests und Trenderkennung bei Zeitreihen Beispiele.

Ähnliche Präsentationen


Präsentation zum Thema: "Zeitreihenanalyse WS 2004/2005 Michael Hauhs / Gunnar Lischeid Definition einer Zeitreihe, Eigenschafte Tests und Trenderkennung bei Zeitreihen Beispiele."—  Präsentation transkript:

1 Zeitreihenanalyse WS 2004/2005 Michael Hauhs / Gunnar Lischeid Definition einer Zeitreihe, Eigenschafte Tests und Trenderkennung bei Zeitreihen Beispiele (ACF, Tests), Fouriertransformationen, Powerspektrum Zeitreihenmodellierung der ARMA-Klasse Modellierung von Zeitreihen mit langem Gedächtnis Nicht-lineare Methoden: –Wiederkehrdiagramme –Komplexität und Information vonZeitreihen –Singuläre Systemanalyse (SSA) (?) –Wavelets (?)

2 Informationsgehalt und Komplexität von Zeitreihen komplexe Struktur: Komplexität der Input-Zeitreihe: Komplexität der Output-Zeitreihe: Was sind überhaupt Information und Komplexität einer Zeitreihe? Wieviel Information steckt in Zeitreihen? Gibt es chaotischere und weniger chaotische Systeme? Sind chaotische Attraktoren komplex? - als geometrische Objekte ? - Im Verhalten ? Was ist der Zusammenhang zwischen Chaos, Information, Zufälligkeit und Komplexität? Quantifizierung der Information einer Zeitreihe? In welchem Verhältnis stehen die Modell-Komplexität und die Daten- Komplexität? Fragen: Ökosystem (Modell)

3 Information und Komplexität von Zeitreihen Komplexitäts-Maße InformationsmaßeKomplexitätsmaße (Zufälligkeit, Unordnung, Maß erster Ordnung) (Maß für Struktur, Maß zweiter Ordnung) Information Komplexität Information Komplexität Information

4 Information und Diskretisierung Eine beliebig präzise Beschreibung einer einzelnen Trajektorie (unendlich viele unendlich genaue reelle Zahlen) verlangt unendlich viel Information / Speicher ist uninteressant (charakterisiert den Attraktor nicht). Information ist immer mit einer Diskretisierung verknüpft (abzählbare Zeitpunkte, endliche Genauigkeit) Wie systematisiert man das ungenaue Hinsehen? Wie wird man experimentellen Situationen gerecht?

5 Wertediskretisierung: Grundzüge der Symbolischen Dynamik M = { }, i=1,...,N sei eine gegebene Datenreihe mit (quasi-) kontinuierlichem Wertespektrum aus einem Zustandsraum X. Definition : Eine Partitionierung P einer Menge X ist eine endliche Familie von Teilmengen mit folgenden Eigenschaften: Disjunktheit: Vollständigkeit:

6 Statische & Dynamische Partitionierung dynamische Partitionierung (Transformation anhand der 1. Ableitungen) statische Partitionierung (Transformation basiert auf Originalwerten)

7 Diskretisierung - Partitionierung (quasi-)kontinu- ierliche Zeitreihe statische Partitionierung (z.B. Median) z.B. binäres Alphabet Symbol (0,1) Symbolfolge S ( ) Eine Zeitreihe (unendlich viele unendlich genaue reelle Zahlen) verlangt unendlich viel Information (Speicher) ist uninteressant (charakterisiert die Struktur nicht) Information ist immer mit einer Diskretisierung verbunden !

8 Spezielle Partitionierungen Markov-Partitionierungen: Partitionierungsgrenzen werden auf sich selbst abgebildet generierende Partitionierungen: für unendlich lange Symbolsequenzen lässt sich der Anfangswert eindeutig (punktförmig) rekonstruieren. Die Partitionierung ist mit keinerlei Informationsverlust verbunden!

9 Abbildungen, für die eine generierende Partitionierung bekannt ist 1. Bernoulli-Abbildung ist generierend 2. Logistische Abbildung ist generierend 3. Dach-Abbildung ist generierend

10 Wörter und Verfeinerungen Zusammenfassungen von genau Symbolen hintereinander heissen l -Wörter: Mit Wörtern kann man Partitionierungen verfeinern: Verfeinerungen führen zu einer genaueren Rekonstruktion des Anfangswertes als die ursprüngliche Partitionierung

11 Wort i Wort j Wortlänge L = 5 L-Wörter und Verfeinerungen Symbol- folge S Relative Häufigkeit eines L-Wortes (Programm SYMDYN) Verfeinerung der Partitionierung durch Vergrößerung der Wortlänge L

12 Grundlagen aus der Informationstheorie Welche Information bietet ein neues Symbol? Ermittle Häufigkeit/Wahrscheinlichkeit der einzelnen Symbole: Informationsoll erfüllen: 1. Maximal bei Gleichverteilung 2. Unmögliches zählt nicht: 3. Subadditiv:

13 Shannon-Entropie Funktional bis auf Konstante eindeutig: Shannon-Entropie I in Bits

14 Informationsgewinn G ij L = 5 Wort i Wort j G ij... so gestatten wir uns zum Abschluss dieser Erläuterung die spekulative Frage, ob das Kontinuum möglicherweise nur das Resultat eines Abstraktionsprozesses durch das menschliche Bewusstsein ist. kleiner Informationsgewinn (da e sehr wahrscheinlich) großer Informationsgewinn (da nach das_ jeder mögliche Buchstabe kommen kann) Veranschaulichung aus der Nachrichtenübermittelung:

15 Wortübergangs-Wahrscheinlichkeiten N N L,i L = 5 0L0L N L+1, j N L, i Übergangs- wahrscheinlichkeit 0 1 N L+1, j L+1 Wort i Wort j Informationsgewinn G ij

16 Information und Komplexität des Bernoulli-Prozesses Bernoulli-Prozess: gewichteter Münzwurf p : Wahrscheinlichkeit einer 0 1-p : Wahrscheinlichkeit einer 1 als Maß für Zufälligkeit unabhängig von

17 Informationsmaß MIG mittlerer Informationsgewinn Wort i Wort j Informationsgewinn G ij MIG p(1) = p(0) = 1/2 p(1) = 0, p(0) = 1 MIG für den binären Bernoulli-Prozess Information = Maß für Zufälligkeit

18 Methoden zur Fehlerschätzung der Maße MIG 1 MIG 2...MIG n-1 MIG n Standardabweichung (MIG i ) FC 1 FC 2...FC n-1 FC n Standardabweichung (FC i ) Bernoullikurve

19 Blockentropien Verallgemeinerung: Entropie von l -Wörtern 1. Alle Zeichen sind unabhängig voneinander: 2. Die Sequenz ist p-periodisch: Automatisches Anwachsen bei größeren Wörtern verhindern: metrische Entropie Quellentropie 3. Markov-Quelle k -ter Ordnung:

20 Quantifizierung von Information Information: Neuigkeitsgehalt Länge der kürzesten Beschreibung (Kolmogorow-Komplexität) (Nicht-) Komprimierbarkeit von Daten Beispiele für Informationsmaße: metrische Entropie mittlerer Informationsgewinn Renyí-Entropie speziell:

21 Zusammenhang zwischen Informationsmaßen Satz (Kolmogorov):wird maximal genau für generierende Partitionierungen Anzahl der vorkommenden Wörter: Anzahl der möglichen Wörter: McMillan Theorem:

22 Quantifizierung von Komplexität Komplexität: Schwierigkeit einer kompakten (einfachen, kurzen) Beschreibung Kaum veränderliche Symbolfolgen sind wenig komplex Ganz zufällige Datensätze lassen sich einfach beschreiben (Art des Rauschens, Mittelwert, Standardabweichung) und sind auch wenig komplex Stark strukturierte Signale mit zufälligen und nicht-zufälligen Anteilen sind komplex

23 Komplexitätsmaße Effektive Maßkomplexität: Geschwindigkeit des Informationszuwachses Fluktuationskomplexität: Schwankungen um den mittleren Netto-Informationsgewinn Renyí-Komplexität: 2.-Ordnung Verhalten durch Differenzen

24 Komplexitätsmaß FC Informations- gewinn G ij Wort i Wort j Informations verlust L ij Fluktuationskomplexität FC p(1) = p(0) = 1/2 p(1) = 0, p(0) = 1 FC für den binären Bernoulli-Prozess Information = Maß für Struktur Schwierigkeit einer kompakten (einfachen, kurzen) Beschreibung

25 p(1) = p(0) = 1/2p(1) = 0, p(0) = 1 Binärer Bernoulli-Prozess: FC und Renyí-Komplexität Wort i Wort j Informations- gewinn G ij Informations verlust L ij Netto- Informations- gewinn = G ij - L ij FC Fluktuationskomplexität Rényi-Komplexität RC(2) = RC(1) RC(4)

26 Zufälligkeit (%) Analytische Ergebnisse für Bernoulli Reihen Information/Komplexität Information Komplexität

27 Der MIG-FC Plot für Bernoulli

28 Renyi-Entropie für den Bernoulli- Prozess

29 Der Einfluss der Wortlänge auf MIG

30 Der Einfluss der Wortlänge auf FC

31 Logistische Abbildung: Mittlerer Informationsgewinn

32 Logistische Abbildung: Renyí-Komplexität

33 Wie universell ist das Abflussverhalten?

34 Complexity Yaneer Bar-Yam (1997) in Dynamics of Complex Systems: Complex System is a new approach to science, which studies how relationships between parts give rise to collective behaviours of a system and how the system interacts and forms relationships with its environment.


Herunterladen ppt "Zeitreihenanalyse WS 2004/2005 Michael Hauhs / Gunnar Lischeid Definition einer Zeitreihe, Eigenschafte Tests und Trenderkennung bei Zeitreihen Beispiele."

Ähnliche Präsentationen


Google-Anzeigen