2.4 Residualkomponente und Korrelogramm

Slides:



Advertisements
Ähnliche Präsentationen
T - Test Prüfung des Mittelwerteunterschieds bei abhängigen und unabhängigen Stichproben.
Advertisements

Definition [1]: Sei S eine endliche Menge und sei p eine Abbildung von S in die positiven reellen Zahlen Für einen Teilmenge ES von S sei p definiert.
Heute 1.F – Test zur Varianzhomogenität 2.Bartlett-Test zur Varianzhomogenität 3.Chi – Quadrat Tests für Häufigkeiten 4.Chi – Quadrat Tests zur Verteilungsanpassung.
Zeitreihen Gliederung Allgemeines zu Zeitreihen
Theorie psychometrischer Tests, III
Forschungsstrategien Johannes Gutenberg Universität Mainz
Gliederung Der Begriff der Stichprobe, Stichprobenfehler
Forschungsstatistik II
Forschungsstatistik II
Forschungsstatistik II Prof. Dr. G. Meinhardt SS 2005 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz KLW-24.
Heute Prüfung der Produkt-Moment Korrelation
Forschungsstatistik II Prof. Dr. G. Meinhardt SS 2006 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz KLW-18.
Der Binomialtest Man habe einen wahren Anteil P.
Portfoliomodelle Faktormodelle
Mehrfachregressionen
Hypothesen testen: Grundidee
Statistische Methoden II
Nachholung der Vorlesung vom Freitag
Konfidenzintervalle Intervallschätzung
Die Vorlesung Statistische Methoden II findet am (nächste Woche) wegen der Projektwoche nicht wegen der Projektwoche nicht statt.
TESTS. Worum es geht Man möchte testen, ob eine bestimmte Annahme (Hypothese) über Parameter der Realität entspricht oder nicht. Beobachtung (Stichprobe)
Die Student- oder t-Verteilung
Konfidenzintervalle Intervallschätzung Jeder Beobachtung wird ein Intervall C( ) der reellen Zahlen zugeordnet Niveau Dabei ist die Wahrscheinlichkeit,
Datenmatrix. Datentabelle für 2 Merkmale Kontingenztafel der absoluten Häufigkeiten.
Kolmogorov-Smirnov-Test. A. N. Kolmogorov Geboren in Tambov, Russland. Begründer der modernen Wahrscheinlichkeitstheorie.
Klausurtermin (laut Prüfungsamt) Probeklausur Freitag, 13. Juni 2003 statt Vorlesung.
Achtung Vorlesung am Montag, den 21. Juni Zeit: Uhr Ort: Kiste.
Extra-SPSS-Kurse Durchführung: Birte Holtfreter Termine Di Mi Mi Ort PC-Pool Loefflerstarße.
Test auf Normalverteilung
Unser neuntes Tutorium
Vorlesung: Biometrie für Studierende der Veterinärmedizin
Vorlesung: ANOVA I
Eigenschaften der OLS-Schätzer
Einfache Regressionsgleichung
Multikollinearität Wann spricht man von Multikollinearität?
Wiederholung: Einfache Regressionsgleichung
Stochastische Prozesse I
Einführung in die beurteilende Statistik
Partielle Autokorrelation
Ausgleichungsrechnung II
Überblick Statistik Deskriptive Statistik=beschreibende Statistik
Information und Kommunikation Hartmut Klauck Universität Frankfurt SS
Einführung in SPSS/PASW. Inhaltsübersicht 1. Intro ( ) 2. Deskriptive Statistik ( ) (In Buch 1 Seite 85ff.) Kennwerte (Erwartungswert,
Die Poisson-Verteilung: Mittelwert und Standardabweichung
STATISIK LV Nr.: 1375 SS März 2005.
Statistik: Mehr zur Regression.
STATISIK LV Nr.: 0028 SS Mai 2005.
Kapitel 13 Zeitreihen und Zeitreihen-Modelle
Modul Statistische Datenanalyse
Kapitel 9 Analyse der Modellstruktur Hackl, Einführung in die Ökonometrie 2 Rekursive OLS-Schätzung Spezifiziertes Modell: y = X + u y, u:
Konfidenzintervall und Testen für den Mittelwert und Anteile
Kapitel 18 Dynamische Modelle: Schätzen der Parameter
Ökonometrie I Analyse der Modellstruktur Ökonometrie I2 Rekursive OLS-Schätzung Spezifiziertes Modell: y = X + u y, u: n-Vektoren; X: Ordnung.
Kapitel 14 Trends und Unit-root-Tests
Kapitel 13 Zeitreihen und Zeitreihen-Modelle
Kapitel 18 Dynamische Modelle: Schätzen der Parameter.
Strategie der Modellbildung
Kapitel 14 Trends und Unit-root-Tests
3.2 Autoregressive Prozesse (AR-Modelle) AR(p)-Prozesse
4. Nichtstationarität und Kointegration
Empirische Sozialforschung am Beispiel der Limburger Nordstadt
2.4 Residualkomponente und Korrelogramm
Stochastik ganz kurz Beispiel diskret Würfelwurf Beispiel stetig
2.5.2 Multivariate Monte Carlo-Simulation
Der Binomialtest Man habe einen wahren Anteil P. Kann man aufgrund von p sagen, daß in der Population tatsächlich der Anteil P zugrunde liegt? [Beispiele]
STATISIK LV Nr.: 1375 SS März 2005.
Prüft ebenfalls die Annahme der Varianzhomogenität (exakter)
Der Wiener Prozess und seltene Ereignisse
Univ.-Prof. Dr.-Ing. H. Nacken Vorlesung Wasserwirtschaft & Hydrologie I Themen: Vorlesung 8 Statistik Dichtefunktionen Jährliche und partielle Serien.
Außenhandelsbeziehungen zwischen China, USA, EU Makroökonometrie Vorlesung Dr. Oliver Bode.
 Präsentation transkript:

2.4 Residualkomponente und Korrelogramm Restkomponente ut einer Zeitreihe (yt) nach Ausschaltung der systematischen Komponenten Wenn die Residualkomponente keine Systematik mehr enthält, d.h. nur noch zufällig schwankt, müssen die Autokorrelationen (Reihenkorrelationen) approximativ gleich 0 sein. Unter Autokorrelation der Residuen u1, u2, ..., un versteht man die Korrelation der aktuel-len Residuen mit den um eine Periode verzögerten Residuen (Autokorrelation 1. Ordnung), zwei Perioden verzögerten Zeitreihe (Autokorrelation 2. Ordnung), usw. Das Ausmaß der noch in den Residuen enthaltenen systematischen Schwankungen wird durch den Auto-korrelationskoeffizienten gemessen. Der empirische Autokorrelationskoeffizient ist analog zu dem aus der deskriptiven Statistik bekannten Korrelationskoeffizienten nach Bravais und Pearson, rxy, definiert, der durch das Verhältnis der Kovarianz sxy zum Produkt der Standardabweichungen sx und sy der beiden Merkmale X und Y gegeben ist.

Definition des Autokorrelationskoeffizienten 1. Ordnung Um den Autokorrelationskoeffizienten 1. Ordnung zu bestimmen, betrachten wird die Korrelation zwischen den n-1 Wertepaaren (u2, u1), (u3, u2), ..., (un, un-1). Mit und erhält man für den Autokorrelationskoeffizienten 1. Ordnung den Ausdruck (2.65) . Für ein großes n kann bei Mittelwertstationarität E(ut)=0 von den Approximationen nn-1 und mit Gebrauch gemacht werden. Hiermit modifiziert sich (2.65) zu (2.66) .

Der Autokorrelationskoeffizient 1. Ordnung (2 Der Autokorrelationskoeffizient 1. Ordnung (2.66) ist durch das Verhältnis der Autokovarianz 1. Ordnung, c1, zur Varianz der Zeitreihe der Residuen, c0, gegeben: (2.67) . Autokovarianz 1. Ordnung: (2.68) Varianz von ut: (2.69) Allgemein erhält man die Folge der Autokorrelationskoeffizienten k-ter Ord-nung, (rk), aus der Folge der Autokovarianzen, (ck), für k=0,1,2,... gemäß (2.70) mit (2.69) .

Korrelogramm Die grafische Darstellung der Folge der Autokorrelationskoeffizienten (rk) in Abhängigkeit von den Lags k in einem Koordinatensystem heißt Korrelogramm. Mit Hilfe eines Kor-relogramms lassen sich die Abhängigkeitsstrukturen einer Zeitreihe aufdecken. Gauß-Prozess: Unabhängige normalverteilte Zufallsvariablen

Interpretation des Korrelogramms Bei einem reinen Zufallsprozess wie z.B. dem Gauß-Prozess sind die theoretischen Au-tokorrelationskoeffizienten für alle Lags k gleich 0, was bedeutet, dass keinerlei zeitlichen Abhängigkeiten der Zufallsvariablen vorliegen. Bei großem n ist daher zu erwarten, dass die empirischen Autokorrelationskoeffizienten rk in der Nähe von 0 liegen: rk  0. Autokorrelationen, die bei einem Signifikanzniveau von 5% nicht signifikant von 0 abwei-chen, liegen näherungsweise innerhalb eines Bereichs von  2 Standardabweichungen um 0, da die Größen rk approximativ normalverteilt sind mit dem Erwartungswert (2.70) E(rk) = 1/n  0. Mit dem Standardfehler von rk, (2.71) (rk) = 1/n, erhält man das approx. 95%-Konfidenzintervall [- 2/n, 2/n] für die empirischen Autokorrelationskoeffizienten. Bei der Interpretation ist zu beachten, dass die Hypothese eines reinen Zufallsprozesses der Residualkomponente noch nicht verworfen werden muss, wenn einer von 20 Autokorrelationskoefizienten außerhalb des 95%-Konfidenzintervalls liegt, wie es in unserem Beispiel der Fall ist. Denn dies ist bei einem Signifikanzniveau von 5% durchaus zu erwarten. Hierdurch können Schwierigkeiten bei der Identifikation des datenerzeugenden Prozesses auftreten.

Portmanteau-Tests Das Korrelogramm wird im Allgemeinen durch einen Portmanteau-Test, der die in den Autokorrelationskoeffizienten bis zu einem Lag k enthaltenen Informationen in kom-primierter Form auswertet. Der Box-Pierce-Test basiert auf der Teststatistik (2.72) , Die bei großem n approximativ normalverteilt ist ist k-m Freiheitsgraden. Generell gibt die Anzahl der geschätzten Modellparameter, die bei einem White-Noise-Prozess gleich 0 ist. Wenn die Residuen ut Realisationen eines reinen Zufallsprozesses sind, werden die empirischen Autokorrelationskoeffizienten rk niedrige Werte annehmen, was ebenfalls für die Prüfgröße Q zutrifft. Die Nullhypothese eines reinen Zufallsprozesses (White-Noise-Prozess) wird abgelehnt, wenn die Box-Pierce-Statistik Q bei einem Signifikanzniveau  das (1- )-Quantil der ²-Verteilung mit k Freiheitsgraden überschreitet: Q(k) > ²k-m;1-   H0 ablehnen. In diesem Fall muss davon ausgegangen werden, dass in den Residuen noch eine Systematik vorhanden ist. Das zugrunde gelegte Zeitreihenmodell erfasst nicht alle systematischen Komponenten der Zeitreihe.

Wie sich gezeigt hat, verbessert sich die Verteilungsapproximation beim Box-Pierce-Test nur langsam mit wachsendem n. Der Test ist extrem konservativ, d.h. die Nullhypothese eines reinen Zufallsprozesses wird im Allgemeinen zu lange beibe-halten. Ljung und Box haben eine Modifikation des Box-Pierce-Tests vorgeschlagen, die eine verbesserte Approximation der Verteilung der Teststatistik an die ²-Verteilung führt. Anstelle der Residualkorrelationen rk verwenden sie die asymptotisch äquivalenten Größen womit sich die Teststatistik (2.73) des Ljung-Box-Tests ergibt. Q* ist ebenso wie Q approximativ ²-verteilt mit k Freiheitsgraden. Mit dem Ljung-Box-Test lassen sich unter Umständen inadäquate Zeitreihenmodelle aufdecken, die bei Anwendung des Box-Pierce-Testes möglicherweise übersehen werden.

Korrelogramm und Ljung-Box-Test eines reinen Zufallsprozesses

Korrelogramme bei unterschiedlichen Zeitreihenmustern Trendbehaftete Zeitreihen Wenn die Zeitreihe einen Trend enthält, verschwinden die empirischen Autokorrelationen rk im Allgemeinen erst für sehr große Lags. Einer Beobachtung auf einer Seite des Ge-samtmittels folgt dann nämlich aufgrund es Trends eine große Anzahl von Zeitreihen-werten auf der gleichen Seite. Da der Trend alle anderen Eigenschaften überdeckt, bietet ein Korrelogramm bei trendbehafteten Zeitreihen nur wenig Informationen. Aus diesem Grund sollte in diesem Fall eine Trendbereinigung vorgeschaltet werden.

Alternierende Zeitreihen Bei alternierenden Zeitreihen liegen aufeinanderfolgende Werte auf verschiedenen Seiten des Gesamtmittelwerts. Bei einem ungeraden Lag ist der Autokorrelationskoeffi-zient negativ, da die Beobachtungen auf verschiedenen Seiten des Mittelwerts liegen. Entsprechend tendieren die Beobachtungen bei einem Lag auf der gleichen Seite des Mittelwerts zu liegen, so dass der Autokorrelationskoeffizient positiv ist.

Saisonschwankungen Saisonschwankungen findet man im Korrelogramm mit der gleichen Frequenz wieder. Bei Monatsdaten ist z.B. r6 absolut groß und negativ, während r12 groß und positiv ausfällt. Das Korrelogramm vermittelt bei saisonalen Daten wenig zusätzliche Informationen, da Saisonschwankungen bereits in dem Zeitreihenplot gut erkennbar sind. Sehr nützliche Informationen liefert dagegen ein Korrelogramm der saisonbereinigten Zeitreihen

Kurzzeit-Korrelationen Bei nicht-trendbehafteten (oder trendbereinigten) Zeitreihen findet man häufig einen gro-ßen Wert für r1, dem zwei oder drei signifikant von 0 verschiedene Autokorrelationskoeffi-zienten folgen. Diese sind aber sukzessive kleiner. Die übrigen Autokorrelationen, d.h. die rk-Werte für größere Lags k, liegen dagegen nahe bei 0. In der zugrunde liegenden Zeitreihe besteht die Tendenz, dass einer überdurchschnittlich (unterdurchschnittlich) großen Beobachtung einige wenige, d.h. etwa eine, zwei, drei überdurchschnittlich (unterdurchschnittlich) große Beobachtungen folgen. Ein solches Verhalten der Zeitreihenwerte wird als Kurzzeit-Korrelation bezeichnet.