3.2 Autoregressive Prozesse (AR-Modelle) AR(p)-Prozesse

Slides:



Advertisements
Ähnliche Präsentationen
Fast Fourier Transformation
Advertisements

Hier einige Hieroglyphen:
Definition [1]: Sei S eine endliche Menge und sei p eine Abbildung von S in die positiven reellen Zahlen Für einen Teilmenge ES von S sei p definiert.
Falls Algorithmen sich selbst rekursiv aufrufen, so kann ihr Laufzeitverhalten bzw. ihr Speicherplatzbedarf in der Regel durch eine Rekursionsformel (recurrence,
Polynomial Root Isolation
Algebraische Zahlen: Exaktes Rechnen mit Wurzeln
Schnelle Matrizenoperationen von Christian Büttner
Zusatzthemen. Kapitel 5 © Beutelspacher Juni 2004 Seite 2 Inhalt Gleichungssysteme mit Parameter Wurzelgleichungen Irrationale Zahlen Induktion WGMS III.
Modellierung und Schätzung von Variogrammen
Seminar „Extrapolationsmethoden für zufällige Felder“
Zeitreihen Gliederung Allgemeines zu Zeitreihen
Klicke Dich mit der linken Maustaste durch das Übungsprogramm!
ARCH- und GARCH Modelle
Forschungsstatistik I Prof. Dr. G. Meinhardt WS 2004/2005 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz.
Kapitel 5 Stetigkeit.
Kapitel 6 Differenzierbarkeit. Kapitel 6: Differenzierbarkeit © Beutelspacher Juni 2005 Seite 2 Inhalt 6.1 Die Definition 6.2 Die Eigenschaften 6.3 Extremwerte.
Kapitel 2 Die rationalen und die irrationalen Zahlen.
Zeitreihenanalyse WS 2004/2005 Michael Hauhs / Gunnar Lischeid
AC Analyse.
AC Analyse. 2Ausgewählte Themen des analogen Schaltungsentwurfs Sprungantwort.
12. Zur Bildung von Zyklen Prof. Dr. Johann Graf Lambsdorff
F FnFn z Prof. Dr. Johann Graf Lambsdorff Universität Passau SS a. Anhang zur Bestimmung der optimalen Taylor-Regel.
Mathematische Grundlagen und Rechnen mit algebraischen Zahlen
Maximum-Likelihood-Schätzer ( diskreter Fall) Likelihood-Funktion mit oder M-L-Schätzer.
erstellt von Petra Bader
Folie 1 § 30 Erste Anwendungen (30.2) Rangberechnung: Zur Rangberechnung wird man häufig die elementaren Umformungen verwenden. (30.1) Cramersche Regel:
§9 Der affine Raum – Teil 2: Geraden
§8 Gruppen und Körper (8.1) Definition: Eine Gruppe G ist eine Menge zusammen mit einer Verknüpfung, die jedem Paar (a,b) von Elementen aus G ein weiteres.
Folie 1 § 29 Determinanten: Eigenschaften und Berechnung (29.1) Definition: Eine Determinantenfunktion auf K nxn ist eine Abbildung (im Falle char(K) ungleich.
§ 29 Determinanten: Eigenschaften und Berechnung
Tutorium
Einfache Regressionsgleichung
Multikollinearität Wann spricht man von Multikollinearität?
Matrix-Algebra Grundlagen 1. Matrizen und Vektoren
§10 Vektorraum. Definition und Beispiele
Sali zäma.
§24 Affine Koordinatensysteme
Partielle Autokorrelation
Ausgleichungsrechnung II
Effiziente Algorithmen
Beweissysteme Hartmut Klauck Universität Frankfurt WS 06/
Beweissysteme Hartmut Klauck Universität Frankfurt WS 06/
§3 Allgemeine lineare Gleichungssysteme
Gleichungen und Gleichungssysteme
Kapitel 13 Zeitreihen und Zeitreihen-Modelle
Kapitel 18 Dynamische Modelle: Schätzen der Parameter
Kapitel 19 Kointegration
Kapitel 16 Ökonometrische Modelle
Kapitel 13 Zeitreihen und Zeitreihen-Modelle
Kapitel 18 Dynamische Modelle: Schätzen der Parameter.
Strategie der Modellbildung
2.4 Residualkomponente und Korrelogramm
3.4 ARMA- und ARIMA-Modelle
Steigung und lineare Funktionen
ENDLICHE KÖRPER RSA – VERFAHREN.
Steigung und lineare Funktionen
1 Albert-Ludwigs-Universität Freiburg Rechnernetze und Telematik Prof. Dr. Christian Schindelhauer Informatik III Christian Schindelhauer Wintersemester.
3.3 Moving-Average-Prozesse (MA-Modelle)
Reelle Zahlen Grundrechenarten √2, √3, √5, … V 0.1.
Stetige Kleinste-Quadrate-Approximation
Nichtlineare Optimierung
Folie 1 §21 Das Produkt von Matrizen (21.1) Definition: Für eine (m,n)-Matrix A und eine (n,s)-Matrix B ist das (Matrizen-) Produkt AB definiert als (21.2)
Stochastik ganz kurz Beispiel diskret Würfelwurf Beispiel stetig
Lineare Gleichungen Allgemeine Einführung Äquivalenzumformungen
Kap. 7: Die quadratische Funktion – numerisch, graphisch, theoretisch
Die Dynamik von abgeleiteten Preisen Stochastische Differentialgleichungen.
Folie 1 §8 Gruppen und Körper (8.1) Definition: Eine Gruppe G ist eine Menge zusammen mit einer Verknüpfung, die jedem Paar (a,b) von Elementen aus G ein.
 Gegenstandsbereich der Testtheorie: Analyse der Charakteristika von Tests:  Güte von Tests.  Struktur von Tests.  Schwierigkeit von Tests.  Gruppenunterschiede.
Außenhandelsbeziehungen zwischen China, USA, EU Makroökonometrie Vorlesung Dr. Oliver Bode.
Lineare Optimierung Nakkiye Günay, Jennifer Kalywas & Corina Unger Jetzt erkläre ich euch die einzelnen Schritte und gebe Tipps!
 Präsentation transkript:

3.2 Autoregressive Prozesse (AR-Modelle) 3.2.1 AR(p)-Prozesse Definition: Ein stochastischer Prozess (Xt) heißt autoregressiver Prozess der Ordnung p [AR(p)-Prozess], wenn er der Beziehung (3.2.1)               genügt. (Ut) ist darin ein reiner Zufallsprozess (White-Noise-Prozess). Bem.: Xt wird hierbei als Abweichung vom Mittelwert µ vorausgesetzt.

Bemerkungen:  Gl. (3.2.1) entspricht formal einem multiplen Regressionsmodell. Die unabhängigen Variablen (erklärenden Variablen) sind hier jedoch ausschließlich zeitlich verzögerte Variablen der abhängigen Variablen. Prozesse dieses Typs werden erstmals von G.U. Yule (1920) eingeführt. Allgemein ist ein AR(p)-Prozess durch (3.2.2)              gegeben, wobei δ ein konstantes Glied ist, das mit dem Mittelwert µ des Prozesses in Beziehung steht. Für einen mittelwertstationären Prozess muss gelten, so dass µ aus bestimmt werden kann: (3.2.3)

Da µ endlich sein muss, ist zu fordern, dass die Ungleichung (3.2.4)              erfüllt ist. (3.2.4) ist zugleich eine notwendige Bedingung für die Stationarität eines AR(p)-Prozesses. Notwendige und hinreichende Stationaritätsbedingungen werden später aufgezeigt.

Spezielle AR(p)-Prozesse · AR(1)-Prozess (3.2.5) Bem.: Xt ist im Folgenden als Abweichung vom Mittelwert µ des Prozesses gemessen. Stationarität wird zunächst vorausgesetzt. Varianz von Xt:

Autokovarianzfunktion (AVCF): =1:

=2: allg.

Autokorrelationsfunktion (ACF) allg. Da ist, ist die Autokorrelationsfunktion eines AR(1)-Prozesses eine exponentiell abnehmende Funktion des Lags . Für verläuft sie dabei im positiven Bereich, während es sich für um eine alternierende Folge handelt.

Abbildung 3.4: Autokorrelationsfunktionen versch. AR(1)-Prozesse 0,2 0,4 0,6 0,8 1 2 3 4 5 6 7 8 t  (a) 1 2 3 4 5 6 7 8 0,8 0,64 0,512 0,410 0,328 0,262 0,201 0,168

0,2 0,4 0,6 0,8 1 2 3 4 5 6 7 8 t  (b) 1 2 3 4 5 6 7 8 0,5 0,25 0,125 0,063 0,031 0,016 0,008 0,004

-0,6 -0,4 -0,2 0,2 0,4 0,6 0,8 1 2 3 4 5 6 7 8 t  (c) 1 2 3 4 5 6 7 8 -0,7 0,49 -0,343 0,240 -0,168 0,118 -0,082 0,058

Invertierbarkeit und Stationarität Darstellung des AR(1)-Prozesses in Abhängigkeit von den Zufallsvariablen Ut: (3.2.6)              Ersetzen von Xt-1 durch ergibt Entsprechendes Ersetzen von Xt-2 durch führt zu .

Führt man die Substitution k-mal durch, so ergibt sich . Für k→ erhält man die spezielle Form (3.2.7) des allgemeinen linearen Prozesses (3.2.8) Die Restriktion (3.2.9)

ist nur dann erfüllt, wenn ist. Die Bedingung (3.2.10) wird daher auch als Stationaritätsbedingung bezeichnet. Unter Berücksichtigung dieser Stationaritätsbedingung kann ein AR(1)-Prozess in einen äquivalenten Moving-Average-Prozess unendlicher Ordnung [MA()-Prozess] überführt werden und um-gekehrt. Man sagt aus, dass Gl. (3.2.7) die MA-Darstellung des AR(1)-Prozesses (3.2.6) ist. Da der AR(1)-Prozess bei Gültigkeit der Stationaritätsbedingung (3.2.10) in einen MA()-Prozess invertierbar ist, kennzeichnet (3.2.10) zugleich die Invertierbar-keitsbedingung. Analog kann gezeigt werden, dass ein MA(1)-Prozess in einen AR()-Prozess invertiert werden kann, wenn ist. Die allgemeine Bedingung für die Stationarität eines AR-Prozesses, dass die Wurzeln z1, z2,..., zp des charakteristischen Polynoms außerhalb des Einheitskreises liegen müssen, führt im Falle des AR(1)-Prozesses un-mittelbar zur oben begründeten Stationaritätsbedingung :

außerhalb des Einheitskreises: Die Wurzel liegt nämlich genau dann außerhalb des Einheitskreises, wenn der absolute Wert von kleiner als eins ist ( ). Bei komplexen Zahlen : b (Imaginärteil) a (Realteil) 1 ( ) i z × ± = außerhalb des Einheitskreises: , >

Bem.: Xt als Abweichung vom Mittelwert µ vorausgesetzt Allg. (3.3.12)   AR(2)-Prozess (3.2.11) Bem.: Xt als Abweichung vom Mittelwert µ vorausgesetzt Allg. (3.3.12) Autokovarianzen und Autokorrelationen

(3.2.12) (3.2.13) Allg. (3.2.14) Bezieht man die Autokovarianzen auf die Varianz des AR(2)-Prozesses, so erhält man (3.2.15) und

(3.2.16)  Einsetzen von in (3.2.15): Allg. (3.2.17) Die Gleichungen (3.2.14) und (3.2.17) heißen Yule-Walker-Gleichungen. Aus (3.2.17) lassen sich Autokorrelationskoeffizienten des AR(2)-Prozesses für rekursiv bestimmen. Varianz von Xt:  unabh. zw. Xt-1 und Ut und zw. Xt-2 und Ut

Stationarität  (3.2.18)  Yule-Walker-Gleichung für (3.2.19) Lösung nach 0 ergibt: (3.2.20) Herleitung: Aus (3.2.18) folgt: 2 Gleichungen in den beiden Unbekannten 0 und 1 (können simultan gelöst werden).

Aus (3.2.19) folgt: Wird in die erste Gleichung eingesetzt, ergibt sich woraus man nach weiterer Umformung (3.2.19) erhält.

Invertierbarkeit (und damit auch Stationarität ) Stationaritätsbedingungen: Charakteristische Gleichung: [z1 und z2 müssen außerhalb des Einheitskreises liegen, wenn (Xt) ein stationärer Prozess ist.] Je nachdem, ob die Wurzeln z1 und z2 reell oder konjugiert-komplex sind und in Abhängigkeit des Vorzeichens der Parameter ergeben sich unterschiedliche charakteristische Verläufe der Autokorrelationsfunktion. =a =b

Reelle Wurzeln: ACF sinkt exponentiell bei Stationarität.  Komplexe Wurzeln: ACF verläuft mit gedämpften Schwingungen bei Stationarität. - Stationarität falls a) Aus folgt

woraus man die Stationaritätsbedingung (a1) erhält. b) Eine weitere Stationaritätsbedingung bezüglich der Koeffizienten des AR(2)-Modells lässt sich aus herleiten: , d.h. und >0 wegen (a1) >0 wegen (a1)

Bemerkung: (b2) d.h. die rechte Seite von (a1) wird durch (b1) und (b2) impliziert, so dass die Stationaritätsbedingungen für die Koeffizienten auch durch oder (S) wiedergegeben werden können.

Trägt man die Stationaritätsbedingungen (S) in einem Trägt man die Stationaritätsbedingungen (S) in einem -Koordinatensysten ein, so erhält man ein sog. „Stationaritätsdreieck“, innerhalb dessen die zulässigen Paare ( ) liegen. Die Parabel trennt dagegen die zyklischen und nicht zyklischen Verläufe: unterhalb der Parabel liegt der -Bereich für einen zyklischen Verlauf, oberhalb der -Bereich für einen nicht zyklischen Verlauf.

Abbildung 3.5: Stationaritäts- und Schwingungsbedingungen („Stationaritätsdreieck“ und Parabel) -1 1 2 f 4 = + -

Beispiel eines AR(2)-Prozesses Überprüfen der Stationarität (Invertierbarkeit): Charakter. Gleichung: (ACF sinkt exponentiell) [Normalform] =a =b

Allg. AR(p)-Prozess Bestimmung der Autokorrelationsfunktion Es gilt und (3.2.21) , da  (3.2.22)  (3.2.23)    Die Autokorrelationsfunktion eine AR(p)-Prozesses hat für p>2 einen mit derjenigen ei-nes AR(2)-Prozesses vergleichbaren Verlauf. Insbesondere ist es eine exponentiell ab-nehmende Funktion, was monoton oder in gedämpften Schwingungen erfolgen kann. [Yule-Walker-Gleichungen]

Die Yule-Walker-Gleichungen erlauben eine iterative Berechnung des ACFs. Ausführliche Schreibweise von (3.2.23): Matrizenschreibweise (unter Berücksichtigung von ): =1 =1 =1 (3.2.24)

kompakte Schreibweise: (3.2.24) ist ein lineares Gleichungssystem (p Gleichungen, p Unbekannte), aus dem bei linearer Unabh. der p Gleichungen die p ACFs bestimmt werden können. Daraus lassen sich die ACFs iterativ bestimmen. [Bem.: Bei der Schätzung eines AR(p)-Modells wird der umgekehrte Weg beschritten: bei gegebenem Schätzern der Autokorrelationskoeffizienten werden aus (3.2.24) Schätzer für die Koeffizienten ermittelt: ].

Varianz von Xt Unabhängigkeit zw. Ut und Xt-1, Xt-2, ..., Xt-p