3.3 Moving-Average-Prozesse (MA-Modelle)

Slides:



Advertisements
Ähnliche Präsentationen
Christian Scheideler SS 2009
Advertisements

Zufallsfelder Def. Zufallsfeld: Sei V eine endliche Menge (von Orten). Für jedes v V existiere eine (endliche) Menge X(v) von Zuständen x(v). Der Raum.
Boolesche Zufallsfunktionen
Modellierung und Schätzung von Variogrammen
1 1. Splineglättung 1.1 Motivation 1.2 Notation 1.3 Splineglättung
Modelle und Methoden der Linearen und Nichtlinearen Optimierung (Ausgewählte Methoden und Fallstudien) U N I V E R S I T Ä T H A M B U R G November 2012.
Zeitreihen Gliederung Allgemeines zu Zeitreihen
Gliederung Definition des Wahrscheinlichkeitsbegriffes
ARCH- und GARCH Modelle
Portfoliomodelle Faktormodelle
Grundbegriffe der Wahrscheinlichkeitstheorie
Zeitreihenanalyse WS 2004/2005 Michael Hauhs / Gunnar Lischeid
Statistische Methoden I
II. Wahrscheinlichkeitstheorie
Erwartungswert und Varianz I Der endliche Fall Erwartungswert Varianz.
Statistische Methoden I WS 2009/2010 Probeklausur Montag, 25. Januar statt Vorlesung -
Folie 1 Kapitel II. Vom Raumbegriff zu algebraischen Strukturen Neubeginn: Herleitung des Begriffs Vektorraum aus intuitiven Vorstellungen über den Raumbegriff.
§14 Basis und Dimension (14.1) Definition: V sei wieder ein K-Vektorraum. Eine Menge B von Vektoren aus V heißt Basis von V, wenn B ist Erzeugendensystem.
§9 Der affine Raum – Teil 2: Geraden
§14 Basis und Dimension  (14.1) Definition: V sei wieder ein K-Vektorraum. Eine Menge B von Vektoren aus V heißt Basis von V, wenn B ist Erzeugendensystem.
Tutorium
Tutorium
Unser sechstes Tutorium Materialien unter:
Wiederholung und Beispiele
Vorlesung Biometrie für Studierende der Veterinärmedizin Begriff der Zufallsgröße Ergebnisse von Zufallsexperimenten werden als Zahlen dargestellt:
Binomialverteilung: Beispiel
Eigenschaften der OLS-Schätzer
Einfache Regressionsgleichung
Seminar Stringtheorie und Geometrische Methoden der Physik
Semantik von UML Sequenzdiagrammen
§17 Produkte und Quotienten von Vektorräumen
§24 Affine Koordinatensysteme
Stochastische Prozesse I
Partielle Autokorrelation
Ausgleichungsrechnung II
Regionalisierte Variablen und Kriging
Information und Kommunikation Hartmut Klauck Universität Frankfurt SS
Information und Kommunikation Hartmut Klauck Universität Frankfurt SS
Beweissysteme Hartmut Klauck Universität Frankfurt WS 06/
Information und Kommunikation
Folie 1 §15 Lineare Abbildungen (15.1) Definition: Eine Abbildung f zwischen K-Vektorräumen V und W ist linear (oder ein Vektorraumhomomorphismus), wenn.
§15 Lineare Abbildungen (15.1) Definition: Eine Abbildung f zwischen K-Vektorräumen V und W ist linear (oder ein Vektorraumhomomorphismus), wenn für alle.
Folie 1 Kapitel IV. Matrizen Inhalt: Matrizen als eigenständige mathematische Objekte Zusammenhang zwischen Matrizen und linearen Abbildungen Produkt von.
Aufgabenzettel VIII Statistik I © by Ewald Krawitz & Oliver Schattmann.
Wahrscheinlichkeit Zufallsexperiment:
STATISIK LV Nr.: 0028 SS Mai 2005.
Kapitel 13 Zeitreihen und Zeitreihen-Modelle
STATISIK LV Nr.: 1852 WS 2005/06 1.Dezember 2005.
Kapitel 16 Ökonometrische Modelle
Kapitel 13 Zeitreihen und Zeitreihen-Modelle
STATISIK LV Nr.: 0021 WS 2005/ November 2005.
Stress ?.
3.4 ARMA- und ARIMA-Modelle
Das relationale Modell
Theorie psychometrischer Tests, II
Der Zentralwert.
3.2 Autoregressive Prozesse (AR-Modelle) AR(p)-Prozesse
4. Nichtstationarität und Kointegration
Begriff der Zufallsgröße
3. Stochastische Prozesse und ARIMA-Modelle 3
3. Stochastische Prozesse und ARIMA-Modelle 3
Stochastik ganz kurz Beispiel diskret Würfelwurf Beispiel stetig
Erwartungstreuer, konsistenter Schätzer
Die Binomialverteilung
Der Wiener Prozess und seltene Ereignisse
Die Dynamik von abgeleiteten Preisen Stochastische Differentialgleichungen.
Folie 1 §8 Gruppen und Körper (8.1) Definition: Eine Gruppe G ist eine Menge zusammen mit einer Verknüpfung, die jedem Paar (a,b) von Elementen aus G ein.
Aachen, | WISS Seminarvortrag von Christian Wißmach Analyse von Zeitreihen.
Prognose von Zeitreihen Hans Nübel Hans Nübel Prognose von Zeitreihen Aufbau 1.Motivation 2.Holt-Winters-Verfahren 3.Prognose.
Außenhandelsbeziehungen zwischen China, USA, EU Makroökonometrie Vorlesung Dr. Oliver Bode.
 Präsentation transkript:

3.3 Moving-Average-Prozesse (MA-Modelle) ·  Definition: Ein stochastischer Prozess (Xt) heißt Moving-Average-Prozess der Ordnung q [MA(q)-Prozess], wenn er die Form   (1) oder (1’) mit (2) hat. (Ut) ist dabei ein Zufallsprozess aus unabh. identisch verteilten Zufallsvariablen. ٱ Xt wird als Abweichung vom Prozessmittelwert µ betrachtet, so dass E(Xt)=0 gilt. Allg.

·   Bemerkungen: Interpretation: Der beobachtete Wert Xt ist ein gewogenes Mittel aus den gegenwärtigen und vergangenen Schocks ut-τ , τ =1,2, ..., q, die voneinander unabhängig sind. -    Im Fall q = ∞ heißt (Xt) ein unendlicher Moving-Average-Prozess [MA(∞)]. -     MA(q)-Prozesse sind Spezialfälle des allg. linearen Prozesses wobei (ψτ) ein absolut summierbarer Filter ist. Eigenschaft eines MA(q)-Prozesses: ψτ=0 für τ<0 (kausaler Filter). -    MA(q)-Prozess ergibt sich durch Filtern eines reinen Zufallprozesses mit dem Filter (1, -θ1, ..., -θq).   Anwendung in Ökonometrie: Ökonom. Variable beeinflusst von einer Reihe „ random shocks“ wie Streiks, Regierungsmaßnahmen, Knappheit an wichtigen Material etc. Effekte in aufeinanderfolgenden Perioden mit immer geringerem Ausmaß.

  Spezielle MA(q)-Prozesse     MA (1)- Prozess Varianz von Xt: Autokovarianzf. (ACVF): für τ = 1:  

für τ = 2:   Autokorrelationsf. (ACF):

Abb. 1: ACFs für MA (1)-Modelle mit θ1=-0,5 u. θ1= 0,5 MA(1) Prozess: MA(1) Prozess:

Partielle Autokorrelationsfunktion (PACF) für MA(1): (Bem.: Die partielle Autokorrelationsfunktion für MA(q)-Prozesse verhält sich ähnlich wie die Autokorrelationsfunktion eines AR(q)-Prozesses. Für θ1<0 ist sie alternierend und für θ1<0 strebt sie mit exponentiell abnehmender Rate im negativen Bereich gegen 0.)

-    MA(2)-Prozess Varianz von Xt: Autokovarianzf. (ACVF): für τ = 1:

für τ = 2: γτ = 0 für τ ≥ 3 Autokorrelationsf. (ACF): ρτ = γτ / γ0

Abb. 2: ACFs für MA(2)-Modelle

 ● Partielle Autokorrelationsfunktion (PACF) Die partielle Autokorrelationsfunktion eines MA(2)-Prozesses lässt sich nicht mehr in einfacher form als Funktion der MA-Parameter θ1 und θ2 darstellen ( Durbin-Levinson-Algorithmus). Charakteristisches Polynom: Verlauf der PACF: Reelle Wurzeln des charakteristischen Polynoms: PACF verläuft monoton oder alternierend exponentiell gegen 0 Komplexe Wurzeln des charakteristichen Polynoms: PACF verläuft in Form einer gedämpften Sinusschwingung

·   Stationarität Wie man aus E(Xt) und den ACFs γτ leicht erkennt, sind keine Restriktionen bzgl. der (θi) zu setzen, um die Stationarität eines MA(q)-Prozesses zu sichern. ·   Invertibilität (Invertierbarkeit) Es lässt sich zeigen, dass aus den ACFs γτ nicht eindeutig auf einen zugrunde liegenden MA(q)-Prozess geschlossen werden kann. So haben z.B. die beiden MA(1)-Prozesse (a) und (b) identische ACFs. Box und Jenkins (1970) haben daher das Kriterium der Invertierbar-keit eingeführt, das vor allem auch von Bedeutung ist, wenn in der Praxis aus der ge-schätzten ACF auf die Modellparameter geschlossen werden soll. Die Invertibilitätsbedin-gung sichert, dass es einen eindeutigen MA(q)-Prozess für eine gegebene ACF gibt.

MA(q)-Prozesse (Xt) erhält man durch Filtration von White-Noise-Prozessen (Ut) mit linearen, endlichen Filtern [Xt = θ (B) Ut]. Für die Invertierbarkeit des Prozesses ist nun entscheidend, ob sich der Prozess (Ut) umgekehrt durch Filtration von (Xt), also Ut = θ-1(B)Xt , erhalten lässt. Wie schon allgemein ausgeführt, sind dabei nur absolut summierbare und kausale Filter von Interesse. Ein MA(q)-Prozess heißt invertierbar, wenn alle Nullstellen des charakteristischen Polynoms außerhalb des Einheitskreises liegen. □ Unter dieser Bedingung gilt Ut = θ-1(B)Xt , wobei ein kausaler Filter mit absolut summierbarer Koeffizientenfolge ist.

  ·   Momente für MA(q)-Prozess (allgemein): -   Erwartungswert von Xt -     Varianz von Xt

-   Kovarianz zw. Xt und Xt+τ , τ ≠ 0 Fall (a): τ > q für τ = q+1: =  =  =  = t + q = t + 1 = t + q = t + 1 Man kann leicht sehen, dass Entsprechendes für  = q+2, q+3,... gilt, so dass allgemein gilt.  = 0 für  >q

Fall b): 0 <   q = 1: = t = t = t-1 = t = t-1 =2: = t+1 = t = t+1 = t = t+1 = t

allgemein: ACVF: ACF:   Interpretation: Aus der ACF erkennt man, dass  bei einem MA(q)-Prozess für Lags  > q verschwindet (von Relevanz bei der Identifizierung von ARMA- bzw. ARIMA-Prozessen).

Invertibilitätsbedingungen: Bei einer Verletzung der Invertibilitätsbedingungen ist der ARMA-Prozess nicht definiert. Die Invert.bed. garantieren außerdem die Eindeutigkeit bei der Identifikation des stoch. Prozesses aus der Autokorrelationsfunktion.   MA(1)-Prozess: -1 < 1 < 1 MA(2)-Prozess: 1 + 2 < 1 2 - 1 < 1