3. Stochastische Prozesse und ARIMA-Modelle 3

Slides:



Advertisements
Ähnliche Präsentationen
Definition [1]: Sei S eine endliche Menge und sei p eine Abbildung von S in die positiven reellen Zahlen Für einen Teilmenge ES von S sei p definiert.
Advertisements

Seminar „Extrapolationsmethoden für zufällige Felder“
Ein Modellansatz zur Beschreibung von Vagheiten
ARCH- und GARCH Modelle
Vorlesung Informatik 2 Algorithmen und Datenstrukturen (19 - Analyse natürlicher Bäume) Prof. Th. Ottmann.
Kapitel 5 Stetigkeit.
Kapitel 6 Differenzierbarkeit. Kapitel 6: Differenzierbarkeit © Beutelspacher Juni 2005 Seite 2 Inhalt 6.1 Die Definition 6.2 Die Eigenschaften 6.3 Extremwerte.
Portfoliomodelle Faktormodelle
2. Univariate Regressionsanalyse 2.1 Das statische Regressionsmodell
K. Desch - Statistik und Datenanalyse SS05
Zeitreihenanalyse WS 2004/2005 Michael Hauhs / Gunnar Lischeid
F FnFn z Prof. Dr. Johann Graf Lambsdorff Universität Passau SS a. Anhang zur Bestimmung der optimalen Taylor-Regel.
Konfidenzintervalle Intervallschätzung
M-L-Schätzer Erwartungswert
TESTS. Worum es geht Man möchte testen, ob eine bestimmte Annahme (Hypothese) über Parameter der Realität entspricht oder nicht. Beobachtung (Stichprobe)
Die Student- oder t-Verteilung
Erwartungswert und Varianz I Der endliche Fall Erwartungswert Varianz.
Konfidenzintervalle Intervallschätzung Jeder Beobachtung wird ein Intervall C( ) der reellen Zahlen zugeordnet Niveau Dabei ist die Wahrscheinlichkeit,
Statistische Methoden I SS 2005 Vorlesung:Prof. Dr. Michael Schürmann Zeit:Freitag (Pause: ) Ort:Hörsaal Loefflerstraße Übungen.
Achtung Vorlesung am Montag, den 21. Juni Zeit: Uhr Ort: Kiste.
Statistische Methoden II SS 2003 Vorlesung:Prof. Dr. Michael Schürmann Zeit:Freitag (Pause: ) Ort:Hörsaal Loefflerstraße Übungen.
III. Induktive Statistik
Maximum-Likelihood-Schätzer ( diskreter Fall) Likelihood-Funktion mit oder M-L-Schätzer.
§ 28 Multilineare und Alternierende Abbildungen
§8 Gruppen und Körper (8.1) Definition: Eine Gruppe G ist eine Menge zusammen mit einer Verknüpfung, die jedem Paar (a,b) von Elementen aus G ein weiteres.
Tutorium
Vorlesung Biometrie für Studierende der Veterinärmedizin Begriff der Zufallsgröße Ergebnisse von Zufallsexperimenten werden als Zahlen dargestellt:
Binomialverteilung: Beispiel
Wahrscheinlichkeitsrechnung
Einfache Regressionsgleichung
Multikollinearität Wann spricht man von Multikollinearität?
Variationsformalismus für das freie Teilchen
§10 Vektorraum. Definition und Beispiele
Sali zäma.
Stochastische Prozesse I
Partielle Autokorrelation
Ausgleichungsrechnung II
Beweissysteme Hartmut Klauck Universität Frankfurt WS 06/
Information und Kommunikation Hartmut Klauck Universität Frankfurt SS
Folie 1 § 28 Multilineare und Alternierende Abbildungen (28.1) Definition: V und W seien wieder ein K-Vektorräume. Eine Abbildung von V nach W stets linear.
Fuzzymengen – Was ist das?
Wahrscheinlichkeit Zufallsexperiment:
STATISIK LV Nr.: 0028 SS Mai 2005.
Kapitel 13 Zeitreihen und Zeitreihen-Modelle
Kapitel 10 Multikollinearität
STATISIK LV Nr.: 1375 SS März 2005.
Kapitel 9 Analyse der Modellstruktur Hackl, Einführung in die Ökonometrie 2 Rekursive OLS-Schätzung Spezifiziertes Modell: y = X + u y, u:
Kapitel 19 Kointegration
Kapitel 3 Lineare Regression: Schätzverfahren
Kapitel 16 Ökonometrische Modelle
Kapitel 14 Trends und Unit-root-Tests
Kapitel 13 Zeitreihen und Zeitreihen-Modelle
STATISIK LV Nr.: 0021 WS 2005/ November 2005.
Strategie der Modellbildung
2.4 Residualkomponente und Korrelogramm
Kapitel 14 Trends und Unit-root-Tests
Vorwissen: Begriff der Steigung Geradengleichung Polynomfunktionen Monotonie und Extremwerte In den ersten Beispielen werden dieses Wissen allerdings wiederholt.
3.2 Autoregressive Prozesse (AR-Modelle) AR(p)-Prozesse
3.3 Moving-Average-Prozesse (MA-Modelle)
4. Nichtstationarität und Kointegration
3. Stochastische Prozesse und ARIMA-Modelle 3
2.4 Residualkomponente und Korrelogramm
Stochastik ganz kurz Beispiel diskret Würfelwurf Beispiel stetig
setzt Linearität des Zusammenhangs voraus
Die Binomialverteilung
Der Wiener Prozess und seltene Ereignisse
Die Dynamik von abgeleiteten Preisen Stochastische Differentialgleichungen.
Prognose von Zeitreihen Hans Nübel Hans Nübel Prognose von Zeitreihen Aufbau 1.Motivation 2.Holt-Winters-Verfahren 3.Prognose.
Außenhandelsbeziehungen zwischen China, USA, EU Makroökonometrie Vorlesung Dr. Oliver Bode.
Aufgabenstellung  gegeben ist die zeitliche Entwicklung der global gemittelten bodennahen Temperatur im Zeitraum (Dateiname= ytemp2m.obs, ascii-
 Präsentation transkript:

3. Stochastische Prozesse und ARIMA-Modelle 3 3.   Stochastische Prozesse und ARIMA-Modelle 3.1  Stochastische Prozesse und Stationarität Stochastischer Prozess T Menge der Zeitpunkte, für die der Prozess definiert ist wenn T kontinuierlich (meist wenn T diskret (i.d.R. oder Realisation eines stochastischen Prozesses ( Zeit-reihe) Stochastischer Prozess (Menge von Zufallsvariablen) , also also also )

Abbildung 3.1: Stochastischer Prozess und Zeitreihe

Übersicht 3.1: Stochastischer Prozess und Zufallsvorgänge t fest t variabel fest Zeitreihe Realisation der Zufallsvariablen variabel Zufallsvariable (zu einem best. Zeitpunkt) vollst. stoch. Prozess Definition: Ein stochastischer Prozess ist eine Folge von Zufallsvariablen, in der T die Menge der Zeitpunkte bezeichnet, für die der Prozess definiert ist. Falls ist, spricht man von einem diskreten stochastischen Prozess, bei von einem stetigen stochastischen Prozess. Interpretation: · Einem stochastischen Prozess liegt ein Zufallsvorgang zugrunde. Es sei ein Element des Stichprobenraums . Das Ergebnis des Zufallsvorgangs zieht somit den Wert der Zufallsvariablen nach sich. · Stochastischer Prozess als "ensemble" von Zeitreihen (Zeitpfaden, Trajektorien). Jedes Mitglied dieses "ensembles" (dieser Familie) ist eine mögliche Realisation eines stochastischen Prozesses. Die beobachtete Zeitreihe ist eine spezielle Realisation.

Ergodizität: In der induktiven Statistik werden im Allgemeinen unabhängige und identisch verteilte Stichprobenvariablen bei der Schätzung der Parameter einer Grundgesamtheit vorausgesetzt. Es lassen sich dann i.d.R. Schätzfunktionen konstruieren, die die Konsistenzeigenschaft besitzen. Z.B. sind und S2 konsistente Schätzer für die Parameter und 2 . In der Zeitreihenanalyse ist die Unabhängigkeitsannahme im Allgemeinen gerade nicht erfüllt. Vielmehr werden die Zeitreihenwerte als Realisationen verschiedener abhängiger Zufallsvariablen aufgefasst. Zu jedem Zeitpunkt (Periode) liegt nur eine einzige Beobachtung der betrachteten Zufallsvariablen vor. Wenn man trotzdem die n Zeitreihenwerte analog wie n Querschnittswerte zur Parameterschätzung verwenden will, müssen bestimmte Voraussetzungen erfüllt sein. Zuallererst ist zu klären, unter welchen Bedingungen das zeitliche Mittel gegen das Ensemble-Mittel  konvergiert, d.h. eine konsistente Schätzung von  durch möglich ist. Aufklärung hierüber geben die Ergodensätze. Die Konvergenz ist gesichert, wenn der betrachtete stochastische Prozess ergodisch ist. Wie sich zeigt, sind schwach statio­näre Prozesse mit einer bestimmten Zusatzeigenschaft ergodisch.

Im Falle der Mittelwertergodizität gilt z.B. , was bei einem (schwach) stationären stochastischen Prozess gegeben ist, wenn seine Autokovarianzfunktion absolut summierbar ist. Das Ensemblemittel lässt sich dann konsistent durch das zeitliche Mittel schätzen. Eine Zeitreihe ist eine spezielle Realisation aus einer i.d.R. unendlichen Menge von möglichen Realisationen von . Zu jedem Zeitpunkt liegt nur 1 Beobachtung für die Zu­fallsvariable Xt vor, während gewöhnlich bei statistischen Problemen mehrere Beobachtungen zur Schätzung einer Wahrscheinlichkeitsverteilung oder ihrer Charakteristiken verfügbar sind. Es werden daher zur Schätzung der gemeinsamen Wahrscheinlichkeitsverteilung von Restriktionen einzuführen sein. Eine Möglichkeit, einen stochastischen Prozess zu beschreiben, ist die gemeinsame Wahrscheinlichkeitsverteilung von für beliebige Mengen (Permutationen) von Zeitpunkten und beliebiges n zu spezifizieren. Gemeinsame Wahrscheinlichkeitsverteilung von : (3.1.1) Konsistenztheorem v. Kolmogoroff: Stoch. Prozess eindeutig, wenn man das System seiner endlich-dim. Vert.funktionen kennt. In der Praxis ist dieser Weg i.d.R. jedoch nicht gangbar. Stattdessen beschreibt man einen stochastischen Prozess durch seine Momente erster und zweiter Ordnung.

Momente eines stochastischen Prozesses (Momente erster und zweiter Ordnung): Mittelwertfunktion t: (-folge) (3.1.2) Varianzfunktion : (-folge) (3.1.3) Autokovarianzfunktion : (ACVF) (-folge) (3.1.4) Für die Autokorrelationsfunktion (ACF) folgt dann (-folge) (3.1.5) Interpretation: ·   Die Mittelwertfolge gibt die durchschnittliche Zeitfolge an, um die die Realisierungen des Prozesses schwanken. Mittelung über alle Zeitfolgen des "ensembles" (= Ensemblemittel). Dagegen ergibt sich bei Mittelung der einzelnen realisierten Beobachtungen über alle t das zeitliche Mittel       Die Varianzfolge gibt für jeden Zeitpunkt t an, in welchem Ausmaß die Zufallsvariable um den Wert der Mittelwertfolge streut. · Bei einem stochastischen Prozess sind die Zufallsvariablen typischerweise voneinander stochastisch abhängig. Das Hauptinteresse liegt in der Analyse der Abhängigkeitsstrukturen mittels geeigneter Modelle. Richtung und Stärke der Abhängigkeit werden mittels der Autokovarianzfolge (ACVF) und der Autokorrelationsfolge (ACF) gemessen.

Streng stationärer stochastischer Prozess: (3.1.6) Die gemeinsame Verteilungsfunktion der Zufallsvariablen ist identisch mit der Verteilungsfunktion der um  Zeitpunkte verschobenen Zufallsvariablen . Die gemeinsame Wahrscheinlichkeitsverteilung hängt also nur von den Intervallen zwischen ab. Schwach stationärer Prozess: (3.1.7) (3.1.8) (3.1.9) oder, wenn man setzt: (3.1.9‘) [Bem.: Kovarianz zwischen Xt und Xs ist nur von der zeitlichen Differenz abhängig, nicht jedoch von den Zeitpunkten.] Für die ACF folgt damit (3.1.10) oder mit (3.1.9) (3.1.10‘)

Exkurs: Trendelimination durch Differenzenbildung Linearer Trend Durch Bildung der ersten Differenzen lässt sich ein linearer Trend ausschalten. Quadratischer Trend Durch Bildung der zweiten Differenzen lässt sich ein quadratischer Trend ausschalten.

3.2 Spezielle stochastische Prozesse White-Noise-Prozess Ein stochastischer Prozess heißt White-Noise-Prozess, wenn er die Eigenschaften besitzt. Beim White-Noise-Prozess werden allein die beiden ersten Momente betrachtet. Da die Autokovarianzen verschwinden, besteht keine lineare Beziehung zwischen den vergangenen, aktuellen und zukünftigen Realisationen der Zufallsvariablen ut. Das bedeutet, dass auf der Basis eines linearen Zeitreihenmodells nicht prognostiziert werden kann. Wenn allerdings höhere Momente des stochastischen Prozesses ungleich null sind, könnte ggf. unter Verwendung eines nichtlinearen Modells vorhergesagt werden. Unabhängige und identische Verteilung (i.i.d.) Eine Zufallsvariable ist unabhängig und identisch verteilt [independent and identically distributed (= i.i.d.)], wenn alle Terme zeitlich unabhängig sind und dieselbe Verteilung haben. Die Dichtefunktionen sind dann für alle t identisch, für alle t, und die gemeinsame Dichtefunktion ist dann gleich dem Produkt der marginalen Dichtefunktionen : . Die Kenntnis vergangener und aktueller Werte von liefert dann keine prognostisch verwertbaren Informationen für .

Martingale-Prozess Ein stochastischer Prozess , der die Eigenschaft (3.2.1) besitzt, heißt Martingale-Prozess. Wenn der bekannte aktuelle Aktienkurs ist, dann würde für die Periode bei einem Martingale-Prozess unter Kenntnis aller vergangenen Kursinformationen genau derselbe Kurs zu erwarten sein. Als "tomorrow's price" ist stets "today's price" zu erwarten. Die Verwertung vergangener Kursrealisationen führt zu keiner verbesserten Kursprognose. Vielmehr ist die beste Kursprognose im Sinne des Mean Square Errors stets einfach der aktuelle Kurs. Die Martingale-Eigenschaft lässt sich gleichwertig in der Form (3.2.2) mit der "Martingale-Differenz“ darstellen. Die Martingale-Differenz hat hinsichtlich des Erwartungswerts und der Kovarianzen dieselben Eigenschaften wie der White-Noise-Prozess, doch ist die Varianz nicht notwendig konstant. Bei einer Interpretation von als Aktienkurs sagt die Eigenschaft (3.2.2) aus, dass die erwartete Kursänderung unter Berücksichtigung der gesamten Kurshistorie der Aktie gleich null ist. Auf bestimmten spekulativen Märkten wie z.B. auf Aktienmärkten wird ein Kapitalanleger finanzielle Mittel nur bei Erwartung einer positiven Rendite investieren. Der für die Periode t+1 erwartete Kurs (ggf. bereinigt um Dividenden, Kapitalveränderungen etc.) muss dann bei gegebenen vergangenen Kursen größer als der aktuelle Kurs sein. Lässt man die Gleichheit als Extremfall zu, dann hat man durch (3.2.3) einen Submartingale-Prozess definiert.

Die erwarteten Kurse sind hierbei stets größer oder gleich dem aktuellen Kurs. Sofern die kursrelevante Informationsmenge auf die Kurshistorie restringiert wird, sind in den Aktienkursen stets alle Informationen enthalten. Überdurch­schnittliche Renditen sind daher nicht mit einem Submartingale-Prozess vereinbar. Vielmehr ist zu erwarten, dass alternative "trading rules" im Mittel keine höheren Renditen abwerfen als die einfache "buy and hold"-Strategie. Aufgrund dessen wird der (Sub-)Martingale-Prozess bei einer Anwendung auf spekulativen Märkten als eine Ausprägung eines "fair game"-Modells angesehen. Das bedeutet, dass z.B. die Investition auf einem Aktienmarkt ein faires Spiel in dem Sinne ist, dass kein Investor, der den aktuellen Kurs kennt, Vorteile gegenüber einem anderen Investor besitzt. Es gibt keine Strategien, die es ermöglichen, den Markt zu "schlagen". Bei der Definition des (Sub-)Martingale-Prozesses ist hinsichtlich der Verteilung der Zufallsvariablen allein eine Aussage über den (bedingten) Erwartungswert gemacht worden. Die höheren (bedingten) Momente sind dagegen unspezifiziert geblieben. So braucht z.B. bei einem (Sub-)Martingale-Prozess die bedingte Varianz nicht notwendig konstant zu sein. All­gemein sind die nichtlinearen Eigenschaften eines (Sub-)Martingale-Prozesses offen, da die bedingten Erwartungswerte für größere Werte von p nicht spezifiziert sind.

Random Walk Es sei eine unabhängig identisch verteilte Zufallsvariable (i.i.d.) mit den Parametern und . Dann folgt die Zufallsvariable , (3.2.4)              einem Random Walk. Man spricht von einem Random Walk, wenn der aktuelle Wert einer Zufallsvariablen sich aus dem Vorperiodenwert plus einer Realisation einer i.i.d.-Zufalls­variablen ergibt. Auf diese Weise ergibt sich ein Zufallspfad, der nicht-stationär ist, d.h. sich beliebig von seinem Mittelwert entfernen kann. Hieraus hat sich der Begriff der Irrfahrt ge­prägt, die gelegentlich z.B. bei Aktienkursen und anderen spekulativen Preisen zu beobachten ist. Um den Erwartungswert und die Varianz des Prozesses zu ermitteln, setzen wir den Anfangswert X0 ohne Einschränkung der Allgemeinheit gleich null: (3.2.5)              . Dann ergibt sich die Folge (Xt) aus (3.2.6)              Unter Verwendung von (3.2.6) lässt sich leicht der Erwartungswert

(3.2.7) ableiten. Gleichermaßen erhält man die unbekannte Varianz des Prozesses aus (3.2.8) [Für , d.h. bei unendl. lang andauerndem Prozess geht die Varianz gegen unendlich.] Während der Erwartungswert eines Random Walks zeitlich konstant ist, trifft dies für seine Varianz nicht zu. Vielmehr nimmt sie mit wachsendem t zu und ist daher zeitvariabel. Der Random Walk-Prozess (3.2.4) ist daher mittelwertstationär, aber nicht varianzstationär. Wie sich zeigen lässt, ist der Random Walk (3.2.4) ebenfalls nicht kovarianzstationär. Wegen (3.2.9) hängt seine Kovarianz wie die Varianz vom Zeitindex t ab. Die Autokorrelationsfunktion des Random Walks, (3.2.10) , ist nicht nur eine Funktion der zeitlichen Differenz |s–t|, sondern auch von den konkreten Zeitperioden t und s abhängig, für die sie betrachtet wird. Abbildung 3.2 gibt eine typische Realisation eines Random Walks in einem Zeitreihendiagramm wieder. Die im Zeitablauf zunehmende Varianz bewirkt, dass sich die Realisationen im Mittel immer weiter voneinander entfernen.

Abbildung 3.2: Zeitpfad eines Random Walks X * Durch Differenzenbildung lässt sich der nichtstationäre Prozess in einen stationären Prozess überführen: (3.2.11) Wie aus (3.2.11) hervorgeht, ist ein i.i.d.-Prozess, dessen Parameter mit denen des i.i.d.-Prozesses übereinstimmen. Der bedingte Erwartungswert ist unabhängig von , da sich modellmäßig alle Informationen bis zur Periode t–1 im Vorperiodenwert widerspiegeln: (3.2.12)

Die Beziehung (3. 2. 12) kann zur Bestimmung eines Prognosewerts Die Beziehung (3.2.12) kann zur Bestimmung eines Prognosewerts für die Periode n+1 unter Berücksichtigung der gesamten Zeitreihenhistorie verwendet werden. Der Prognosewert ist durch den bedingten Erwartungswert (3.2.13)              gegeben, d.h. die Ein-Schrittprognose entspricht genau dem letzten bekannten Zeitreihenwert. Analog ergibt sich der Prognosewert aus (3.2.14)              , , woraus durch Verallgemeinerung leicht (3.2.15) gezeigt werden kann. Der h-Schritt-Prognosewert stimmt damit bei einem Random Walk mit dem Ein-Schritt-Prognosewert überein. Gleichwohl ist die h-Schritt-Prognose mit zunehmendem Zeithorizont mit einer immer größeren Unsicherheit behaftet. Man erkennt dies an der Varianz des Prognosefehlers. Bei der Ein-Schritt-Prognose lautet der Prognosefehler

so dass seine Varianz durch gegeben ist. Der 2-Schritt-Prognosefehler hat dagegen die Varianz Allgemein ist die Varianz eines h-Schritt-Prognosefehlers durch (3.2.16)              gegeben, was bedeutet, dass sich der Standardfehler der Prognose (3.2.17)              in jeder Periode um den Faktor vergrößert. Aus Abbildung 3.3 geht die damit einhergehende Verbreiterung des Prognoseintervalls (Konfidenzintervall der Prognose) mit zunehmendem Zeithorizont hervor.

Abbildung 3.3: Prognoseintervall

In Gleichung (3.2.4) ist ein Random Walk ohne Drift dargestellt worden. Bei einem Random Walk ohne Drift ist z.B. die erwartete Änderung eines Aktienkurses gegeben die Informationen bis zur Periode t–1 stets gleich null: . Trendmäßig steigende Aktienkurse könnten z.B. durch Einführung eines Driftparameters in (3.2.4) berücksichtigt werden: [1] (3.2.18)               . Gleichung (3.2.18) charakterisiert einen Random Walk mit Drift. Die bedingt erwartete Kursänderung einer Aktie würde dann genau dem Driftparameter b entsprechen: Alternative Formulierungen der Random Walk-Hypothese beziehen sich auf eine Lockerung der Annahmen hinsichtlich des Zufallsprozesses . Zum einen können alternativ unabhängige, aber nicht identisch verteilte Innovationen unterstellt werden. Hierunter fallen vor allem Prozesse mit heteroskedastischen Varianzen. Zum anderen wird gelegentlich die Unabhängigkeitsannahme durch die Unkorreliertheitsannahme ersetzt, was einem White-Noise-Prozess für impliziert.  [1] Es handelt sich hierbei jedoch nicht um einen deterministischen Trend, sondern um einen stochastischen Trend, was konkreter in Kapitel 4 (Nichtstationärität und Kointegration) zu erläutern sein wird.