Partielle Autokorrelation

Slides:



Advertisements
Ähnliche Präsentationen
Statistik-Tutorat SS 2009 Christina
Advertisements

Zeitreihen Gliederung Allgemeines zu Zeitreihen
Theorie psychometrischer Tests, III
Multivariate Analysemethoden Johannes Gutenberg Universität Mainz
Diese Fragen sollten Sie beantworten können
V 5: Partielle Differentialgleichungen - Grundlagen
Numerik partieller Differentialgleichungen
ARCH- und GARCH Modelle
Heute Prüfung der Produkt-Moment Korrelation
Forschungsstatistik I Prof. Dr. G. Meinhardt WS 2004/2005 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz.
Forschungsstatistik II Prof. Dr. G. Meinhardt SS 2006 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz KLW-18.
Kapitel 6 Differenzierbarkeit. Kapitel 6: Differenzierbarkeit © Beutelspacher Juni 2005 Seite 2 Inhalt 6.1 Die Definition 6.2 Die Eigenschaften 6.3 Extremwerte.
6. Grundlegende Gleichungen
Mehrfachregressionen
Hypothesen testen: Grundidee
Zeitreihenanalyse WS 2004/2005 Michael Hauhs / Gunnar Lischeid
1. Warum ist „Kartenkunde“ für die Feuerwehr wichtig ?
F FnFn z Prof. Dr. Johann Graf Lambsdorff Universität Passau SS a. Anhang zur Bestimmung der optimalen Taylor-Regel.
Konfidenzintervalle Intervallschätzung
M-L-Schätzer Erwartungswert
Konfidenzintervalle Intervallschätzung Jeder Beobachtung wird ein Intervall C( ) der reellen Zahlen zugeordnet Niveau Dabei ist die Wahrscheinlichkeit,
Statistische Methoden II SS 2003 Vorlesung:Prof. Dr. Michael Schürmann Zeit:Freitag (Pause: ) Ort:Hörsaal Loefflerstraße Übungen.
Maximum-Likelihood-Schätzer ( diskreter Fall) Likelihood-Funktion mit oder M-L-Schätzer.
Folie 1 § 29 Determinanten: Eigenschaften und Berechnung (29.1) Definition: Eine Determinantenfunktion auf K nxn ist eine Abbildung (im Falle char(K) ungleich.
Tutorium
Tutorium
Tutorium Aufgabe 1 a) E(eIX)= 0 E(eIX)= E(Y-E(YIX)IX) = E(YIX)- E (E(YIX)IX) = E(YIX)- E(YIX) = 0 Im Mittel macht man mit seiner Schätzung keinen.
5. Abbildende versus erklärende Modelle –
Dummy-Variablen Gleicher Lohn bei gleicher Qualifikation: Frauen verdienen im Durchschnitt zwar weniger als Männer, aber ist die Ursache dafür in der Diskriminierung.
Eigenschaften der OLS-Schätzer
Probleme der Modellspezifikation
Multikollinearität Wann spricht man von Multikollinearität?
Variationsformalismus für das freie Teilchen
Bestimmung der Regressionsgewichte in der multiplen Regression
Sali zäma.
Stochastische Prozesse I
Nachtragsfall 1: Leistungsänderung
Effiziente Algorithmen
Beweissysteme Hartmut Klauck Universität Frankfurt WS 06/
Statistik: Mehr zur Regression.
Kapitel 13 Zeitreihen und Zeitreihen-Modelle
Kapitel 10 Multikollinearität
Kapitel 18 Dynamische Modelle: Schätzen der Parameter
Ökonometrie I Analyse der Modellstruktur Ökonometrie I2 Rekursive OLS-Schätzung Spezifiziertes Modell: y = X + u y, u: n-Vektoren; X: Ordnung.
Kapitel 16 Ökonometrische Modelle
Kapitel 13 Zeitreihen und Zeitreihen-Modelle
Ökonometrie I Variablenauswahl.
Kapitel 18 Dynamische Modelle: Schätzen der Parameter.
STATISIK LV Nr.: 0021 WS 2005/ November 2005.
...und alle heißen Leo Der täuschende Zuruf. Hab ihn! Lass ihn! LEO!
Strategie der Modellbildung
2.4 Residualkomponente und Korrelogramm
3.4 ARMA- und ARIMA-Modelle
1 STATISIK LV Nr.: 0021 WS 2005/ November 2005.
3.2 Autoregressive Prozesse (AR-Modelle) AR(p)-Prozesse
3.3 Moving-Average-Prozesse (MA-Modelle)
4. Nichtstationarität und Kointegration
2.4 Residualkomponente und Korrelogramm
Dr.-Ing. R. Marklein - GET I - WS 06/07 - V Grundlagen der Elektrotechnik I (GET I) Vorlesung am Fr. 08:30-10:00 Uhr; R (Hörsaal)
Dr.-Ing. R. Marklein - GET I - WS 06/07 - V Grundlagen der Elektrotechnik I (GET I) Vorlesung am Fr. 08:30-10:00 Uhr; R (Hörsaal)
setzt Linearität des Zusammenhangs voraus
Der Binomialtest Man habe einen wahren Anteil P. Kann man aufgrund von p sagen, daß in der Population tatsächlich der Anteil P zugrunde liegt? [Beispiele]
Testtheorie (Vorlesung 13: ) Wiederholung: Richtigstellung
Testtheorie (Vorlesung 12: ) Wiederholung: Reliabilität
Lineare Gleichungen Allgemeine Einführung Äquivalenzumformungen
Andreas Neu. Zielsetzung: Berechnung des Inneren Astigmatismus zur Bestimmung einer optimal korrigierenden „Anpasslinse“.
 Gegenstandsbereich der Testtheorie: Analyse der Charakteristika von Tests:  Güte von Tests.  Struktur von Tests.  Schwierigkeit von Tests.  Gruppenunterschiede.
Außenhandelsbeziehungen zwischen China, USA, EU Makroökonometrie Vorlesung Dr. Oliver Bode.
Lineare Optimierung Nakkiye Günay, Jennifer Kalywas & Corina Unger Jetzt erkläre ich euch die einzelnen Schritte und gebe Tipps!
Außenhandelsbeziehungen zwischen China, USA, EU Makroökonometrie Vorlesung Dr. Oliver Bode.
 Präsentation transkript:

Partielle Autokorrelation Bei der Modellbildung ist die Ordnung des Moving-Average- und autoregressiven Pro-zesses zu bestimmen. Beim Moving-Average-Prozess lässt sich die Prozessordnung an-hand der signifikanten Stichprobenautokorrelationen gut bestimmen, da die theoretischen Autokorrelationskoeffizienten eines MA(q)-Prozesses für Lags, die größer als q sind, ver-schwinden. Die Ordnung eines autoregressiven Prozesses kann dagegen nicht auf diese Art und Weise bestimmt werden, da gedämpfte Schwingungen oder monoton fallende Stichprobenautokorrelationen für alternative Lag-Ordnungen q zu erwarten sind. Eine Identifikation der Prozessordnung kann hier jedoch auf der Grundlage der partiellen Autokorrelationsfunktion (PACF) erfolgen. Bei der partiellen Autokorrelationsfunktion zum Lag τ werden die Einflüsse der Variablen Xt-1, Xt-2, ..., Xt-τ+1 auf die Variable Xt „herauspartialisiert“. Es wird allein der direkte Ein-fluss von Xt-τ auf Xt gemessen: L t - 1 + ­ X  + 1 2 direkter Einfluss

Der partielle Autokorrelationskoeffizient ist ein Spezialfall des partiellen Korrelations-koeffizienten, bei dem Einflüsse dritter Größen auf den Zusammenhang zwischen zwei Merkmalen eliminiert werden. Das Konzept der partiellen Autokorrelation lässt sich am besten anhand der Regres-sionsgleichung erklären. Der erste Index bei den Regressionskoeffizienten gibt den Lag an, der zweite Index die Prozessordnung. Der Regressionskoeffizient pp ist der partielle Auto-korrelationskoeffizient p-ter Ordnung, da er den zusätzlichen (partiellen) Einfluss misst, der von Xt-p auf Xt ausgeübt wird, wenn die zeitlich dazwischen liegenden Variablen Xt-1, Xt-2, ..., Xt-p+1 bereits berücksichtigt sind. Entsprechend sind die übrigen Regressionskoeffizienten zu interpretieren. Entscheidend für die Identifikation der Prozessordnung ist die Eigenschaft, dass die partiellen Autokorrelationskoeffizienten eines AR(p)-Prozesses für ein Lag τ > p verschwindet:

Um die Ordnung eines autoregressiven Prozesses identifizieren zu können, sind die signifikanten partiellen Stichprobenautokorrelationskoeffizienten zu ermitteln, wobei man eine Signifikanz bei einem sehr hohen Lag in der Regel unberücksichtigt lässt. Hierzu ist die Kenntnis der Verteilung der geschätzten PAC-Koeffizienten erforderlich: Bei einer vorgegebenen Irrtumswahrscheinlichkeit um 5% sind diejenigen partiellen Autokorrelationskoeffizienten als signifikant einzustufen, die außerhalb des approximativen Konfidenzintervalls liegen.

Partielle Autokorrelationsfunktion (PACF) • AR(1)-Prozess: Lag Prozessordnung In der Gleichung muss sein. Setzt man an, so muss außerdem gelten, da bei einem AR(1)-Prozess die verzögerten Variablen Xt-2 (ebenso wie die verzögerten Variablen Xt-3, Xt-4, ...) nicht in der Prozessgleichung enthalten sind. Das bedeutet, dass die partiellen Autokorrelationen für Lags, die größer als 1 sind, verschwinden. Die partielle Autokorrelationsfunktion eines AR(1)-Prozesses, , hat daher die Form Da zwischen Xt-1 und Xt keine intervenierende Variable liegt, muss gelten, d.h. der partielle AC-Koeff. 1. Ordn. entspricht dem gewöhnlichen AC-Koeff. 1. Ordn. Lag Ord- nung Lag Ord- nung

Abbildung : Partielle Autokorrelationsfunktion für AR(1)-Prozess

• AR(2)-Prozess: Lag Ord- nung Lag Ord- nung Für τ = 1 ergibt sich der partielle Autokorrelationskoeffizient eines AR(2)-Prozesses wie folgt: Für τ = 2 erhält man den partielle Autokorrelationskoeffizienten 22 aus

Für τ > 2 verschwinden die partiellen Autokorrelationskoeffizienten 2, was analog wie bei dem AR(1)-Prozess begründet werden kann. Damit hat die partielle Autokorrelationsfunktion eines AR(2)-Prozesses, 2, die Form

Abbildung: Partielle Autokorrelationsfunktion für AR(2)-Prozess  1 2 3 4 5 6 0,3/(1-0,6)=0,75 0,6  1 2 3 4 5 6 -0,2/(1-0,4)=-0,333 0,4