Die Präsentation wird geladen. Bitte warten

Die Präsentation wird geladen. Bitte warten

Der Einfluss von Inputparametern auf Value at Risk - Modelle am Beispiel des Portfolios einer österreichischen Bank FH Wien | Studiengang Financial Management.

Ähnliche Präsentationen


Präsentation zum Thema: "Der Einfluss von Inputparametern auf Value at Risk - Modelle am Beispiel des Portfolios einer österreichischen Bank FH Wien | Studiengang Financial Management."—  Präsentation transkript:

1 Der Einfluss von Inputparametern auf Value at Risk - Modelle am Beispiel des Portfolios einer österreichischen Bank FH Wien | Studiengang Financial Management & Controlling Präsentation CFA Society Austria Kathrein Bank | 1010 Wien, Wipplingerstrasse 25 Verfasst von: DI Mag. (FH) Alexandra Petermann MA Betreuer: Mag. Dr. Donald Baillie, FRM

2 Value at Risk (VaR) = Risikomaß
Problemstellung Value at Risk (VaR) = Risikomaß VaR = „Mit einer Wahrscheinlichkeit von X % wird das Portfolio nicht mehr als V Euro in den nächsten N Tagen an Wert verlieren.“ 2 grundsätzliche Verfahren zur Risikomessung: Varianz-Kovarianz-Ansatz Historische Simulation Welches ist das „bessere“ Modell? Welche sind die wesentlichen Einflussfaktoren? VaR - Modelle werden heute einerseits zur Risikoberechnung für die Ermittlung der erforderlichen Eigenkapitalunterlegung aus Marktpreisrisiken und andererseits als firmen-/bankeneigene Methoden zur Risikomessung verwendet.

3 Forschungsfragen (1) a) Welche Unterschiede bestehen in der methodischen Vorgehensweise zwischen den Value at Risk Ansätzen der historischen Simulation versus Varianz-Kovarianz? b) Was sind die jeweiligen Funktionsweisen von historischer Simulation bzw. Varianz- Kovarianz-Ansatz? c) Was sind die jeweiligen Inputparameter? d) Was sind die jeweiligen Besonderheiten von historischer Simulation bzw. Varianz- Kovarianz-Ansatz? e) Was sind die jeweiligen und Vor- und Nachteile von historischer Simulation bzw. Varianz-Kovarianz-Ansatz? (2) a) Wie erfolgt im Speziellen die Aufbereitung des Inputparametes „historische Daten“? b) Wie soll mit nicht verfügbaren Daten umgegangen werden? c) Sind Gewichtungen auf historische Modelle anwendbar? (3) Welche Unterschiede bestehen bei der Berechnung des VaR unter Verwendung der unterschiedlichen Modelle und Parametrisierungen in den Softwarepaketen KVaR+ und SAS?

4 Empirische Untersuchung
Methode Theoretische Analyse Literaturrecherche Verifizierung durch Beispiele (Vergleich des Varianz-Kovarianz-Ansatzes mit Historischer Simulation anhand eines fiktiven Portfolios) Empirische Untersuchung Vergleich von zwei gängigen Softwareprogrammen zur Risikoberechnung Reales Portfolio Daten wurden von der RLB NÖ-Wien zur Verfügung gestellt

5 Ergebnisse Forschungsfrage 1a) Varianz-Kovarianz-Ansatz
Welche Unterschiede bestehen in der methodischen Vorgehensweise zwischen den Value at Risk Ansätzen der HS bzw. VC? Varianz-Kovarianz-Ansatz Parametrischer Ansatz. Legt statistische Annahmen über die Verteilungsfunktionen F(x) der Risikofaktoren zugrunde. Ab zwei Risikofaktoren muss die Korrelation zwischen den Risikofaktoren berücksichtigt werden. Historische Simulation Numerischer Ansatz. Braucht keine spezifische Verteilungseigenschaft der Risikofaktoren. Beruht auf den empirischen Daten der Vergangenheit.

6 Varianz-Kovarianz-Ansatz
Ergebnisse Forschungsfrage 1b) Was sind die jeweiligen Funktionsweisen von HS bzw. VC-Ansatz? Varianz-Kovarianz-Ansatz Ermittlung bzw. Schätzung der Varianzen und Kovarianzen erforderlich  Kovarianz-Matrix. VaR = Standardabweichung x Multiplikator abh. vom Konfidenzniveau Historische Simulation Mathematisch einfache zugrundeliegende Rechenoperationen  „simples Modell“. Die historischen Veränderungen eines Risikofaktors werden in der Simulation mit dem aktuellen Marktpreis des Assets kombiniert. VaR = als Quantilwert der sortierten Wertänderungen.

7 Varianz-Kovarianz-Ansatz
Ergebnisse Forschungsfrage 1d) Was sind die jeweiligen Besonderheiten von HS bzw. VC-Ansatz? Varianz-Kovarianz-Ansatz Normalverteilung der Risikofaktoren wird unterstellt Praxis: Renditen sind nicht normalverteilt, sondern haben eine leptokurtische Verteilung VaR-Ergebnisse werden sehr stark von der Richtigkeit der Schätzmethode der Varianz-Kovarianz-Matrizen beeinflusst. Historische Simulation Braucht keine spezifische Verteilungseigenschaft der Risikofaktoren. Beruht auf den empirischen Daten der Vergangenheit.

8 Historischer Beobachtungszeitraum (IF 5) Varianz-Kovarianz-Ansatz
Ergebnisse Forschungsfrage 1e) Was sind die jeweiligen und Vor- und Nachteile von HS bzw. VC-Ansatz? Historischer Beobachtungszeitraum (IF 5) Varianz-Kovarianz-Ansatz Einfache Formel. Schätzung der Varianzen und Kovarianzen wird mit steigender Anzahl der Positionen schnell komplex. Praxis: Renditen sind nicht normalverteilt, sondern haben eine leptokurtische Verteilung. Historische Simulation HS stellt das praxistauglichere Modell dar. Vollständiger und gepflegter Datenhaushalt erforderlich. Abhängig von den Inputfaktoren der VaR-Berechnung.

9 Ergebnisse - Forschungsfragen 1a, b, d, e)
Varianz-Kovarianz-Ansatz Historische Simulation Theorie: Normalverteilung Praxis: leptokurtische Verteilung VaR Unterschiede methodische Herangehensweise Funktionsweisen Besonderheiten Vor- und Nachteile Tägliche Wertänderungen (P/L‘s) HS stellt das „praxistauglichere“ Modell dar.

10 Ergebnisse - Forschungsfragen 1a, b, d, e)
Varianz-Kovarianz-Ansatz Historische Simulation Normalverteilung der Risikofaktoren wird unterstellt Ab zwei Risikofaktoren muss die Korrelation zwischen den Risikofaktoren berücksichtigt werden.  Kovarianz-Matrix Praxis: Renditen sind nicht normalverteilt, sondern haben eine leptokurtische Verteilung VaR-Ergebnisse werden sehr stark von der Richtigkeit der Schätzmethode der Varianz-Kovarianz-Matrizen beeinflusst. Braucht keine spezifische Verteilungseigenschaft der Risikofaktoren. Beruht auf den empirischen Daten der Vergangenheit. Mathematisch einfache zugrundeliegende Rechenoperationen  „simple Modelle“. HS stellt das „praxistauglichere“ Modell dar. Vollständiger und gepflegter Datenhaushalt erforderlich. Abhängig von den Inputfaktoren der VaR-Berechnung. Unterschiede methodische Herangehensweise Funktionsweisen Besonderheiten Vor- und Nachteile

11 Ergebnisse - Forschungsfrage 1c)
Inputfaktoren: Konfidenzniveau Haltedauer Art der Renditenberechnung Verfügbarkeit der Daten Historischer Beobachtungszeitraum Gewichtung der historischen Daten Prognostizierbarkeit der Volatilität Art der Quantilermittlung

12 Ergebnisse - Forschungsfrage 1c)
Inputfaktor: Konfidenzniveau Wahrscheinlichkeit, mit der die tatsächliche Änderung des Wertes eines Portfolios den VaR nicht überschreitet. 99 %: in 100 Tagen überschreiten die tatsächlichen Verluste höchstens einmal den VaR Praxis: 95 % - 99 % Fazit: IF ist in der Praxis gut ausdiskutiert. 

13 Ergebnisse - Forschungsfrage 1c)
Inputfaktor: Haltedauer Zeitraum, über den der VaR berechnet wird = Zeitraum, der benötigt wird, um eine Risikoposition glattzustellen ≠ Abstand zwischen zwei Risikomessungen Praxis: 1 Tag (Banken); 10 Tage (lt. Basel III) Fazit: IF ist in der Praxis gut ausdiskutiert.  „Risikohorizont“ , „Liquidationsperiode“ Zeitraum, „der benötigt wird, um eine Risikoposition zu schließen“ bzw. glattzustellen längere Haltedauer = „Vorsichtsmaßnahme“, wenn bei Märkten mit geringer Marktliquidität die Glattstellung von Positionen „durch Liquidierung des Grundgeschäfts oder durch Absicherung“ nicht umgehend möglich ist „richtige“ Haltedauer hängt vom Anwendungszweck ab: die Marktliquidität des Grundgeschäfts die Marktliquidität von allfälligen möglichen Sicherungsgeschäften die Ablauforganisation im Unternehmen, also wie schnell im Unternehmen auf ein erkanntes Risiko reagiert werden kann.

14 Ergebnisse - Forschungsfrage 1c)
Inputfaktoren: Konfidenzniveau, Haltedauer und Art der Renditeberechnung VaR = „Mit einer Wahrscheinlichkeit von X % wird das Portfolio nicht mehr als V Euro in den nächsten N Tagen an Wert verlieren.“ Konfidenzniveau Haltedauer

15 Ergebnisse - Forschungsfrage 1c)
Inputfaktor: Art der Renditenberechnung Stetige vs. diskrete Rendite Illustration fiktives Portfolio: Abw. 0,0 % – 0,3 % Hypothesentest: t-Test für abhängige (gepaarte) Stichproben Behauptung: Differenz kleiner gleich 1 % Erst bei 3 % kann die Nullhypothese abgelehnt und die Alternativhypothese bestätigt werden Praxis: stetige Rendite empfohlen Fazit: Handhabung in Praxis geregelt.  einfache Rendite rt errechnet sich als relative Veränderung des Preises, beispielsweise einer Aktie, mittels Division. Sie beschreibt relativ, um wie viel Prozent sich der Wert des Assets ändert. 𝑟 𝑡 = 𝑝 𝑡 + 𝐷 𝑡 − 𝑝 𝑡−1 𝑝 𝑡−1 Dt wird nicht reinvestiert wird und keine Renditen erzeugt. Das entspricht der einfachen Zinsrechnung Im Unterschied dazu unterstellt die kontinuierliche Rendite Rt analog zur kontinuierlich zusammengesetzten Verzinsung, dass Dt laufend reinvestiert wird. Die Berechnung erfolgt unter Verwendung des Logarithmus: 𝑅 𝑡 = 𝑙𝑛 𝑝 𝑡 𝑝 𝑡−1 Kurze Zeiträume: Unterschiede zwischen stetiger und diskreter Rendite marginal Hypothesentest: „vernachlässigbare“ Abweichung ist nicht zufällig

16 Ergebnisse - Forschungsfrage 1c)
Inputfaktor: Verfügbarkeit der Daten Finanzmarktdaten: jährlich theoretisch rund 250 Datenpunkte je Risikofaktor Problematik: Lücken in den Datenreihen Praxis: „Fill“ bzw. „Fill Backward“ Illustration anhand fiktives Portfolio: Abweichung 0,0 % – 0,3 % Fazit: Handhabung in Praxis geregelt.  Beantwortet auch Forschungsfrage 2b) Bei nicht erkannten Lücken besteht die Gefahr, dass es zwischen den Zeitreihen verschiedener Risikofaktoren zu zeitlichen Verschiebungen kommt. Bei Lücken muss daher entweder der fehlende Wert ersetzt oder der ganze Handelstag „gestrichen“ werden.

17 Ergebnisse - Forschungsfrage 1c)
Inputfaktor: Historischer Beobachtungszeitraum Wie weit werden zurückliegende Daten in der Berechnung berücksichtigt? Problematik: Auswahl des optimalen Zeitfensters Zu kurz gewählt: Wesentliche Informationen fallen evtl. bei der Ermittlung des VaR heraus Zu lange gewählt: „Geistereffekt“, „Memoryeffekt“ Praxis: mind. 1 J. (Basel III) Fazit: IF hat eine wesentliche Auswirkung auf das Ergebnis!  Forschungsfrage 2a) Deutlicher Einfluss auf das Ergebnis. Zu kurz, fallen vielleicht wesentliche Informationen bei der Ermittlung des VaR heraus und das Ergebnis ist unter Umständen nicht glaubwürdig. Zu lang, haben (bei Gleichgewichtung der Daten) weit zurückliegende und daher vielleicht weniger relevante Daten den gleichen Einfluss wie aktuelle Daten

18 Ergebnisse - Forschungsfrage 1c)
Inputfaktor: Gewichtung der historischen Daten Historische Daten sind Grundlage jeder VaR- Berechnung: Varianz-Kovarianz-Ansatz: Basis für Ermittlung von Wahrscheinlichkeiten u. Korrelationen Historische Simulation: Wertveränderungen Fokus liegt auf der Aufarbeitung der historischen Zeitreihen: (Wie) Kann man historische Daten gewichten? Fazit: IF hat eine wesentliche Auswirkung auf das Ergebnis!  Forschungsfrage 2c) zwei grundsätzliche Möglichkeiten: die historischen Daten gehen ungewichtet Gewichtung = Bewertung der „Wichtigkeit“

19 Ergebnisse - Forschungsfrage 1c)
Inputfaktoren: Historischer Beobachtungszeitraum und Gewichtung der Daten 522 d 300 d Sind alle historischen Daten gleich „wichtig“? Deutlicher Einfluss auf das Ergebnis. Zu kurz, fallen vielleicht wesentliche Informationen bei der Ermittlung des VaR heraus und das Ergebnis ist unter Umständen nicht glaubwürdig. Zu lang, haben (bei Gleichgewichtung der Daten) weit zurückliegende und daher vielleicht weniger relevante Daten den gleichen Einfluss wie aktuelle Daten Stichtag der VaR-Berechnung:

20 Ergebnisse - Forschungsfrage 2c)
Sind Gewichtungen auf historische Modelle anwendbar? 4 Modelle zur Gewichtung von historischen Daten Gewichtung nach dem Alter (nach Boudoukh, Richardson and Whitelaw) Gewichtung nach der Volatilität (nach Hull and White) Gewichtung nach der Volatilität und Berücksichtigung von Korrelationen (nach Barone-Adesi) Gewichtung unter Berücksichtigung der Veränderungen zwischen vergangenen und aktuellen Korrelationen (nach Duffie and Pan) Rechenintensität steigt rasant von Modell zu Modell Während das bei parametrischen Modellen wie der VC vergleichsweise einfach ist, ist dies bei der HS nicht immer so simpel. Bei der HS stehen zwei grundsätzliche Möglichkeiten zur Verfügung, die Gewichtung von historischen Daten in der Berechnung zu implementieren. BRW-Ansatz: In diesem Modell wird ein Gewichtungsfaktor auf die Wahrscheinlichkeit angewendet, mit der einzelnen P/L auftreten. Ältere P/L erhalten eine geringere Wahrscheinlichkeit, jüngere eine höhere. Dadurch wird einem der größten Kritikpunkte an die HS, der Memory-Effekt, entgegengewirkt. Hull und White (HW): Die historischen Risikofaktoren werden gewichtet, und zwar unter Berücksichtigung des Verhältnisses aktuelle zu historische Volatilität. Die Methode nach Duffie und Pan berücksichtigt die Korrelationen zwischen den einzelnen Risikofaktoren über Kovarianz-Matrizen. Diese bedingen anzusetzende Parameter in der Größenordnung Quadrat der Anzahl n der Risikofaktoren. Der Ansatz ist daher extrem rechenintensiv

21 Ergebnisse - Forschungsfrage 1c)
Inputfaktor: Prognostizierbarkeit der Volatilitäten Vorhersage der Entwicklungen in der Zukunft, insbesondere der Volatilität, spielt eine zentrale Rolle bei der Risikomessung von Marktrisiken Praxis: keine konstanten Volatilitäten sondern Volatilitätscluster Ob und wie können diese (veränderlichen) Volatilitäten prognostiziert werden? Fazit: IF hat eine wesentliche Auswirkung auf das Ergebnis!  Forschungsfrage 2a) Basis für diese Prognosen bilden Zeitreihen Cluster bezeichnet die Aufeinanderfolge von Abschnitten mit hohen bzw. niedrigen Renditeschwankungen. bei Vorliegen von Volatilitätsclustern die Wahrscheinlichkeit ändert, dass ein bestimmter Verlust auftritt

22 Ergebnisse - Forschungsfrage 1c)
Inputfaktor: Prognostizierbarkeit der Volatilität Geringe Vola – VaR wird idR unterschätzt Vola = Schwankung von Zeitreihen. Hohe Vola – VaR wird idR überschätzt

23 Ergebnisse - Forschungsfrage 2a)
Wie erfolgt die Aufbereitung des Inputparametes „historische Daten“? Wie groß wird die Volatilität sein?  Modellierung von Finanzmarktdaten EWMA-Modell, GARCH-Modell Praxis: GARCH-Modell berücksichtigt Volatilitätsclustering und Mittelwertannäherung Volatilität hängt nicht nur von der Historie der Zeitreihe ab, sondern auch von ihrer eigenen Historie kann schnell auf Marktveränderungen reagieren EWMA: Exponentially weighted moving average konstanter Gewichtungsfaktor 𝜎 𝑡 2 ≈𝜆 𝜎 𝑡−1 2 + (1−𝜆) ( 𝑟 𝑡−1 ) 2 ARCH: Autoregressive Conditional Heteroscedasticity Varianz hängt von der Historie der Zeitreihe ab GARCH: Generalized Autoregressive Conditional Heteroscedasticity Varianz hängt nicht nur von der Historie der Zeitreihe ab, sondern auch von ihrer eigenen Historie 𝜎(𝑡) 2 = 𝜔 +𝛼 𝑟 𝑡−1 2 + 𝛽 𝜎 𝑡−1 2

24 Ergebnisse - Forschungsfrage 1c)
Inputfaktor: Art der Quantilermittlung VaR entspricht dem negativen Quantil qp der P/L- Verteilung Parametrische Methoden: Normalverteilung: alle Quantile sind eindeutig definiert Numerische Methoden: Ermittlung des Quantilwerts empirisch aus einer geordneten Reihe Problematik bei gewichteten Datenreihen Fazit: IF hat eine wesentliche Auswirkung auf das Ergebnis!  Forschungsfrage 2c)

25 Ergebnisse - Forschungsfrage 1c)
Inputfaktor: Art der Quantilermittlung Ungleichgewichtung der Daten: Quantil NICHT eindeutig definiert. Gleichgewichtung der Daten: Quantil eindeutig definiert.

26 Ergebnisse - Forschungsfrage 3)
Parameter der Berechnung Portfolio bestehend aus 2 Aktien: CH (EQUITIES-P106552_61016, Stk.) und DE000A1EWWW (EQUITIES-P108831_117816, 300 Stk.) Historische Simulation: Konfidenzniveau: 99 % Haltedauer 1 d Stetige Renditenberechnung Beobachtungsfenster 522 d bzw. 300 d Gewichtung nach dem Alter Berechnung mit KVaR+, SAS, eigene Berechnung Welche Unterschiede bestehen bei der Berechnung des VaR unter Verwendung der unterschiedlichen Modelle und Parametrisierungen in den Softwarepaketen KVaR+ und SAS?

27 Ergebnisse - Forschungsfrage 3)
Vergleich VaR (d = 300 d vs. 522 d) 0,90 reagiert schnell; 1,0 noch auf niedrigem Niveau  Unterschätzung des VaR 0,90 reagiert schnell; 1,0 noch auf hohem Niveau  Überschätzung des VaR / Geistereffekt, Memoryeffekt

28 Ergebnisse - Forschungsfrage 3)
Entwicklung des VaR (d = 300 d) KVAR+ 83 % 0,90 reagiert schnell; 1,0 noch auf niedrigem Niveau  Unterschätzung des VaR 0,90 reagiert schnell; 1,0 noch auf hohem Niveau  Überschätzung des VaR / Geistereffekt, Memoryeffekt SAS

29 Ergebnisse - Forschungsfrage 3)
Unterschiede Softwarepaket KVaR+ und SAS KVaR+ ermöglicht die Festlegung von verschiedenen IF für die Berechnung und sieht eine Gewichtung nach dem Alter vor. SAS berücksichtigt im Standard keine Gewichtung. Abweichung ungewichtete SAS- Standardvariante zur gewichteten KVaR+ - Variante bis zu 83 % (Beispiel reales Portfolio). Welche Unterschiede bestehen bei der Berechnung des VaR unter Verwendung der unterschiedlichen Modelle und Parametrisierungen in den Softwarepaketen KVaR+ und SAS?

30 Literatur kennt als Inputparameter i.e.S.:
Schlussfolgerung (1/2) Literatur kennt als Inputparameter i.e.S.: Konfidenzniveau Haltedauer Weitere Einflussparameter: Art der Renditenberechnung Verfügbarkeit der Daten In der Praxis bisher nicht als Inputfaktoren identifiziert: Historischer Beobachtungszeitraum Gewichtung der historischen Daten Prognostizierbarkeit der Volatilitäten Art der Quantilermittlung Wesentlicher Einfluss auf das Ergebnis!

31 Nicht nur 2 Inputfaktoren beeinflussen den VaR massiv.
Schlussfolgerung (2/2) Nicht nur 2 Inputfaktoren beeinflussen den VaR massiv. 2 gängige Programme berücksichtigen (in der Standardvariante) nur teilweise eine Festlegung der Inputfaktoren keine (SAS) oder lediglich eine simple Gewichtung (KVaR+) der historischen Daten.

32


Herunterladen ppt "Der Einfluss von Inputparametern auf Value at Risk - Modelle am Beispiel des Portfolios einer österreichischen Bank FH Wien | Studiengang Financial Management."

Ähnliche Präsentationen


Google-Anzeigen