Der Einfluss von Inputparametern auf Value at Risk - Modelle am Beispiel des Portfolios einer österreichischen Bank FH Wien | Studiengang Financial Management.

Slides:



Advertisements
Ähnliche Präsentationen
Filterung der räumlichen Frequenzen
Advertisements

Übung zur Vorlesung Theorien Psychometrischer Tests I
Einführung in die Informatik: Programmierung und Software-Entwicklung
Standortfaktoren INTERN - Ausdrucksstark präsentieren.
Der Einstieg in das Programmieren
Java: Objektorientierte Programmierung
Forschungsstatistik II
WS Algorithmentheorie 02 - Polynomprodukt und Fast Fourier Transformation Prof. Dr. Th. Ottmann.
Wozu die Autokorrelationsfunktion?
Festlegung der Prämissen Value at Risk
Inhalte und Maßnahmen eingegeben haben,
Kapitelüberblick 1 Einzelne Wertpapiere
Ralf KüstersDagstuhl 2008/11/30 2 Ralf KüstersDagstuhl 2008/11/30 3.
Vorlesung Biometrie für Studierende der Veterinärmedizin Begriff der Zufallsgröße Ergebnisse von Zufallsexperimenten werden als Zahlen dargestellt:
Extended multistep outflow method for the accurate determination of soil hydraulic properties close to water saturation W. Durner und S.C. Iden, SS2012.
Eigenschaften der OLS-Schätzer
Bild 1.1 Copyright © Alfred Mertins | Signaltheorie, 2. Auflage Vieweg+Teubner PLUS Zusatzmaterialien Vieweg+Teubner Verlag | Wiesbaden.
Schulentwicklung Volksschule / HS / NMS …. basierend auf dem Zahnradmodell der Bewegten Schule Stand: Sept
20:00.
Hans-Jürgen Brummer Leiter DSiE Service Checks Auswertung 3.Quartal Servicetelefonie - München, den 13. August 2013.
Diplom-Kaufmann Rainer Schenk – Steuerberater
Executive Search Human Resource & Management Consulting Vergütungsstudie 2008/2009 Internationale Unternehmen in Ungarn Mitarbeiter und Leitende Angestellte.
ExpertAdmin ® ist eine eingetragene Marke der Inforis AG, Zürich. Das ExpertAdmin Bewertungssystem und die ExpertAdmin Software sind urheberrechtlich geschützt.
Schallschutz Gegenüberstellung und Mängel der Schalltechnischen Untersuchungen von 2001 und 2008.
Interaktive Karten zur Visualisierung statistischer Daten mit Descartes Vortrag von Annette Eicker GIS - Seminar WS 2000/01.
Passive Angriffe ... nicht-invasiv.
LS 2 / Informatik Datenstrukturen, Algorithmen und Programmierung 2 (DAP2)
Ist VaR-basierte Risikosteuerung kontraproduktiv. von Prof. Dr
- Untersuchung von Realitätsnahen Problemen mit Funktionen
B A S E L I I.
Bank Runs, Deposit Insurance, and Liquidity
Rendite PLUS: Die zinsstarke Lösung – mit dem PLUS an Sicherheit und Flexibilität * Stand Februar Die Renditeangabe bezieht sich auf die durchschnittliche.
Inhalt Was ist A-Plan? Einsatzgebiete Organisation der Daten
KOOTHS | BiTS: Makroökonomik WS 2013/2014, Teil 5 1 Makroökonomik Teil 5 Dr. Stefan Kooths BiTS Berlin Wintersemester 2013/2014
...ich seh´es kommen !.
Polynome und schnelle Fourier-Transformation
IFES - Institut für empirische Sozialforschung GmbH Teinfaltstraße Wien Lehramts-Studierende Online-Befragung 2009.
Präsentation läuft auch vollautomatisch ab … wie du möchtest
Auslegung eines Vorschubantriebes
1 DMS EXPO 2009 Keynote Angst und Gier Dr. Ulrich Kampffmeyer PROJECT CONSULT Unternehmensberatung Dr. Ulrich Kampffmeyer GmbH Breitenfelder Straße 17.
Managemententscheidungsunterstützungssysteme (Ausgewählte Methoden und Fallstudien) ( Die Thesen zur Vorlesung 3) Thema der Vorlesung Lösung der linearen.
Schulentwicklung Volksschule / HS / NMS …. basierend auf dem Zahnradmodell der Bewegten Schule Stand: Sept
Wer ist die KNX Swiss V
Analyseprodukte numerischer Modelle
2014 Januar 2014 So Mo Di Mi Do Fr Sa So
1 GEOMETRIE Geometrie in der Technik H. Pottmann TU Wien SS 2007.
Schutzvermerk nach DIN 34 beachten 20/05/14 Seite 1 Grundlagen XSoft Lösung :Logische Grundschaltung IEC-Grundlagen und logische Verknüpfungen.
Zusammengestellt von OE3DSB
Vortrag von Rechtsanwältin Verena Nedden, Fachanwältin für Steuerrecht zur Veranstaltung Wege zum bedingungslosen Grundeinkommen der Piratenpartei Rhein-Hessen.
Ertragsteuern, 5. Auflage Christiana Djanani, Gernot Brähler, Christian Lösel, Andreas Krenzin © UVK Verlagsgesellschaft mbH, Konstanz und München 2012.
Schulentwicklung Volksschule / HS / NMS …. basierend auf dem Zahnradmodell der Bewegten Schule Stand: Sept
Männer Gesundheit in Mecklenburg-Vorpommern Trends und Vergleiche
Der Erotik Kalender 2005.
Wer ist die KNX Swiss V
Familie Beutner, Konrad-Voelckerstrasse, Edenkoben/Pfalz, Tel:
Monatsbericht Ausgleichsenergiemarkt Gas – Oktober
Monatsbericht Ausgleichsenergiemarkt Gas – November
2.5.2 Multivariate Monte Carlo-Simulation
Kapitel 2: Testtheorie / Testmodelle  Multivariate (p-variate) Normalverteil- ung :  Mittelwertstruktur: p Mittelwerte  Kovarianzstruktur: p·(p+1)/2.
Seminarvortrag Statistische und numerische Auswertung von Schwingfestigkeits- und Ermüdungsversuchen mit SAFD Lan Tran Aachen,
Multivariate Analysemethoden Johannes Gutenberg Universität Mainz
7.2 Theoretische Kennwerte
Wahrscheinlichkeitsverteilungen
Forschungsstrategien Johannes Gutenberg Universität Mainz
ReduSoft Ltd. Kurzbeschreibungen zu einigen Modulen, die im Programm MathProf 5.0 unter dem Themenbereich Stochastik implementiert sind.
Kapitel 2: Testtheorie / Testmodelle
Konfidenzintervalle und Tests auf Normalverteilung
Multivariate Analysemethoden Johannes Gutenberg Universität Mainz
 Präsentation transkript:

Der Einfluss von Inputparametern auf Value at Risk - Modelle am Beispiel des Portfolios einer österreichischen Bank FH Wien | Studiengang Financial Management & Controlling Präsentation CFA Society Austria Kathrein Bank | 1010 Wien, Wipplingerstrasse 25 29.11.2013 Verfasst von: DI Mag. (FH) Alexandra Petermann MA Betreuer: Mag. Dr. Donald Baillie, FRM

Value at Risk (VaR) = Risikomaß Problemstellung Value at Risk (VaR) = Risikomaß VaR = „Mit einer Wahrscheinlichkeit von X % wird das Portfolio nicht mehr als V Euro in den nächsten N Tagen an Wert verlieren.“ 2 grundsätzliche Verfahren zur Risikomessung: Varianz-Kovarianz-Ansatz Historische Simulation Welches ist das „bessere“ Modell? Welche sind die wesentlichen Einflussfaktoren? VaR - Modelle werden heute einerseits zur Risikoberechnung für die Ermittlung der erforderlichen Eigenkapitalunterlegung aus Marktpreisrisiken und andererseits als firmen-/bankeneigene Methoden zur Risikomessung verwendet.

Forschungsfragen (1) a) Welche Unterschiede bestehen in der methodischen Vorgehensweise zwischen den Value at Risk Ansätzen der historischen Simulation versus Varianz-Kovarianz? b) Was sind die jeweiligen Funktionsweisen von historischer Simulation bzw. Varianz- Kovarianz-Ansatz? c) Was sind die jeweiligen Inputparameter? d) Was sind die jeweiligen Besonderheiten von historischer Simulation bzw. Varianz- Kovarianz-Ansatz? e) Was sind die jeweiligen und Vor- und Nachteile von historischer Simulation bzw. Varianz-Kovarianz-Ansatz? (2) a) Wie erfolgt im Speziellen die Aufbereitung des Inputparametes „historische Daten“? b) Wie soll mit nicht verfügbaren Daten umgegangen werden? c) Sind Gewichtungen auf historische Modelle anwendbar? (3) Welche Unterschiede bestehen bei der Berechnung des VaR unter Verwendung der unterschiedlichen Modelle und Parametrisierungen in den Softwarepaketen KVaR+ und SAS?

Empirische Untersuchung Methode Theoretische Analyse Literaturrecherche Verifizierung durch Beispiele (Vergleich des Varianz-Kovarianz-Ansatzes mit Historischer Simulation anhand eines fiktiven Portfolios) Empirische Untersuchung Vergleich von zwei gängigen Softwareprogrammen zur Risikoberechnung Reales Portfolio Daten wurden von der RLB NÖ-Wien zur Verfügung gestellt

Ergebnisse Forschungsfrage 1a) Varianz-Kovarianz-Ansatz Welche Unterschiede bestehen in der methodischen Vorgehensweise zwischen den Value at Risk Ansätzen der HS bzw. VC? Varianz-Kovarianz-Ansatz Parametrischer Ansatz. Legt statistische Annahmen über die Verteilungsfunktionen F(x) der Risikofaktoren zugrunde. Ab zwei Risikofaktoren muss die Korrelation zwischen den Risikofaktoren berücksichtigt werden. Historische Simulation Numerischer Ansatz. Braucht keine spezifische Verteilungseigenschaft der Risikofaktoren. Beruht auf den empirischen Daten der Vergangenheit.

Varianz-Kovarianz-Ansatz Ergebnisse Forschungsfrage 1b) Was sind die jeweiligen Funktionsweisen von HS bzw. VC-Ansatz? Varianz-Kovarianz-Ansatz Ermittlung bzw. Schätzung der Varianzen und Kovarianzen erforderlich  Kovarianz-Matrix. VaR = Standardabweichung x Multiplikator abh. vom Konfidenzniveau Historische Simulation Mathematisch einfache zugrundeliegende Rechenoperationen  „simples Modell“. Die historischen Veränderungen eines Risikofaktors werden in der Simulation mit dem aktuellen Marktpreis des Assets kombiniert. VaR = als Quantilwert der sortierten Wertänderungen.

Varianz-Kovarianz-Ansatz Ergebnisse Forschungsfrage 1d) Was sind die jeweiligen Besonderheiten von HS bzw. VC-Ansatz? Varianz-Kovarianz-Ansatz Normalverteilung der Risikofaktoren wird unterstellt Praxis: Renditen sind nicht normalverteilt, sondern haben eine leptokurtische Verteilung VaR-Ergebnisse werden sehr stark von der Richtigkeit der Schätzmethode der Varianz-Kovarianz-Matrizen beeinflusst. Historische Simulation Braucht keine spezifische Verteilungseigenschaft der Risikofaktoren. Beruht auf den empirischen Daten der Vergangenheit.

Historischer Beobachtungszeitraum (IF 5) Varianz-Kovarianz-Ansatz Ergebnisse Forschungsfrage 1e) Was sind die jeweiligen und Vor- und Nachteile von HS bzw. VC-Ansatz? Historischer Beobachtungszeitraum (IF 5) Varianz-Kovarianz-Ansatz Einfache Formel. Schätzung der Varianzen und Kovarianzen wird mit steigender Anzahl der Positionen schnell komplex. Praxis: Renditen sind nicht normalverteilt, sondern haben eine leptokurtische Verteilung. Historische Simulation HS stellt das praxistauglichere Modell dar. Vollständiger und gepflegter Datenhaushalt erforderlich. Abhängig von den Inputfaktoren der VaR-Berechnung.

Ergebnisse - Forschungsfragen 1a, b, d, e) Varianz-Kovarianz-Ansatz Historische Simulation Theorie: Normalverteilung Praxis: leptokurtische Verteilung VaR Unterschiede methodische Herangehensweise Funktionsweisen Besonderheiten Vor- und Nachteile Tägliche Wertänderungen (P/L‘s) HS stellt das „praxistauglichere“ Modell dar.

Ergebnisse - Forschungsfragen 1a, b, d, e) Varianz-Kovarianz-Ansatz Historische Simulation Normalverteilung der Risikofaktoren wird unterstellt Ab zwei Risikofaktoren muss die Korrelation zwischen den Risikofaktoren berücksichtigt werden.  Kovarianz-Matrix Praxis: Renditen sind nicht normalverteilt, sondern haben eine leptokurtische Verteilung VaR-Ergebnisse werden sehr stark von der Richtigkeit der Schätzmethode der Varianz-Kovarianz-Matrizen beeinflusst. Braucht keine spezifische Verteilungseigenschaft der Risikofaktoren. Beruht auf den empirischen Daten der Vergangenheit. Mathematisch einfache zugrundeliegende Rechenoperationen  „simple Modelle“. HS stellt das „praxistauglichere“ Modell dar. Vollständiger und gepflegter Datenhaushalt erforderlich. Abhängig von den Inputfaktoren der VaR-Berechnung. Unterschiede methodische Herangehensweise Funktionsweisen Besonderheiten Vor- und Nachteile

Ergebnisse - Forschungsfrage 1c) Inputfaktoren: Konfidenzniveau Haltedauer Art der Renditenberechnung Verfügbarkeit der Daten Historischer Beobachtungszeitraum Gewichtung der historischen Daten Prognostizierbarkeit der Volatilität Art der Quantilermittlung

Ergebnisse - Forschungsfrage 1c) Inputfaktor: Konfidenzniveau Wahrscheinlichkeit, mit der die tatsächliche Änderung des Wertes eines Portfolios den VaR nicht überschreitet. 99 %: in 100 Tagen überschreiten die tatsächlichen Verluste höchstens einmal den VaR Praxis: 95 % - 99 % Fazit: IF ist in der Praxis gut ausdiskutiert. 

Ergebnisse - Forschungsfrage 1c) Inputfaktor: Haltedauer Zeitraum, über den der VaR berechnet wird = Zeitraum, der benötigt wird, um eine Risikoposition glattzustellen ≠ Abstand zwischen zwei Risikomessungen Praxis: 1 Tag (Banken); 10 Tage (lt. Basel III) Fazit: IF ist in der Praxis gut ausdiskutiert.  „Risikohorizont“ , „Liquidationsperiode“ Zeitraum, „der benötigt wird, um eine Risikoposition zu schließen“ bzw. glattzustellen längere Haltedauer = „Vorsichtsmaßnahme“, wenn bei Märkten mit geringer Marktliquidität die Glattstellung von Positionen „durch Liquidierung des Grundgeschäfts oder durch Absicherung“ nicht umgehend möglich ist „richtige“ Haltedauer hängt vom Anwendungszweck ab: die Marktliquidität des Grundgeschäfts die Marktliquidität von allfälligen möglichen Sicherungsgeschäften die Ablauforganisation im Unternehmen, also wie schnell im Unternehmen auf ein erkanntes Risiko reagiert werden kann.

Ergebnisse - Forschungsfrage 1c) Inputfaktoren: Konfidenzniveau, Haltedauer und Art der Renditeberechnung VaR = „Mit einer Wahrscheinlichkeit von X % wird das Portfolio nicht mehr als V Euro in den nächsten N Tagen an Wert verlieren.“ Konfidenzniveau Haltedauer

Ergebnisse - Forschungsfrage 1c) Inputfaktor: Art der Renditenberechnung Stetige vs. diskrete Rendite Illustration fiktives Portfolio: Abw. 0,0 % – 0,3 % Hypothesentest: t-Test für abhängige (gepaarte) Stichproben Behauptung: Differenz kleiner gleich 1 % Erst bei 3 % kann die Nullhypothese abgelehnt und die Alternativhypothese bestätigt werden Praxis: stetige Rendite empfohlen Fazit: Handhabung in Praxis geregelt.  einfache Rendite rt errechnet sich als relative Veränderung des Preises, beispielsweise einer Aktie, mittels Division. Sie beschreibt relativ, um wie viel Prozent sich der Wert des Assets ändert.   𝑟 𝑡 = 𝑝 𝑡 + 𝐷 𝑡 − 𝑝 𝑡−1 𝑝 𝑡−1 Dt wird nicht reinvestiert wird und keine Renditen erzeugt. Das entspricht der einfachen Zinsrechnung Im Unterschied dazu unterstellt die kontinuierliche Rendite Rt analog zur kontinuierlich zusammengesetzten Verzinsung, dass Dt laufend reinvestiert wird. Die Berechnung erfolgt unter Verwendung des Logarithmus: 𝑅 𝑡 = 𝑙𝑛 𝑝 𝑡 𝑝 𝑡−1 Kurze Zeiträume: Unterschiede zwischen stetiger und diskreter Rendite marginal Hypothesentest: „vernachlässigbare“ Abweichung ist nicht zufällig

Ergebnisse - Forschungsfrage 1c) Inputfaktor: Verfügbarkeit der Daten Finanzmarktdaten: jährlich theoretisch rund 250 Datenpunkte je Risikofaktor Problematik: Lücken in den Datenreihen Praxis: „Fill“ bzw. „Fill Backward“ Illustration anhand fiktives Portfolio: Abweichung 0,0 % – 0,3 % Fazit: Handhabung in Praxis geregelt.  Beantwortet auch Forschungsfrage 2b) Bei nicht erkannten Lücken besteht die Gefahr, dass es zwischen den Zeitreihen verschiedener Risikofaktoren zu zeitlichen Verschiebungen kommt. Bei Lücken muss daher entweder der fehlende Wert ersetzt oder der ganze Handelstag „gestrichen“ werden.

Ergebnisse - Forschungsfrage 1c) Inputfaktor: Historischer Beobachtungszeitraum Wie weit werden zurückliegende Daten in der Berechnung berücksichtigt? Problematik: Auswahl des optimalen Zeitfensters Zu kurz gewählt: Wesentliche Informationen fallen evtl. bei der Ermittlung des VaR heraus Zu lange gewählt: „Geistereffekt“, „Memoryeffekt“ Praxis: mind. 1 J. (Basel III) Fazit: IF hat eine wesentliche Auswirkung auf das Ergebnis!  Forschungsfrage 2a) Deutlicher Einfluss auf das Ergebnis. Zu kurz, fallen vielleicht wesentliche Informationen bei der Ermittlung des VaR heraus und das Ergebnis ist unter Umständen nicht glaubwürdig. Zu lang, haben (bei Gleichgewichtung der Daten) weit zurückliegende und daher vielleicht weniger relevante Daten den gleichen Einfluss wie aktuelle Daten

Ergebnisse - Forschungsfrage 1c) Inputfaktor: Gewichtung der historischen Daten Historische Daten sind Grundlage jeder VaR- Berechnung: Varianz-Kovarianz-Ansatz: Basis für Ermittlung von Wahrscheinlichkeiten u. Korrelationen Historische Simulation: Wertveränderungen Fokus liegt auf der Aufarbeitung der historischen Zeitreihen: (Wie) Kann man historische Daten gewichten? Fazit: IF hat eine wesentliche Auswirkung auf das Ergebnis!  Forschungsfrage 2c) zwei grundsätzliche Möglichkeiten: die historischen Daten gehen ungewichtet Gewichtung = Bewertung der „Wichtigkeit“

Ergebnisse - Forschungsfrage 1c) Inputfaktoren: Historischer Beobachtungszeitraum und Gewichtung der Daten 522 d 300 d Sind alle historischen Daten gleich „wichtig“? Deutlicher Einfluss auf das Ergebnis. Zu kurz, fallen vielleicht wesentliche Informationen bei der Ermittlung des VaR heraus und das Ergebnis ist unter Umständen nicht glaubwürdig. Zu lang, haben (bei Gleichgewichtung der Daten) weit zurückliegende und daher vielleicht weniger relevante Daten den gleichen Einfluss wie aktuelle Daten Stichtag der VaR-Berechnung: 06.07.2012

Ergebnisse - Forschungsfrage 2c) Sind Gewichtungen auf historische Modelle anwendbar? 4 Modelle zur Gewichtung von historischen Daten Gewichtung nach dem Alter (nach Boudoukh, Richardson and Whitelaw) Gewichtung nach der Volatilität (nach Hull and White) Gewichtung nach der Volatilität und Berücksichtigung von Korrelationen (nach Barone-Adesi) Gewichtung unter Berücksichtigung der Veränderungen zwischen vergangenen und aktuellen Korrelationen (nach Duffie and Pan) Rechenintensität steigt rasant von Modell zu Modell Während das bei parametrischen Modellen wie der VC vergleichsweise einfach ist, ist dies bei der HS nicht immer so simpel. Bei der HS stehen zwei grundsätzliche Möglichkeiten zur Verfügung, die Gewichtung von historischen Daten in der Berechnung zu implementieren. BRW-Ansatz: In diesem Modell wird ein Gewichtungsfaktor auf die Wahrscheinlichkeit angewendet, mit der einzelnen P/L auftreten. Ältere P/L erhalten eine geringere Wahrscheinlichkeit, jüngere eine höhere. Dadurch wird einem der größten Kritikpunkte an die HS, der Memory-Effekt, entgegengewirkt. Hull und White (HW): Die historischen Risikofaktoren werden gewichtet, und zwar unter Berücksichtigung des Verhältnisses aktuelle zu historische Volatilität. Die Methode nach Duffie und Pan berücksichtigt die Korrelationen zwischen den einzelnen Risikofaktoren über Kovarianz-Matrizen. Diese bedingen anzusetzende Parameter in der Größenordnung Quadrat der Anzahl n der Risikofaktoren. Der Ansatz ist daher extrem rechenintensiv

Ergebnisse - Forschungsfrage 1c) Inputfaktor: Prognostizierbarkeit der Volatilitäten Vorhersage der Entwicklungen in der Zukunft, insbesondere der Volatilität, spielt eine zentrale Rolle bei der Risikomessung von Marktrisiken Praxis: keine konstanten Volatilitäten sondern Volatilitätscluster Ob und wie können diese (veränderlichen) Volatilitäten prognostiziert werden? Fazit: IF hat eine wesentliche Auswirkung auf das Ergebnis!  Forschungsfrage 2a) Basis für diese Prognosen bilden Zeitreihen Cluster bezeichnet die Aufeinanderfolge von Abschnitten mit hohen bzw. niedrigen Renditeschwankungen. bei Vorliegen von Volatilitätsclustern die Wahrscheinlichkeit ändert, dass ein bestimmter Verlust auftritt

Ergebnisse - Forschungsfrage 1c) Inputfaktor: Prognostizierbarkeit der Volatilität Geringe Vola – VaR wird idR unterschätzt Vola = Schwankung von Zeitreihen. Hohe Vola – VaR wird idR überschätzt

Ergebnisse - Forschungsfrage 2a) Wie erfolgt die Aufbereitung des Inputparametes „historische Daten“? Wie groß wird die Volatilität sein?  Modellierung von Finanzmarktdaten EWMA-Modell, GARCH-Modell Praxis: GARCH-Modell berücksichtigt Volatilitätsclustering und Mittelwertannäherung Volatilität hängt nicht nur von der Historie der Zeitreihe ab, sondern auch von ihrer eigenen Historie kann schnell auf Marktveränderungen reagieren EWMA: Exponentially weighted moving average konstanter Gewichtungsfaktor   𝜎 𝑡 2 ≈𝜆 𝜎 𝑡−1 2 + (1−𝜆) ( 𝑟 𝑡−1 ) 2 ARCH: Autoregressive Conditional Heteroscedasticity Varianz hängt von der Historie der Zeitreihe ab GARCH: Generalized Autoregressive Conditional Heteroscedasticity Varianz hängt nicht nur von der Historie der Zeitreihe ab, sondern auch von ihrer eigenen Historie 𝜎(𝑡) 2 = 𝜔 +𝛼 𝑟 𝑡−1 2 + 𝛽 𝜎 𝑡−1 2

Ergebnisse - Forschungsfrage 1c) Inputfaktor: Art der Quantilermittlung VaR entspricht dem negativen Quantil qp der P/L- Verteilung Parametrische Methoden: Normalverteilung: alle Quantile sind eindeutig definiert Numerische Methoden: Ermittlung des Quantilwerts empirisch aus einer geordneten Reihe Problematik bei gewichteten Datenreihen Fazit: IF hat eine wesentliche Auswirkung auf das Ergebnis!  Forschungsfrage 2c)

Ergebnisse - Forschungsfrage 1c) Inputfaktor: Art der Quantilermittlung Ungleichgewichtung der Daten: Quantil NICHT eindeutig definiert. Gleichgewichtung der Daten: Quantil eindeutig definiert.

Ergebnisse - Forschungsfrage 3) Parameter der Berechnung Portfolio bestehend aus 2 Aktien: CH0012221716 (EQUITIES-P106552_61016, 1.500 Stk.) und DE000A1EWWW (EQUITIES-P108831_117816, 300 Stk.) Historische Simulation: Konfidenzniveau: 99 % Haltedauer 1 d Stetige Renditenberechnung Beobachtungsfenster 522 d bzw. 300 d Gewichtung nach dem Alter Berechnung mit KVaR+, SAS, eigene Berechnung Welche Unterschiede bestehen bei der Berechnung des VaR unter Verwendung der unterschiedlichen Modelle und Parametrisierungen in den Softwarepaketen KVaR+ und SAS?

Ergebnisse - Forschungsfrage 3) Vergleich VaR (d = 300 d vs. 522 d) 0,90 reagiert schnell; 1,0 noch auf niedrigem Niveau  Unterschätzung des VaR 0,90 reagiert schnell; 1,0 noch auf hohem Niveau  Überschätzung des VaR / Geistereffekt, Memoryeffekt

Ergebnisse - Forschungsfrage 3) Entwicklung des VaR (d = 300 d) KVAR+ 83 % 0,90 reagiert schnell; 1,0 noch auf niedrigem Niveau  Unterschätzung des VaR 0,90 reagiert schnell; 1,0 noch auf hohem Niveau  Überschätzung des VaR / Geistereffekt, Memoryeffekt SAS

Ergebnisse - Forschungsfrage 3) Unterschiede Softwarepaket KVaR+ und SAS KVaR+ ermöglicht die Festlegung von verschiedenen IF für die Berechnung und sieht eine Gewichtung nach dem Alter vor. SAS berücksichtigt im Standard keine Gewichtung. Abweichung ungewichtete SAS- Standardvariante zur gewichteten KVaR+ - Variante bis zu 83 % (Beispiel reales Portfolio). Welche Unterschiede bestehen bei der Berechnung des VaR unter Verwendung der unterschiedlichen Modelle und Parametrisierungen in den Softwarepaketen KVaR+ und SAS?

Literatur kennt als Inputparameter i.e.S.: Schlussfolgerung (1/2) Literatur kennt als Inputparameter i.e.S.: Konfidenzniveau Haltedauer Weitere Einflussparameter: Art der Renditenberechnung Verfügbarkeit der Daten In der Praxis bisher nicht als Inputfaktoren identifiziert: Historischer Beobachtungszeitraum Gewichtung der historischen Daten Prognostizierbarkeit der Volatilitäten Art der Quantilermittlung Wesentlicher Einfluss auf das Ergebnis!

Nicht nur 2 Inputfaktoren beeinflussen den VaR massiv. Schlussfolgerung (2/2) Nicht nur 2 Inputfaktoren beeinflussen den VaR massiv. 2 gängige Programme berücksichtigen (in der Standardvariante) nur teilweise eine Festlegung der Inputfaktoren keine (SAS) oder lediglich eine simple Gewichtung (KVaR+) der historischen Daten.