image

Kompendium bankbetrieblicher
Anwendungsfelder

Herausgeber:
Frankfurt School of Finance & Management

Prof. Dr. Andreas Horsch
Dr. Michael Schulte

Wertorientierte
Banksteuerung II:
Risikomanagement

4., vollständig überarbeitete Auflage 2010

image

image

Besuchen Sie uns im Internet: http://www.frankfurt-school-verlag.de

Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlags unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen.

ISBN (ePub): 978-3-940913-74-6

4. Auflage 2010   © Frankfurt School Verlag GmbH, Sonnemannstraße 9-11,   60314 Frankfurt am Main

Vorwort

Die Frankfurt School of Finance & Management, kompetenter Bildungspartner des Kreditgewerbes, bietet engagierten Nachwuchskräften von Banken an, sich für anspruchsvolle Fach- und Führungsaufgaben zu qualifizieren: Das dreistufige Qualifikationsprofil Bankfachwirt-, Bankbetriebswirt- und Management-Studium hat sich erfolgreich in der Bankindustrie Deutschlands etabliert und bewährt.

Das aus neun Modulen bestehende Kompendium bankbetrieblicher Anwendungsfelder ist für Studierende des Bankbetriebswirt-Studiums konzipiert und mit dem Curriculum entsprechend abgestimmt. Zusätzlich ist das Werk auch für Studierende der Hochschulen und für Praktiker als Studienbuch gut geeignet.

Es hat sich als Medium zur Weiterentwicklung der fachlichen, persönlichen und sozialen Kompetenz bewährt. Die enge Verknüpfung von Theorie und Praxis hat dieser Fachbuchreihe ein klares eigenständiges Profil gegeben.

Die positive Resonanz unserer Leser bewegt uns, die Fachbuchreihe auf dieser Linie konsequent weiterzuentwickeln. Sämtliche Fachbücher werden didaktisch und inhaltlich grundlegend überarbeitet.

Nicht erst die Finanzmarktkrise seit 2007 hat nachdrücklich bewiesen, dass ein systematisches Risikomanagement im Rahmen der Gesamtbanksteuerung unerlässlich ist. Die erfolgreiche Analyse und Steuerung von Risiken wird immer mehr zum zentralen Faktor für die Wettbewerbsstärke einer Bank. Neben methodischen Impulsen der Theorie sind hierbei zunehmend die Wechselwirkungen zwischen bankinterner und aufsichtsrechtlich motivierter Risikoüberwachung zu verarbeiten.

Die nun vorliegende, gründlich überarbeitete und erheblich erweiterte Auflage dieses Buches erörtert vor dem Hintergrund der Finanzmarktkrise die für Kreditinstitute zentralen Risiken sowie darauf gerichtete Mess- und Steuerungskonzepte. Neben den klassischen Schwerpunkten des Ausfall- und Marktpreisrisikos wird insbesondere das in der Vergangenheit – zu Unrecht – vernachlässigte Liquiditätsrisiko wieder stärker in den Blickpunkt gerückt. Als methodischer roter Faden dient hierbei das Value-at-Risk-Konzept, das inzwischen eine zentrale Rolle in den Risikomanagementansätzen der kreditwirtschaftlichen Praxis einnimmt.

Dieser Praxisbezug ist für die didaktische Struktur des Buches weiterhin von besonderer Bedeutung. Fallbeispiele erleichtern und vertiefen das Verständnis. Konkrete Einstiege und Schlüsselbegriffe zu Beginn sowie Zusammenfassungen und Arbeitsaufgaben am Ende der Kapitel unterstützen das Selbststudium unserer Studierenden und Leser.

Unser Dank gilt den Studierenden, Dozenten und Praktikern, die zur Weiterentwicklung dieses Kompendiums bankbetrieblicher Anwendungsfelder beigetragen haben. Ganz besonders danken wir unseren Autoren für ihren Einsatz bei der Umsetzung der Anregungen sowie der fachlichen und didaktischen Weiterentwicklung dieses Bandes.

Prof. Dr. Udo Steffens
Präsident und Vorsitzender der Geschäftsführung
der Frankfurt School of Finance & Management

Inhalt

 

Vorwort

1

Einleitung

2

Überblick zum Risk Management in Kreditinstituten

2.1

Zum Risikobegriff

2.2

Value-at-Risk-Konzepte

2.2.1

Analytisches Grundmodell

2.2.2

Simulationsmodelle

2.2.3

Zusammenfassende Bewertung

2.3

Risikoposition und Risikopolitik

2.4

Das Phasenschema des Risk Managements

2.5

Risiken in Kreditinstituten

2.5.1

Strategische Risiken

2.5.2

Operative Risiken

2.5.3

Erfolgs- und Liquiditätsrisiken

2.6

Gegenüberstellung von Risiken und Risikoträgern

2.6.1

Risikoverbundwirkungen und Diversifikation

2.6.2

Risikodeckungspotenziale in Kreditinstituten

2.7

Organisatorische Aspekte des Risk Managements

2.8

Zusammenfassung und Arbeitsaufgaben

3

Die Finanzmarktkrise 2007 – 2009 aus Risikomanagementperspektive

3.1

Die Vorgeschichte der Finanzmarktkrise im Überblick

3.2

Die Finanzmarktkrise als Kettenreaktion

3.3

Konsequenzen für das bankbetriebliche Risikomanagement

4

Liquiditätsrisiko

4.1

Analyse des Liquiditätsrisikos

4.1.1

Arten von Liquiditätsrisiken

4.1.2

Kennziffern zum Liquiditätsrisiko

4.1.3

Analyse des Liquiditätssaldos

4.1.4

Liquiditätsreserven als Risikoträger

4.2

Ansatzpunkte zur Steuerung des Liquiditätsrisikos

4.3

Zusammenfassung und Arbeitsaufgaben

5

Ausfallrisiko

5.1

Analyse des Ausfallrisikos

5.1.1

Einzelgeschäftsbezogene Analyse am Beispiel des Firmenkreditgeschäfts

5.1.1.1

Einflussfaktoren des Ausfallrisikos

5.1.1.2

Risikoklassifizierung mit Hilfe von Rating-Verfahren

5.1.1.2.1

Grundlagen von Scoring-Modellen

5.1.1.2.2

Rating-Agenturen und Rating-Prozess

5.1.1.2.3

Credit Spreads und Ausfallrisiko

5.1.1.3

Die Diskriminanzanalyse als mathematisch-statistisches Verfahren

5.1.2

Gesamtgeschäftsbezogene Analysen

5.1.2.1

Konzentrationsrisiken und Diversifikation im Kreditportfolio

5.1.2.2

Kreditportfoliomodelle

5.2

Ansatzpunkte zur Steuerung des Ausfallrisikos

5.2.1

Einzelgeschäftsbezogene Maßnahmen

5.2.2

Gesamtgeschäftsbezogene Maßnahmen

5.3

Zusammenfassung und Arbeitsaufgaben

6

Länderrisiko

6.1

Analyse des Länderrisikos

6.1.1

Einflussfaktoren des Länderrisikos

6.1.2

Länder-Ratings

6.2

Ansatzpunkte zur Steuerung des Länderrisikos

6.3

Zusammenfassung und Arbeitsaufgaben

7

Zinsänderungsrisiko

7.1

Analyse des Zinsänderungsrisikos

7.1.1

Zinsüberschuss- bzw. Zinsspannenrisiken

7.1.1.1

Einflussfaktoren und Formen des Zinsüberschussrisikos

7.1.1.2

Zinsbindungsbilanz

7.1.1.3

Das Zinselastizitätskonzept

7.1.1.3.1

Ermittlung von Zinselastizitäten

7.1.1.3.2

Statische Elastizitätsbilanz

7.1.1.3.3

Dynamische Elastizitätsbilanz

7.1.2

Barwertrisiken

7.1.2.1

Kursrisiken festverzinslicher Wertpapiere

7.1.2.2

Durations-Analyse

7.1.2.3

Barwertkonzept und Gesamtbankanalyse

7.2

Steuerung des Zinsänderungsrisikos

7.2.1

Aktive versus passive Treasury-Strategien

7.2.2

Risikovermeidung mit Risikolimiten

7.2.3

Risikoverminderung und Risikoüberwälzung

7.2.3.1

Derivative Steuerungsinstrumente im Überblick

7.2.3.2

Zins-Swaps

7.2.3.3

Forward Rate Agreements

7.2.3.4

Zins-Futures

7.2.3.5

Optionale Zinsprodukte

7.2.3.6

Überblick zum Einsatz ausgewählter derivativer Instrumente

7.3

Zusammenfassung und Arbeitsaufgaben

8

Wechselkursrisiko

8.1

Analyse des Wechselkursrisikos

8.1.1

Formen von Wechselkursrisiken

8.1.2

Kursrisiken im engeren Sinne und Swapsatzrisiken

8.1.3

Quantifizierung des Wechselkursrisikos

8.2

Steuerung des Wechselkursrisikos

8.2.1

Finanz-Hedging

8.2.2

Außerbilanzielle Steuerungsinstrumente im Überblick

8.2.3

Vergleich: Devisenoption und Devisentermingeschäft

8.3

Zusammenfassung und Arbeitsaufgaben

9

Operationelles Risiko

9.1

Analyse des operationellen Risikos

9.2

Steuerung operationeller Risiken

10

Schlussbemerkung

11

Literatur- und Quellenverzeichnis

12

Stichwortverzeichnis

13

Kurzbiographie der Autoren

1 Einleitung

 

Seit den 1970er Jahren sind auf den Finanzmärkten und in den dort tätigen Unternehmen, darunter insbesondere den Kreditinstituten, die vorhandenen Risiken immer stärker in den Vordergrund gerückt. Während dabei zunächst das klassische Ausfallrisiko – insbesondere für Unternehmen und Länder – im Mittelpunkt stand, gerieten in den folgenden Jahrzehnten zudem Marktpreisrisiken und operationelle Risiken, mit der Finanzmarktkrise seit 2007 darüber hinaus wieder Liquiditätsrisiken sowie die unter den Risikoarten herrschenden Verbundwirkungen in den Fokus. Über die Jahre hinweg wurden folgerichtig die Ansätze zur Messung sowie Steuerung der verschiedenen Risikoarten stetig weiterentwickelt. Zur zentralen Orientierungsgröße wurden hierbei wertorientierte Größen, vom Shareholder Value der Gesamtbank bis hin zum Value-at-Risk einer bestimmten risikobehafteten Position. Spätestens mit Beginn des Konsultationsprozesses um den Regulierungsansatz nach Basel II wurde deutlich, dass die konzeptionelle Fortentwicklung zunehmend auf Erkenntnissen der betriebswirtschaftlichen, aber auch der mathematischen Theorie beruhte und auf dieser Basis nicht nur von den Kreditinstituten, sondern auch von ihren Aufsichtsinstitutionen vorangetrieben wurde. Mittlerweile reichen die zunächst in der Theorie entwickelten Ansätze bis weit in die bankbetriebliche Praxis hinein, was nicht zuletzt an den stetig an Umfang zunehmenden Risikoberichten der Kreditinstitute abgelesen werden kann. Gleichzeitig hat gerade die Finanzmarktkrise seit 2007 gezeigt, dass von einem idealen Stand des bankbetrieblichen Risikomanagements keine Rede sein kann, sondern eine Fortentwicklung – möglicherweise stellenweise auch ein Zurück zu weniger komplexen Methoden – erforderlich ist. Vor diesem Hintergrund sind grundlegende Kenntnisse zu den für eine Bank relevanten Risikoarten sowie darauf gerichteten Mess- und Steuerungskonzepten für eine große Zahl von Bankmitarbeitern unerlässlich. Ziel dieses Buches ist es daher, die wesentlichen theoretischen Konzepte des Risikomanagements und ihre praxisorientierte Umsetzung zu erläutern sowie ihre Bedeutung für das Gesamtinstitut und seine wertorientierte Steuerung aufzuzeigen.

Hierfür werden nach dieser Einleitung zunächst zwei Grundlagenkapitel vor die Klammer gezogen, die das Risikomanagement insgesamt strukturieren sowie in den aktuellen Kontext der Finanzmarktkrise einordnen helfen. Die darauffolgenden Kapitel vier bis neun enthalten sodann eine Auseinandersetzung mit den wichtigsten Risikoarten, durchweg gegliedert nach Analyse- und Steuerungsansätzen. Im Vordergrund steht dabei zumeist die interne Sichtweise des Risikomanagements. Aufgrund der stetig intensiver werdenden Wechselwirkungen werden im Zuge dessen regelmäßig die Konzepte der institutsexternen Bankenaufsicht einbezogen, ohne diese immer umfänglicher und komplexer werdenden Rahmenwerke vollständig darstellen zu wollen.

Im Lichte der vorangegangenen Ausführungen wird nachvollziehbar, warum nach der letzten Auflage von 2004 die Neuauflage der „Wertorientierten Banksteuerung II“ zuerst so viel Zeit und dann so viele zusätzliche Seiten beansprucht hat. Ursächlich für den Zeitbedarf waren neben zahlreichen inhaltlichen auch die nicht unerheblichen beruflichen Veränderungen der Verfasser, für den Seitenbedarf nicht zuletzt die tiefgehenden Erkenntnisse, die im Rahmen der Finanzmarktkrise gewonnen wurden. Wir danken daher herzlich für die uns entgegengebrachte Geduld und hoffen, dass sich das Warten auch aus Sicht unserer Leser gelohnt hat. Ganz besonders danken möchten wir auf Seiten der Frankfurt School Frau Dr. Heike Brost sowie Frau Simone L. Hoffmann, die die Neuauflage mit einem perfekten Mix aus Kompetenz, Konsequenz und Geduld begleitet haben, sowie dem Team des Lehrstuhls für ABWL mit dem Schwerpunkt Investition und Finanzierung an der Technischen Universität Bergakademie Freiberg, allen voran – in zeitlicher Sortierung – Frau cand. rer. oec. Ulrike Rücker, Frau cand. rer. oec. Julia Jossen sowie Herrn cand. rer. oec. Steffen Hundt.

Unseren Dank verbinden wir mit der herzlichen Bitte an unsere Leser, uns weitere Anregungen und Hinweise für die nächste Auflage zukommen zu lassen.

Freiberg/Recklinghausen, im April 2010

Prof. Dr. Andreas Horsch
Dr. Michael Schulte

2 Überblick zum Risk Management in Kreditinstituten

 

image

„Risiko- und Kapitalmanagement

Vor dem Hintergrund unserer breit gefächerten Geschäftsaktivitäten ist es unerlässlich, Risiken effektiv zu identifizieren, zu messen, zu aggregieren und zu steuern sowie die verschiedenen Geschäftsaktivitäten angemessen mit Eigenkapital zu unterlegen. Wir steuern unsere Risiken und unser Kapital mithilfe eines Rahmenwerks von Grundsätzen, Organisationsstrukturen sowie Mess- und Überwachungsprozessen, die eng auf die Tätigkeiten der Konzernbereiche ausgerichtet sind.

Grundsätze für das Risiko- und Kapitalmanagement

Unser Risiko- und Kapitalmanagementansatz baut auf den folgenden Grundsätzen auf:

Der Vorstand trägt die Gesamtverantwortung für die Überwachung des Risiko- und Kapitalmanagements im Konzern. Der Aufsichtsrat überprüft unser Risiko- und Kapitalprofil in regelmäßigen Zeitabständen.

Wir managen Kredit-, Markt-, Liquiditäts-, operationelle -, Geschäfts-, Rechts- und Reputationsrisiken sowie unser Kapital in einem koordinierten Prozess auf allen relevanten Ebenen der Bank. Das gilt auch für komplexe Produkte, die wir üblicherweise innerhalb unseres Rahmenwerks für Handelsengagements steuern.

Die Struktur unserer Legal-, Risk- & Capital-Funktion ist eng auf die Struktur der Konzernbereiche ausgerichtet.

Die Legal-, Risk- & Capital-Funktion ist unabhängig von den Konzernbereichen. [...]“

(Deutsche Bank, 2008, S. 59)

Schlüsselbegriffe

• Risiko, Risikoposition

• Value-at-Risk

• Risikopolitik, Risk Management

• Risikoarten

• Risikoträger bzw. Risikodeckungspotenziale

• Risikosteuerung

• Organisation

Ausgehend vom Risikobegriff werden in diesem Grundlagenkapitel zunächst Value-at-Risk-Konzepte abgeleitet, die heute regelmäßig die Basis für ein integriertes Risikomanagement darstellen. Nach einer Definition der Risikopolitik wird im Anschluss mit dem Phasenschema des Risk Managements eine sinnvolle Strukturierung des Risk-Management-Prozesses vorgestellt. Anschließend erfolgt eine Systematisierung der Risiken nach ihrem Ursache- und Wirkungszusammenhang, um danach eine Gegenüberstellung mit möglichen Risikoträgern vorzunehmen. Der einführende Überblick zum Risk Management schließt mit einigen Anmerkungen zu organisatorischen Aspekten des Risk Managements.

2.1 Zum Risikobegriff

Der Begriff des Risikos ist trotz oder gerade angesichts seiner weiten Verbreitung in verschiedensten Wissenschaftsgebieten, der Politik und nicht zuletzt auch der Umgangssprache nicht einheitlich definiert. Dies gilt selbst für die Betriebswirtschaftslehre, auch wenn seit fast 100 Jahren (vgl. Knight, 1921) eine im Grunde maßgebliche Abgrenzung existiert. Die verschiedenen Ansätze lassen sich jedoch weitgehend auf zwei Grundrichtungen zurückführen. Während die entscheidungsorientierte BWL ursachenbezogen auf die Unsicherheit der Zukunft und unvollständige Informationen abstellt, wird in anwendungsorientierten Bereichen der BWL Risiko stärker wirkungsbezogen als Möglichkeit einer Zielverfehlung bzw. eines Verlustes aufgefasst.

Die ursachenbezogene Auffassung knüpft an die Möglichkeit an, dem Eintritt bestimmter (unsicherer) Ereignisse Wahrscheinlichkeiten zuzuordnen. Anknüpfend an der Arbeit von Frank Knight bezeichnet der Oberbegriff der Unsicherheit fundamental unvollständiges Wissen darüber, welche Zielerreichung nach Realisierung bestimmter denkbarer Handlungsalternativen eintreten wird. Risiko ist dann eine idealtypische Unterform insofern, als in dieser Situation Wahrscheinlichkeiten bzw. Erwartungswerte für Handlungskonsequenzen existieren, womit sich die Unsicherheit als Abweichung von bzw. Streuung um diesen Erwartungswert angeben lässt (vgl. zum Risikobegriff aus betriebswirtschaftlicher Sicht insbes. Schneider, 1995, hier S. 12). Dabei kann es sich um objektiv messbare Wahrscheinlichkeiten handeln, wie sie etwa bei Versicherungen auf Basis statistischer Berechnungen ermittelt werden können, oder um subjektive Schätzungen, die einzelne oder mehrere Entscheidungsträger aus der Einschätzung einer bestimmten Situation bzw. ihrer Erfahrung ableiten.

Die wirkungsbezogenen Ansätze stellen dagegen die Risikowirkungen in den Vordergrund und fassen Risiko als die Möglichkeit einer negativen Zielverfehlung und die damit in der Regel ebenfalls verbundene Chance als die einer positiven Zielverfehlung auf. Insofern ist der Risikobegriff nur im Zusammenhang mit den zugrunde liegenden (subjektiven) Zielsetzungen und Erwartungen sinnvoll zu interpretieren, da durch das sich darin ausdrückende Anspruchsniveau gleichzeitig das Verhältnis von Risiko und Chance bestimmt wird. Wenn beispielsweise im Kreditgeschäft für das Gesamtinstitut die Zielsetzung einer vollständigen Zahlung von Zins- und Tilgungsleistungen formuliert wird, so steht dem Risiko, doch Ausfälle zu erleiden, keinerlei Chance gegenüber, da kein Kreditnehmer eine Übererfüllung der vertraglichen Vereinbarungen vornehmen wird. Werden aber im Zins Risikoprämien kalkuliert und diese auch am Markt durchgesetzt, so ist es eine durchaus sinnvolle Erwartung für das Gesamtinstitut, dass die tatsächlichen Ausfälle die Höhe der vereinnahmten Risikoprämien nicht übersteigen. Bei dieser Zielsetzung steht dem Risiko ex post tatsächlich höherer Ausfälle die Chance gegenüber, dass die tatsächlichen Ausfälle niedriger als die vereinnahmten Risikoprämien sind. An diesem Beispiel wird auch die Subjektivität der Risikoabgrenzung deutlich.

Die beiden dargestellten Grundrichtungen stehen indes nicht unabhängig nebeneinander; vielmehr setzt die wirkungsbezogene Interpretation die ursachenbezogene erkennbar voraus. Risiko kann daher wie folgt beschrieben werden:

image

Risiko resultiert ursachenbezogen aus der (quantifizierbaren) Unsicherheit zukünftiger Ereignisse und Handlungsfolgen auf der Basis unvollständiger Informationen und schlägt sich wirkungsbezogen in einer negativen Abweichung von einer festgelegten Zielgröße nieder.

Seit dem Ende dieses Jahrzehnts haben diese Ansätze gerade in der Banksteuerung die dominierende Rolle insbesondere im Management von Marktpreisrisiken inne (vgl. prägnant Wilkens/Völker, 2001, S. 415). Gleichzeitig ist mit der vorstehenden Definition die Annahme einer höchstens eingeschränkten Korrigierbarkeit einer einmal getroffenen Entscheidung verbunden. Die Höhe des Risikos ist dann einerseits abhängig vom Ausmaß der möglichen Zielverfehlungen sowie andererseits von den ihnen jeweils zuzurechnenden Wahrscheinlichkeiten.

Risikomaße sollten daher zum einen Aussagen zu den Eintrittswahrscheinlichkeiten und zum anderen zur Höhe des Risikos erlauben. Während traditionelle Risikomaße (z. B. Festzinsüberhänge in der Zinsbindungsbilanz oder etwa Berechnungen von Liquiditätskoeffizienten) in der Regel weder die Unsicherheit noch die Auswirkungen eines Risikoeintritts konkret quantifizieren, umfassen moderne Risikomaße, wie etwa Value-at-Risk-Kennzahlen, sowohl Aussagen zur Wahrscheinlichkeit eines Risikoeintritts als auch zu dessen Höhe.

2.2 Value-at-Risk-Konzepte

Die Entwicklung von Value-at-Risk-Konzepten für das unternehmerische Risikomanagement begann erst in den 1990er Jahren. In einer wertorientierten Sichtweise bezieht sich die Unsicherheit primär auf (zahlungswirksame) Überschüsse sowie die resultierenden (Bar-)Werte eines Untersuchungsobjekts (vgl. pointiert z.B. Jorion, 2001, S. 3f.; aktuell Dörschell/Franken/Schulte, 2009, S. 13), sei es eine Einzeltransaktion oder ein Kreditinstitut als Ganzes. Maßgebliche Treiber waren der Wunsch nach möglichst umfassenden Risikomaßen, die nicht nur das quantitative Ausmaß der Zielverfehlung sowie eine Eintrittswahrscheinlichkeit verknüpften, sondern sich auf dieser Basis auch für aggregierende Aussagen bis hin zur Gesamtrisikoposition einer Unternehmung eigneten.

Gerade aufgrund seiner in den letzten Jahren stetig gewachsenen, im Zuge der Finanzkrise daraufhin durchaus kritisch bewerteten Bedeutung erfordert das VaR-Konzept eine sorgfältige Analyse, weswegen nachfolgend die wichtigsten Basisvarianten beschrieben werden.

Auf methodischer Ebene weisen diese VaR-Konzepte zunächst einen gemeinsamen Kern auf: Gesucht ist ein Maß, mit dem die Abhängigkeit der Wertentwicklung einer Vermögensposition von bestimmten Einfluss- bzw. Risikofaktoren umfassend und gleichzeitig zusammenfassend abgebildet werden kann. Um sowohl die Ursache-Wirkungs-Zusammenhänge zwischen Risikofaktor und Vermögensposition als auch die Ungewissheit über die künftige Entwicklung der Risikofaktoren einzufangen, wurden Bausteine der Finanzierungstheorie einerseits sowie der Wahrscheinlichkeitstheorie und Statistik andererseits zusammengeführt.

image

Ausgehend von einem downside-orientierten Risikobegriff, der ein Risiko als negative Abweichung zwischen tatsächlichem und erwartetem Ergebnis versteht, wird das Risikomaß Value at Risk (VaR) definiert als die negative Wertänderung einer Vermögensposition, die in Abhängigkeit von einer unterstellten Verteilungsannahme mit einer bestimmten vorgegebenen Wahrscheinlichkeit in einer bestimmten Periode maximal eintreten kann.

Der VaR stellt damit einen in Geldeinheiten ausgedrückten Schwellenwert dar, den die tatsächlichen Verluste mit der vorgegebenen Wahrscheinlichkeit nicht überschreiten: „VAR summarizes the worst loss over a target horizon with a given level of confidence“ (Jorion, 2001, S. 22; vgl. auch Crouhy/Galai/Mark, 2001, S. 187). Da die Berechnung des VaR abhängig von (einem oder mehreren) bestimmten Risikofaktoren ist, wird seine Höhe maßgeblich beeinflusst von der unterstellten Verteilungsannahme für diese Risikofaktoren und darüber hinaus auch von der getroffenen zeitlichen Abgrenzung („bestimmte Periode“) sowie der gegebenen Vertrauenswahrscheinlichkeit („bestimmte Wahrscheinlichkeit“; vgl. zu diesen Parametern prägnant Hull, 2006, S. 526; Steiner/Bruns, 2007, S. 74). Die Verteilungsannahme umfasst nicht nur die Zusammenhänge zwischen dem Wert einer Vermögensposition und den betrachteten Risikofaktoren, sondern auch die Interaktion der letztgenannten untereinander. Um auf diese Weise Wertänderungen einzelner Vermögenspositionen, aber auch ganzer Asset-Portfolios zu beurteilen, haben sich insbesondere zwei VaR-Richtungen herausgebildet (vgl. Abbildung 1).

VaR-Konzepte im Überblick

image

Abbildung 1

Für eine grundlegende Betrachtung empfiehlt sich demnach eine Unterscheidung in

1. Analytische Modelle, die theoretisch fundierte Verteilungsannahmen (im Idealfall Normalverteilungen, die durch Erwartungswert μ und Standardabweichung σ charakterisiert werden können) für die Risikofaktoren unterstellen und daraus auf die Wertentwicklung der hiervon beeinflussten Vermögensposition schließen sowie

2. Simulations-Modelle, die mögliche Entwicklungen der Vermögensposition unter Zuhilfenahme bekannter Vergangenheitsdaten oder anderer repräsentativer simulierter Szenarien über die Risikofaktoren ableiten.

Nachfolgend soll zunächst das analytische Grundmodell vorgestellt werden, das auf Portfolio-Ebene insbesondere zum so genannten Varianz-Kovarianz-Ansatz weiterentwickelt werden kann. Im Anschluss daran werden die beiden grundlegenden nicht-analytischen Verfahren der Historischen sowie der Monte-Carlo-Simulation erläutert (vgl. für eine ausführliche Übersichtsdarstellung analog Linsmeier/Pearson, 2000). Alle drei Verfahren versuchen, das bestehende aktuelle Risiko der Wertveränderung einer Vermögensposition ausgehend von den Schwankungen bestimmter Risikofaktoren abzuschätzen, sie unterscheiden sich aber entscheidend in der Ableitung eben dieser Schwankungen.

2.2.1 Analytisches Grundmodell

Im analytischen Grundmodell wird davon ausgegangen, dass die Vermögensposition von einem Risikofaktor abhängt und dass dessen Schwankungen sich durch eine bestimmte Verteilungsannahme erfassen und charakterisieren lassen. Das Treffen einer Verteilungsannahme bedeutet, dass der Risikomessende unterstellt, dass betrachtete Risikofaktoren bzw. Vermögenspositionen für ihn nicht beeinflussbar, sondern Resultate von Zufallsexperimenten sind, deren Verlauf ganz bestimmten Regeln folgt. Basierend hierauf lassen sich dann Wahrscheinlichkeiten für die Ausprägung dieser zufälligen Ergebnisse angeben.

image

Für den Wurf eines Würfels würde der Betrachter – sofern er nicht Manipulationen am Spielgerät vermuten muss – von einer Gleichverteilung über die Werte eins bis sechs ausgehen. Bei einem einmaligen Wurf wäre die Wahrscheinlichkeit für das Werfen von sechs Augen mit 1/6 anzusetzen. Im Sinne der Value-at-Risk-Sprache würde dieser Sachverhalt wie folgt formuliert: „Die Augenzahl, die mit einer Wahrscheinlichkeit von 5/6 nicht überschritten wird, lautet fünf.“

Während die Anzahl denkbarer Ausgänge beim Wurf eines Würfels endlich bzw. abzählbar ist, womit es sich um eine diskrete Zufallsvariable handelt, ist für die Risikofaktoren bzw. Vermögenspositionen des Bankgeschäfts zu vermuten, dass sie zumindest in bestimmten Bereichen jeden beliebigen Zahlenwert annehmen können, also stetige Zufallsvariablen sind.

Dargestellt werden diese durch stetige Funktionen, nämlich ihre Dichtesowie ihre Verteilungsfunktion.

Die Dichtefunktion f(x) ist das Pendant zur Wahrscheinlichkeitsfunktion einer diskreten Zufallsvariable (diese bestünde im beschriebenen Beispiel aus sechs „Säulen“ der Höhe 1/6 über den denkbaren Merkmalsausprägungen „eins“ bis „sechs“, die auf der waagerechten Achse abzutragen wären). So wie sich bei einer Wahrscheinlichkeitsfunktion die Säulen über den Merkmalsausprägungen zur Gesamtwahrscheinlichkeit von 100 % = 1 aufaddieren, beträgt die gesamte Fläche zwischen dem Graphen der Dichtefunktion und der waagerechten Achse 1.

Aufgrund des stetigen Verlaufs können einer Dichtefunktion weniger Punkt- als Intervallinformationen entnommen werden: Die Wahrscheinlichkeit dafür, dass die Zufallsvariable einen Wert annimmt, der im Intervall [x1; x2] liegt, entspricht der Fläche unter dem Funktionsgraphen in exakt diesen Grenzen (vgl. grundlegend etwa Bleymüller/Gehlert/Gülicher, 2008, S. 41). Solche Dichtefunktionen können sehr unterschiedliche Verläufe aufweisen, was entsprechend auf die Wahrscheinlichkeiten für bestimmte Ausprägungen ausstrahlt, wie auch die folgende Abbildung zeigt: Unter der Annahme, dass die Verteilung f(x) gilt, ist die Wahrscheinlichkeit für Werte im Intervall [x1; x2] sehr viel größer (gesamte schraffierte Säule) als bei Gültigkeit der Verteilung g(x) (unterer, dunklerer Abschnitt der schraffierten Säule):

Dichtefunktionen von Zufallsvariablen

image

Abbildung 2

Analog empirisch ermittelter Häufigkeitsverteilungen (für vergangene Ereignisse) können auch solche Wahrscheinlichkeitsverteilungen (zukünftiger Ausprägungen) der Zufallsvariablen durch bestimmte Parameter charakterisiert werden. Deren wichtigste sind der Lage- sowie der Streuungsparameter. Ersterer beschreibt die Position einer Dichtefunktion bezüglich der Achsen (wie „niedrig oder hoch“, wie weit „links oder rechts“ die Kurve also verläuft), Letzterer ihre Gestalt (wie „schlank oder breit“ die Kurve ausfällt). Bevorzugter Lageparameter einer Verteilung ist der Erwartungswert μ, bevorzugter Streuungsparameter die Varianz σ2 oder ihre Wurzel, die Standardabweichung σ (vgl. einführend hierzu etwa Albrecht/Maurer, 2008, S. 121f.; Bruns/Meyer-Bullerdiek, 2008, S. 9ff.). Bei bestimmten Verteilungen (z. B. Normalverteilungen) reichen diese beiden Parameter sogar aus, um die Dichtefunktion vollständig zu beschreiben. Ausgehend davon ist es dann möglich, bestimmten Schwankungsbereichen der Wertentwicklung auch genaue Wahrscheinlichkeiten zuzuordnen. Umgekehrt kann über die Vorgabe bestimmter für sinnvoll erachteter Vertrauenswahrscheinlichkeiten errechnet werden, welcher absolute Verlust mit dieser Wahrscheinlichkeit nicht überschritten wird. Die daraus berechnete absolute Verlustziffer wird als der VaR auf eben diesem vorgegebenen Wahrscheinlichkeitsniveau bezeichnet. Wie bereits angedeutet, gehört zu den derart eindeutig bestimmbaren Verteilungen insbesondere die Normalverteilung als „wohl die wichtigste statistische Verteilung überhaupt“ (Bleymüller/Gehlert/Gülicher, 2008, S. 60). Hinzu treten bei ihr weitere Eigenschaften, die präzise Aussagen über Wahrscheinlichkeiten für das Unter- oder Überschreiten bestimmter Werte erleichtern, weswegen sie auch im Rahmen genau so ausgerichteter Value-at-Risk-Ansätze im kreditwirtschaftlichen Risikomanagement bevorzugt eingesetzt wird. Die Vorgehensweise des analytischen Grundmodells kann daraufhin wie folgt zerlegt werden (vgl. auch Jorion, 2001, S. 108f.; Crouhy/Galai/Mark, 2001, S. 198ff.):

1. Der Wert einer Vermögensposition wird als von der Entwicklung eines Risikofaktors (hier eines bestimmten Marktpreises) abhängige Variable definiert.

2. Für die denkbaren Ausprägungen dieses Risikofaktors wird eine Normalverteilung zugrunde gelegt. Um hiermit den Verteilungsverlauf der „Zufallsvariable Risikofaktor“ zu beschreiben, werden aufgrund der Besonderheit dieser Verteilungsform nur der Erwartungswert des Risikofaktors (μ) sowie seine Standardabweichung (σ) benötigt.

3. Es wird die aus Sicht des Risikomanagers zu berücksichtigende Schwankungsbreite des Risikofaktors ermittelt. Hierfür wird ein Konfidenzniveau vorgegeben, das ausdrückt, in welchem Intervall (z. B. „95 % aller Fälle“ oder „99 % aller Fälle“) die Werte noch als akzeptabel gelten. Der sich daraus ergebende schlechteste noch akzeptable Wert führt zur Berechnung des VaR.

4. Diese Schwankungsbreite kann über die in 1. definierte Abhängigkeit in die Schwankungsbreite der Vermögensposition transformiert werden. Ablesbar ist der VaR auf dem zuvor definierten Konfidenzniveau im Sinne der „unteren Hälfte“ der nicht vom Konfidenzniveau erfassten Fälle, also von Verlusten, die z. B. „in 95 % aller Fälle“ nicht überschritten werden.

Die Dichtefunktion einer jeden Normalverteilung wird beschrieben durch die Funktionsgleichung

image

Umgesetzt in eine grafische Darstellung führt diese Gleichung auf die nach Carl Friedrich Gauß benannte, symmetrische Kurve mit einem Maximum (über μ) und zwei Wendepunkten (bei μ – σ sowie μ + σ). Je nach dem für die Verteilung spezifischen μ und σ kann diese Kurve noch unterschiedlichste Positionen im Koordinatensystem sowie Gestalten aufweisen. Zu den erwähnten nützlichen Eigenschaften der Normalverteilung gehört jedoch, dass sich jede ihrer Varianten durch eine ganz bestimmte Adjustierung in die Standardnormalverteilung (mit μ = 0 und σ = 1) überführen lässt. Es gilt: Ist die durch X* angegebene Verteilung der Werte x normalverteilt mit μ = μ* und σ = σ*, so ist die durch lineare Transformation resultierende Verteilung Z, deren Werte beschrieben werden durch

image

standardnormalverteilt mit μz = 0 und σz = 1. Damit aber lassen sich die Wertetabelle der Verteilungsfunktion der Standardnormalverteilung, nämlich

image

und der Funktionsgraf von Z nutzen, um Wahrscheinlichkeitsaussagen über jede beliebige Normalverteilung zu treffen. Die grafische Darstellung von Z zeigt dabei die ebenfalls nach Gauß benannte, charakteristische Gestalt einer Glocke, die analog zum Gros der Literatur auch den folgenden Darstellungen zugrunde liegt.

Zu den zentralen Eigenschaften der Normalverteilung, die für die VaR-Berechnung nutzbar gemacht werden, zählt die symmetrische Streuung der Werte um den Mittelwert μ. Solche Verteilungen sind durchaus plausibel, sie entstehen insbesondere bei empirischen Erhebungen mit einer ausreichend hohen Zahl von Beobachtungswerten. Die Symmetrie an sich, vor allem aber die (Glocken-)Form der Dichtefunktion ermöglicht es, künftigen Schwankungen des Risikofaktors ganz bestimmte Wahrscheinlichkeiten zuzuordnen: Hierdurch ist etwa die Wahrscheinlichkeit für Werte links von μ ebenso groß wie für Werte rechts davon (μ jeweils eingeschlossen), beide betragen 50 %. Bei jeder durch eine μ-σ-Kombination charakterisierten Normalverteilung gelten überdies bestimmbare Wahrscheinlichkeiten dafür, dass angenommene Werte in um μ symmetrischen Intervallen liegen, also etwa „zwischen (μ − x) und (μ + x)“. Nicht zuletzt lässt sich für x dabei ein Vielfaches der Standardabweichung angeben, das Intervall also formulieren als [μ − aσ; μ + aσ]. Insbesondere dann gilt für jede beliebige Normalverteilung – also unabhängig vom konkreten μ bzw. σ (vgl. Albrecht/Maurer, 2008, S. 121) – die gleiche Wahrscheinlichkeit, dass künftige Werte inner- bzw. außerhalb dieses Intervalls liegen.

Dichtefunktion einer normalverteilten Zufallsvariable (Risikofaktor)

image

Abbildung 3

Werden etwa Intervallgrenzen festgelegt, die um die zweifache Standardabweichung vom Mittelwert entfernt sind, so enthält dieses Intervall [μ − 2σ μ + 2σ] stets 95,44 % der für möglich gehaltenen Werte, umgekehrt werden genau (100 − 95,44) % = 4,56 % der Schwankungen zu Werten der Zufallsvariable außerhalb dieses Intervalls führen. Symmetriebedingt beträgt dann die Wahrscheinlichkeit, dass sich Ausprägungen des Risikofaktors ergeben, die niedriger sind als die durch diesen Bereich festgelegte Untergrenze, die Hälfte von 4,56 %, also 2,28 %. Durch analoge Überlegungen lassen sich weitere „Eckwerte“ ermitteln (linker Pfeil), die entweder auf ganzzahlige Vielfache von σ (vgl. Kopfzeile der Abb. 4) oder aber „glatte“ Konfidenzniveaus (vgl. letzte Zeile der Abb. 4) abstellen:

Normalverteilung, Konfidenzniveau und Unterschreitungswahrscheinlichkeit

image

Abbildung 4

Eine VaR-Analyse dreht die oben durch den linken Pfeil angedeutete rechnerische Vorgehensweise insoweit um, als sie Konfidenzniveaus vorgibt („Unter Ansatz einer Wahrscheinlichkeit von x % ...“) und hieraus dem rechten Pfeil entsprechend ableitet, wie sich der betrachtete Risikofaktor dann vermutlich entwickelt („... wird der Marktzins für y-Monats-Gelder um nicht mehr als z % fallen.“).

image

Lag der täglich ermittelte 6-Monats-Euribor zuletzt um einen Mittelwert von 4,5 % bei einer Standardabweichung von 0,25 %, so gilt: Mit einer Wahrscheinlichkeit von 95 % wird der 6-Monats-Euribor am nächsten Tag nicht unter 4,5 % − 1,65 · 0,25 % = 4,0875 % falle.

Die Betrachtung wird im analytischen Grundmodell also zunächst für die künftige Entwicklung des betrachteten Risikofaktors angestellt. Über den zugrunde gelegten Zusammenhang mit der den Risikomanager interessierenden Vermögensposition lässt sich der Zusammenhang dann in eine zweite Normalverteilung, nämlich die des Wertes der Vermögensposition, überführen. Ergibt sich für diese eine mittlere Wertveränderung von 0 €, um die die sonstigen denkbaren Wertveränderungen symmetrisch wie in der folgenden Abbildung mit einer Standardabweichung von 10 Mio. € streuen, erfolgt eine zweite analoge VaR-Analyse wie folgt: Wird beispielsweise auch hier ausgehend vom heutigen Niveau der Vermögensposition die zweifache Standardabweichung nach oben und unten zugrunde gelegt, so deckt dieser Bereich auch hier 95,44 % der für möglich gehaltenen Schwankungen ab, umgekehrt führen auch hier 4,56 % der Schwankungen zu Werten außerhalb dieses Intervalls. Die Wahrscheinlichkeit dafür, dass sich Vermögenswerte ergeben, die niedriger sind als die durch diesen Bereich festgelegte Untergrenze, beträgt demnach auch hier 2,28 %. Der Differenzbetrag zwischen dem heutigen Wert der Vermögensposition und der unteren Grenze des Schwankungsbereichs ist der VaR, also der mit Risiko behaftete Betrag. Im Beispiel der Abb. 5 beträgt der Value-at-Risk auf diesem Konfidenzniveau (97,72 %) demnach genau 20 Mio. Euro.

Ermittlung des Value-at-Risk aus der Dichtefunktion der normalverteilten Vermögensposition

image

Abbildung 5

Der primäre Vorteil des bis hierher dargestellten analytischen Grundmodells ist darin zu sehen, dass die unterlegte funktionale Abhängigkeit zwischen Risikofaktor und Vermögenswert eine exakte und theoretisch fundierte Kalkulation ermöglicht. Zudem besteht auf dieser Basis die Möglichkeit, den Ansatz den Anforderungen der Praxis gemäß zu modifizieren. Dies gilt insbesondere im Hinblick auf

• andere – für realistischer erachtete – Verteilungen,

• eine Mehrzahl von i Risikofaktoren je Vermögensposition x,

• die Zusammenhänge Risikofaktorix → Vermögensposition x bzw. Risikofaktorix → Risikofaktorjx und vor allem

• die Kalkulation von Wertveränderungen von Portefeuilles bis hin zur Gesamtbank (vgl. aktuell Schierenbeck/Lister/Kirmße, 2008, S. 21f., 83ff.) unter Beachtung von Diversifikationseffekten (Varianz-Kovarianz-Ansatz: Ausnutzung der Korrelationszusammenhänge der Portfolio-Theorie für das Zusammenwirken mehrerer Risikofaktoren) sowie

• die Ableitung von Wertveränderungen über längere Zeiträume aus bereits vorliegenden Wertveränderungen für kürzere Zeiträume (vgl. zum Zusammenhang verschiedener Renditezeiträume auch Steiner/Bruns, 2007, S. 57f.; Schierenbeck/Pohl, 2009, S. 526f.). Liegt eine Normalverteilung vor, lässt sich vom Risiko R für den kürzeren Zeitraum tA auf das Risiko für den längeren Zeitraum tB (tB > tA) nach folgender Relation schließen:

image

image

image

image

Diesen Vorteilen stehen allerdings nicht unerhebliche Nachteile gegenüber. Insbesondere steht und fällt die Aussagekraft des Grundmodells mit der Richtigkeit der Annahmen über die (Normal-)Verteilung des betrachteten Risikofaktors (vgl. dezidiert auch Hartmann-Wendels/Pfingsten/Weber, 2007, S. 336). Folgerichtig empfiehlt es sich, die zugrunde gelegten Verteilungsannahmen revolvierend mit den tatsächlich eintretenden Werten abzugleichen („Backtesting“) und gegebenenfalls anzupassen (ausführlich zum Backtesting von VaR-Rechnungen vgl. Jorion, 2001, S. 129ff.). Darüber hinaus gelingt die angenommene Überführung der Verteilung des Risikofaktors in die der Vermögensposition nur dann problemlos, wenn ein linearer Zusammenhang („Vermögensposition = a + b · Risikofaktor“) vorausgesetzt werden kann. Ein solcher ist in der Praxis indes nur in seltenen Fällen gegeben.

Auch der für eine Fristenumrechnung dargestellte Zusammenhang gilt in dieser Form nur, wenn die tatsächliche Verteilung einer Normalverteilung entspricht. Umgekehrt lässt sich zeigen, dass die Umrechnung „mal Wurzel t“ für den Schluss von kurzen auf lange Zeiträume in der Realität zu systematischen Unterschätzungen des Risikos führen kann (vgl. Wegner/Sievi/Schumacher, 2001, S. 140f.), weil Risikofaktoren häufig eben nicht normalverteilt sind.

Um sich – zumindest teilweise – von dem engen Prämissenkranz der analytischen Modelle zu lösen, wurden parallel VaR-Ansätze entwickelt, die sich nicht auf eine Normalverteilungsannahme, sondern auf Simulationen stützen. Die beiden wichtigsten Varianten hierfür stellen a) die Historische Simulation und b) die Monte-Carlo-Simulation dar.

2.2.2 Simulationsmodelle

Die Historische Simulation kann direkt am Wert einer Vermögensposition (z. B. eines bestimmten Aktienportfolios) ansetzen oder aber die Simulation für die betrachteten Risikofaktoren durchführen. Eine Historische Simulation direkter Art würde die Wertentwicklung der Vermögensposition für einen zurückliegenden Zeitabschnitt erfassen und die x historisch ermittelten Veränderungsraten auf den heutigen Wert der Vermögensposition (den aktuellen Kurswert des Portfolios) anwenden, woraus sich x „gemäß der Historie“ denkbare neue Kurswerte für das Beispiel-Portfolio ergäben. In vollständiger Form nimmt indes auch die historische Simulation den Weg über den Zusammenhang von Vermögenswert und am Markt beobachtetem Einflussfaktor (vgl. Meyer, 1999, S. 192ff., aktuell auch Schierenbeck/Lister/Kirmße, 2008, S. 89ff.):

1. Der Wert der betrachteten Vermögensposition (z. B. Kurswert eines Rentenbestandes) wird als Abhängige einer bestimmten Marktpreisänderung interpretiert.

2. Es wird ein historischer Zeitraum ausgewählt und sinnvoll in Abschnitte unterteilt, für die diese Marktpreisänderung feststellbar ist (Beispiel: Veränderungen des Zinssatzes für Monatsgelder in den letzten 1001 Tagen).

3. Die ermittelten Änderungsraten werden dann auf die derzeitige Höhe des betrachteten Marktpreises angewendet (im Beispiel ergeben sich 1000 „aufgrund der Historie denkbare“ Höhen, die der Monatszins am Folgetag haben könnte) und dann der Einfluss jedes einzelnen dieser „Mini-Szenarien“ auf den Wert der Vermögensposition überprüft: Im Beispiel ergeben sich 1000 gemäß der Historie denkbare Werte des Rentenbestandes am Folgetag.

4. Ein Vergleich der historisch simulierten Vermögenswerte mit dem heutigen Vermögenswert ergibt die (hier 1000) denkbaren Wertveränderungen im Sinne von Gewinnen bzw. Verlusten.

5. Diese Gewinne/Verluste werden dann der Größe nach aufgereiht. Es ergibt sich eine Verteilung folgender Form:

Historische Simulation

image

Abbildung 6

(Quelle: Beck/Mende/Stechmeyer-Emden, 2000, S. 440)

Aus der aufgestellten Tabelle oder dem Graphen der empirischen Verteilungsfunktion kann dann ausgehend von der gesetzten Vertrauenswahrscheinlichkeit der VaR abgelesen werden: Besteht etwa Interesse am VaR mit einer Vertrauenswahrscheinlichkeit von 99 %, so würde ermittelt, welche Verlusthöhe auf Rang 990 einer Tabelle von 1000 historisch simulierten Wertveränderungen verzeichnet ist. Dieser Verlust gibt den VaR auf diesem Niveau an.

Es wird deutlich, dass der Vorteil der historischen Simulation in erster Linie in ihrer einfachen Struktur und Umsetzbarkeit liegt (vgl. Jorion, 2001, S. 222f.). Zudem ermöglicht sie das Einfangen nicht-linearer Zusammenhänge zwischen Risikofaktor und Vermögensposition. Darüber hinaus werden auch die Korrelationen zwischen unterschiedlichen Risikofaktoren implizit berücksichtigt. Ein Nachteil ist, dass dieser empirische Ansatz Vergangenheitsorientierung an die Stelle einer Theoriebasis setzt: Aus Veränderungen, die in früheren Beobachtungsperioden aufgetreten sind, wird „mechanisch“ auf Veränderungen geschlossen, die künftig eintreten könnten. Umgekehrt liegt ein Mangel der Historischen Simulation darin, dass sie keine andere als die rückblickend festgestellte Entwicklung der Risikofaktoren berücksichtigen kann (vgl. auch Hartmann-Wendels/Pfingsten/Weber, 2007, S. 336). Zudem ist der Bezugszeitraum für eine solche Simulation nicht eindeutig definiert und dadurch fehler- und manipulationsanfällig. Die aus „der Historie“ ermittelten Häufigkeiten können daher zu Verteilungsannahmen für die Zukunft verleiten, die von der tatsächlichen Verteilung abweichen – insbesondere dann, wenn der herangezogene historische Zeitraum nicht repräsentativ ist.

image

Wurde etwa mit Hilfe des Value-at-Risk-Konzepts das (Marktpreis-)Risiko von Wertveränderungen eines Bestandes an Asset-Backed-Securities zum Jahresanfang 2009 erfasst, hätte eine auf Werte der zwölf Vormonate gestützte historische Simulation wegen der krisenhaften Entwicklung im Jahr 2008 sehr viel höhere Wertveränderungspotenziale bzw. VaR-Werte ergeben als eine über die vorangegangenen zehn Kalenderjahre reichende Simulation.

In grafischer Form lässt sich das Fehlerproblem wie in der nachfolgenden Abbildung verdeutlichen, in der als Repräsentante der tatsächlich richtigen Verteilung die Glockenfunktion der Normalverteilung sowie die Säulen einer exemplarisch aus der Historie ermittelten Häufigkeitsverteilung abgetragen sind.

Der VaR auf einem 99 %igen Niveau würde sich anhand der Normalverteilungsglocke wie in Kapitel 2.2.1 beschrieben an der Stelle μ – 2,33σ ablesen lassen. Ausgehend von den historischen Daten müsste ein Prozent der Verluste von links (also von den höchsten Verlusten) her kommend abgezählt werden. Ohne die exakten Werte aus der Beispielgrafik bestimmen zu können, zeigt sie doch, dass die Säulen der historischen Wertermittlung im linken Bereich durchweg über der Normalverteilungsglocke liegen, gemessen an der eine historisch basierte Verlusterwartung folglich zu hoch ausfallen würde.

Historische versus normalverteilte Abweichungen

image

Abbildung 7

Als alleinige Basis eines VaR-gestützten Risikomanagements ist das Verfahren der historischen Simulation aufgrund der starken Abhängigkeit vom konkret gewählten Beobachtungszeitraum daher nur mit Einschränkungen geeignet, weil stets die Gefahr besteht, dass der Beobachtungszeitraum atypische Entwicklungen (nicht) beinhaltet. Auf ihre Weise verzerren aber sowohl integrierte als auch nicht einbezogene Extremereignisse den historischen Datenbestand (vgl. prägnant Crouhy/Galai/Mark, 2001, S. 211f.).

Die Ermittlung von VaR auf Basis der Monte-Carlo-Simulation greift die vorgenannte Kritik auf: Sie unterstellt eine funktionale Abhängigkeit zwischen Vermögensposition und Risikofaktoren (vgl. Wiedemann, 2008, S. 43ff.). Für die denkbaren Ausprägungen der Risikofaktoren legt sie aber per Zufallsgenerator erzeugte – zwingend sind also weder normalverteilte, noch historisch abgeleitete – Verteilungen zugrunde. Die generierten x Zufallszahlen für die (Veränderung der) Risikofaktoren führen über den Basiszusammenhang zu x denkbaren Werten der Vermögensposition (vgl. etwa Hull, 2006, S. 539f.). Auch hier werden die einhergehenden Gewinne/Verluste der Größe nach sortiert, wonach ein Ablesen des VaR nach Vorgabe einer Vertrauenswahrscheinlichkeit wie bei der Historischen Simulation möglich wird. Der VorteilNachteilen