Technische Artikel

Entwicklung und Implementierung von Szenarioanalyse-Modellen zur Messung des operationellen Risikos bei der Intesa Sanpaolo

Von Andrea Colombo, KPMG Advisory und Stefano Desando, Intesa Sanpaolo


Im Jahr 1995 musste die Barings Bank Insolvenz anmelden, nachdem sie durch nicht autorisierte Handelsaktivitäten 1,4 Mrd. $ verloren hatte. Zehn Jahre später hat JP Morgan sich mit der Zahlung von 2,2 Mrd. $ als Entschädigung im Enron-Skandal einverstanden erklärt. Erst vor kurzem hat die Société Générale 4,9 Mrd. € verloren, weil mehrfach gegen interne Kontrollmechanismen für Handelsaktivitäten verstoßen wurde.

Ereignisse wie diese zeigen deutlich, wie ernst der wirtschaftliche Einfluss operationeller Risiken zu nehmen ist. Im neuen Basel II-Abkommen sind diese Risiken definiert als „das Verlustrisiko, das infolge eines Mangels oder Versagens von internen Prozessen, Menschen oder Systemen oder aufgrund externer Ereignisse entsteht“. Basel II verlangt von Finanzinstituten die Vorhaltung von Kapital zur Absicherung unerwarteter Verluste aus operationellen Risiken.

Bei der Intesa Sanpaolo wurden darum zur Umsetzung der in Basel II formulierten Richt-linien vollkommen neue Modelle für Szena-rioanalysen mit MATLAB aufgebaut. Die Szenarioanalyse ist ein Kernbestandteil des mit Basel II eingeführten Advanced Measurement Approach (AMA) zur Abschätzung des zur Risikoabdeckung erforderlichen Kapital-aufwandes. Der AMA erlegt Banken strenge quantitative Anforderungen für die Messung operationeller Risiken auf. In Berechnungen für Kapitalmaßnahmen mit einjähriger Haltefrist muss beispielsweise ein statistisches Konfidenzintervall von 99,9% eingehalten werden.

sam_bldg_w.gif
Die Intesa Sanpaolo mit Hauptsitz in Turin und Mailand ist mit 10,7 Millionen Kunden und einem Marktanteil bei Kundenkrediten und -einlagen von 19% Italiens führende Bank. Die Intesa Sanpaolo hat 7,2 Millionen weitere Klienten in 12 Ländern in Osteuropa und dem Mittelmeerraum und betreut Kundenaktivitäten in 34 Ländern weltweit. Zum Vergrößern auf das Bild klicken.
„Aufgabe unseres Teams bei der Intesa Sanpaolo war der Aufbau vollkommen neuer Modelle für Szenarioanalysen. MATLAB hat uns dabei viel Prototyping- und Entwicklungszeit gespart. Seine große Flexibilität war für uns vor allem in der ersten Trial-and-Error-Phase von Nutzen, in der oft grundlegende Veränderungen vorgenommen wurden, um neue Ideen testen zu können.“

Mit MATLAB konnte das Analyseteam vor allem in der Prototyping- und Entwicklungs-phase viel Zeit einsparen und ausgesprochen flexibel agieren. Letzteres erwies sich vor allem in den ersten Konzeptphasen als vorteilhaft, in denen häufig erhebliche Veränderungen vorgenommen wurden, um neue Ideen zu testen.

Implementierung der Szenarioanalyse

Im Gegensatz zu herkömmlichen Methoden fließen in Szenarioanalysen Expertenmeinungen ein und keine historischen Daten. Da die geplante Szenarioanalyse jeden einzelnen der inhaltlich sehr breit aufgestellten Geschäftsbereiche der Intesa Sanpaolo berücksichtigen sollte, war die Sammlung von Expertenmeinungen in persönlichen Interviews schlichtweg nicht möglich. Aus Effizienzgründen wurden daher Fragebögen ausgearbeitet.

Die größte technische Herausforderung bei der Entwicklung des Gerüstes und der einzelnen Tools der Szenarioanalyse bestand in der Ermittlung, wie hoch die Befragten die Wahrscheinlichkeit besonders hoher Verluste einschätzen würden. Das Verfahren und das Modell sollte den Experten eine Anleitung sowie Anhaltspunkte bieten, ihnen aber dennoch die abschließende Verantwortung für ihre Einschätzungen selbst überlassen. Das Modell musste darum während seiner Entwicklung aufwändig kalibriert werden, beispielsweise durch sinnvolle Wertebereiche für die Schätzwerte.

Da operationelle Risiken oft durch außergewöhnliche Ereignisse entstehen, verwendet die Intesa Sanpaolo zu deren Bemessung einen Value-at-Risk-Ansatz (VaR).

Die Übernahme des VaR-Ansatzes erforderte das Aufspüren einer passenden Verteilung sowie robuste Kalibrierungsanalysen für die Modellierung und Extrapolation von Daten. Die Kalibrierung muss sehr gründlich durchgeführt werden, da VaR ein Maß für so ge­nannte „Tail Risks“ ist, die denkbare, aber bislang nicht eingetretene Verlustszenarien beinhalten. Beispielsweise lässt sich das Risiko für einen Skandal wie den um Enron nur extrapolieren, weil das Endergebnis weit außerhalb der bis dato beobachteten Daten liegt. Verschiedene Modellierungsalternativen können daher zu völlig verschiedenen Ergebnissen führen.

Zum Entwurf und zur Feinabstimmung des Szenarioanalyse-Modells waren zwei Fähigkeiten erforderlich, die MATLAB an-bietet: Umfassende Sensitivitäts-Analysen sowie die Sammlung und grafische Auswertung der dabei erhaltenen Ergebnisse. Angesichts der großen Bandbreite und Komplexität des Problems – hunderte Verlustverteilungen mussten gemeinsam ausgewertet werden – kann eine solche Analyse äußerst komplex sein. Die Modellentwicklung wurde daher in vier Schritte unterteilt: Entwicklung des Kern-algorithmus, Kalibrierung der Modelleingaben, Festlegung der in den Fragebögen verwendeten Wertebereiche und Abschätzung des Capital at Risk.

Entwicklung des Kernalgorithmus

Der zur Szenarioanalyse (SA) eingesetzte Algorithmus basiert auf dem im Versicherungs-wesen gebräuchlichen Loss Distribution-Ansatz (LDA), weil die Art der hier auftretenden Problemstellungen mit operationellen Risiken vom Prinzip her identisch ist. Die jährliche Verlustverteilung ist durch Verlusthäufigkeit und –höhe definiert. Die wichtigsten zur Berechnung dieser Faktoren benötigten Informationen sind daher die – zur Kalibrierung der Frequenzverteilung benötigte – erwartete Häufigkeit von Verlustereignissen pro Jahr sowie die – zur Kalibrierung der Schadens-höhen-Verteilung benötigten – wirtschaftlichen Folgen der Einzelereignisse. Die Häufigkeits- und Betrags-Komponenten fließen unabhängig voneinander ein. Dies hat den Vorteil, dass die Befragten die beiden Punkte separat beantworten müssen und das Modell daraus sowohl qualitative als auch quantitative Schlüsse ziehen kann.

Der SA-Algorithmus verwendet die in den Fragebögen gegebenen Antworten als Eingabewerte, die vom Analyseteam zunächst zur Kalibrierung der Häufigkeits- und Schadens-höhen-Verteilungen genutzt wurden. Die Häufigkeitsverteilung der operationellen Ver­luste lässt sich sowohl durch eine Poission- als auch durch eine negative Binomial-Verteilung beschreiben. Gewählt wurde die Poisson-Verteilung, weil sie eine diskrete Verteilung mit nur einem Parameter darstellt und in der Modellierung versicherungstechnischer oder kumulativer Risiken üblich ist. Für die Schadenshöhen wurde eine Lognormal-Verteilung ausgewählt.

Mit MATLAB und der lognrnd() Funktion aus der Statistics and Machine Learning Toolbox schätzte das Team das aus der Verteilung der Gesamtverluste resultierende VaR im geforderten 99,9%-Intervall. Der MATLAB-Code dazu basiert auf einer Monte Carlo-Methode:

%% data
dim=1e6; % number of scenarios
mu=9;sigma=2;   % severity (lognormal)      
                % parameters
lambda=100;     % frequency parameter 
        % (average frequency)
%% Monte Carlo using cellfun 
N=num2cell(poissrnd(lambda,dim,1)); 
Loss = cellfun(@(x) sum(lognrnd...
(mu,sigma,x,1)), N,... 
'UniformOutput', false); 
Loss=cell2mat(Loss);   
   % aggregate loss 
   % distribution (empirical)
VaR=prctile(Loss,99.9);

Durch den Einsatz von cellfun konnten Schleifen vermieden und der Code kompakt gehalten werden.

Kalibrierung der Modelleingaben

Ein zentrales Problem der Szenarioanalyse ist die Qualität der Modelleingaben. Die maßgeb-lichen, für jede Risikoklasse separat erforder-lichen Informationen sind die erwartete jährli-che Häufigkeit (λ) der Verlustereignisse sowie die wirtschaftlichen Folgen jedes Ereignisses, die wiederum durch den typischen Verlust (M) und das Worst-Case-Szenario (WC) beschrieben werden. Die Frequenzverteilung wurde daher mit λ kalibriert, die Schadenshöhen-Verteilung mit M und WC.

Da WC der wichtigste Parameter zur Ermitt-lung des Capital at Risk ist, war seine korrekte Interpretation für das Ergebnis entscheidend. Abbildung 1 zeigt die Ergebnisse der zur Kalibrierung von WC durchgeführten Sensiti-vitäts-Analyse.

sam_fig1_w.gif
Abb. 1. Zur Kalibrierung von WC durchgeführ-te Sensitivitätsanalyse. Je niedriger das Wahr-scheinlichkeitsniveau, desto höher das VaR. Zum Vergrößern auf das Bild klicken.

Die durchgezogene rote Linie entspricht einem Wahrscheinlichkeitsniveau von 98%, die gestrichelte rote Linie 99%. Wenn nun einer der Befragten einen typischen Verlust von 1 und einen Worst Case von 30 angibt, dann wäre WC/M gleich 30 und damit das VaR im ersten Fall gleich 300 und im zweiten 100. Mit anderen Worten: Wenn man das Modell WC nicht als 99%-Quantil sondern als 98%-Quantil der Schadenshöhen-Verteilung interpretiert, ist das VaR dreimal so hoch.

WC lässt sich auf viele Weisen interpretieren, beispielsweise als festes (hohes) Quantil der Schadenshöhen-Verteilung; größter Einzelverlust in einem bestimmten Zeitraum; oder als Quantil der Schadenshöhen-Verteilung mit einem von der Häufigkeit abhängigen Wahrscheinlichkeitsniveau. Der letzte Ansatz ist eine Kombination aus einem probabilistischen Szenario und einer Szenarioanalyse. Für die Interpretation des typischen Verlustes M wurde eine analoge Analyse durchgeführt.

Festlegung der in den Fragebögen verwendeten Wertebereiche

Da die Experten der Intesa einige Werte schätzen mussten, erschien es sinnvoll, statt genauer Zahlen eher Wertebereiche anzugeben. Alle Daten sollten konsistent sein und effizient gesammelt werden können, aber trotzdem wichtige Merkmale der einzelnen Geschäfts-bereiche berücksichtigen (etwa deren Größe und Umsatzanteil).

Da lineare Systeme homogen sind, konnten alle Überlegungen durch das Arbeiten in einer „normalisierten Welt“ vereinfacht werden: Das Team musste nur einmal (im Voraus) ein für einen typischen Verlust von 1 normalisiertes VaR berechnen. Um Zeit zu sparen berechnete man daher ein normalisiertes VaR, das ausschließlich vom Verhältnis WC/M-Verhältnis und der Schadenshäufigkeit abhängt. Abbildung 2 zeigt die Simulationsergebnisse dreier verschiedener Schadenshöhen-Verteilungen, Abbildung 3 das VaR als Funktion von M und WC.

sam_fig2_w.gif
Abb. 2. Der Vergleich der Schadenshöhen-Verteilungen zeigt, dass unterschiedliche Verteilungen zu verschiedenen VaRs führen. Zum Vergrößern auf das Bild klicken.
sam_fig3_w.gif
Abb. 3. 2D- und 3D-Visualisierung der VaR-Berechnungen. Die Grafiken wurden erzeugt, um sinnvolle Wertebereiche für die Fragebögen festlegen zu können und die Sensitivität des VaR besser zu verstehen. Zum Vergrößern auf das Bild klicken.

Es stellte sich heraus, dass sich die Ergebnisse für alle Geschäftsbereiche durch einfache Multiplikation mit deren typischem Verlust M skalieren ließen. Der dabei erhaltene Faktor konnte wiederum zur Skalierung der normalisierten Schätzwertebereiche für jede Abteilung heran-gezogen werden. Durch „check and balance“ der für jede Klasse ermittelten Varianz wurden schließlich die Wertebereiche optimiert.

Schätzung des Capital at Risk

Zur Ermittlung des Gesamt-VaR der Intesa Sanpaolo Group aus den Schätzwerten wurde der LDA-Algorithmus zunächst auf jede Antwort für sich angewandt und dann alle Antworten unter Berücksichtigung von Diversifikations-Effekten summiert.

Um eine lineare, Ziel- oder Rangkorrelation zu erzeugen, wurde ein Restricted Pairing-Algorithmus eingesetzt, der einer Gauss-Copula entspricht. Diese Methode ist eine verfeinerte Variante des Iman-Conover-Verfahrens (1982) und erzeugt eine engere Übereinstimmung der Zielmatrix mit der tatsächlich erhaltenen Korrelationsmatrix.

Das Modell in der Praxis

Durch Zusammenfügen aller genannten Schritte entwickelte das Analyseteam ein automati-siertes Tool, das sämtliche statistischen Berechnungen ausführt und automatisch Berichte in Excel und PowerPoint erzeugt. Derzeit wird die erste Version des AMA-Modells finalisiert, um damit das aufsichtsrechtlich geforderte Eigenkapital zu berechnen.

Operational Risk-Manager verwalten mit dem Tool die gesamte Durchführung der Szenarioanalyse, von der Festlegung der Werte-bereiche der Antworten bis hin zur Schätzung des VaR einer Gruppe.

Der Einsatz des Modells lässt sich auf alle Anwendungen ausdehnen, bei denen Expertenmeinungen gesammelt und in nume-rische Schätzwerte umgesetzt werden müssen – beispielsweise bei der Ermittlung von Liquiditätsrisiken im Versicherungswesen, der Vorhersage das Gasverbrauchs in der Ener-giewirtschaft und sogar für Risikoanalysen im Zusammenhang mit der Exploration und Förderung von Erdöl.

Man kann außerdem von Versicherungen abgedeckte Summen in das Modell ein­beziehen und in Monte-Carlo-Simulationen ermitteln, inwieweit diese zur Minimierung des Gesamtrisikos beitragen. Auf diese Weise lässt sich die Szenarioanalyse im Rahmen von Kosten/Nutzenanalysen zur Abschätzung der Effektivität von Versicherungspolicen und zur Optimierung von Deckungssummen und Selbstbeteiligungen einsetzen.

Das Szenarioanalyse-Modell erfüllt die Anforderungen von Basel II, denn es schätzt die Kapitalrückstellungen für einjährige Haltefristen mit 99% Wahrscheinlichkeit ab. Vor ihrem Einsatz in der Praxis müssen solche Modelle jedoch von offizieller Seite gründlich geprüft und genehmigt werden. Dies ist ein Faktor, der bei der Konzeption und Entwicklung eines Frameworks für die Szenarioanalyse unbedingt bedacht werden sollte.

Die in diesem Artikel getroffenen Aussagen geben ausschließlich die Meinung ihrer Autoren wieder und sind nicht notwendigerweise offizieller Standpunkt der Intesa Sanpaolo-Gruppe. Bei Fertigstellung dieses Artikels war Andrea Colombo noch bei der Intesa Sanpaolo beschäftigt.

Veröffentlicht 2008 - 91606v00

Artikel für ähnliche Einsatzgebiete anzeigen

Artikel für verwandte Branchen anzeigen