Speziell während der Finanzkrise hat sich gezeigt, dass die Risiko-Exposition eines Institutes kaum ad hoc zu ermitteln ist. Auch die Beantwortung von risikorelevanten Fragen abseits des vermeintlichen Mainstreams bereitet erhebliche Probleme. Kurz gesagt: Das tatsächliche Risiko war lange Zeit unklar. Doch wo liegen die Gründe?
Veraltete IT-Infrastrukturen und schlechte Datenqualität
Im Grunde kommen hier mehrere Faktoren zusammen - einer dem bislang besonders wenig Beachtung zukommt ist die IT-Infrastruktur selbst. Einerseits werden viele unterschiedliche Systeme in Banken eingesetzt - die bis zu 30 Jahre alt und häufig redundant vorhanden sind. Weit schwerwiegender sind jedoch die negativen Effekte der so genannten "Schatten-IT". Damit sind jene Applikationen gemeint, die beim Fachbereichsleiter unter dem Schreibtisch laufen. Nicht selten finden sich hier kleinere Datenbanken, voluminöse Spreadsheets inklusive Logik oder auch Auszüge aus Stammdaten für eigene Zwecke. Ein derartiges Patchwork ist kaum zu überblicken. Es entstehen zunehmend Inkonsistenzen, in deren Folge die Datenqualität stark leidet.
Die Vollständigkeit und Korrektheit von Daten hat sich heute zum Kernproblem von Banken entwickelt. Die Datenkonsolidierung ist daher gegenwärtig die größte Herausforderung, die es zu lösen gilt. Da dies in besonderem Maße auch für Risikokennzahlen zutrifft, haben in der Zwischenzeit auch Regulatoren dieses Thema verstärkt in Visier genommen. Unter dem Titel BCBS 239 werden nun sehr konkret Forderungen hinsichtlich Datenqualität, IT-Architektur sowie Data-Governance-Aspekten formuliert. Zudem hat man zeitliche Vorgaben präzisiert, bis wann welche Informationen zu liefern sind und die Möglichkeit der ad-hoc-Abfrage beziehungsweise des ad-hoc-Reports wird nun ebenfalls verpflichtend.
Darum sind Investitionen in die IT dringend nötig
Als wäre dies nicht schon genug, wird die konzernweite, konsolidierte Datenaggregation gefordert. Auch die deutsche Steuerverwaltung denkt durchaus in die gleiche Richtung, die neuen "Grundsätze zur ordnungsmäßigen Führung und Aufbewahrung von Büchern, Aufzeichnungen und Unterlagen in elektronischer Form sowie zum Datenzugriff" (GoBD) sind seit 01.01.2015 gültig. Dies erfordert eine grundlegende Flexibilisierung von Reporting-Infrastrukturen.
Die Notwendigkeit der Datenkonsolidierung zieht erhebliche Investitionen im IT-Bereich nach sich. Die dabei entstehenden Kosten sind immens und können durchaus im dreistelligen Millionenbereich pro Institut liegen. Es bleibt nur zu hoffen, dass bei aller Optimierung von Systemen der eigentliche Kern, also die Daten und deren Life Cycle, nicht vergessen wird. Der Grund: Daten "leben" im Durchschnitt etwa dreimal länger als Applikationen. Das bedeutet, dass Daten durchschnittlich auch dreimal auf andere Systeme umziehen.
Qualitätsaspekte spielen dabei eine entscheidende Rolle, denn die Praxis zeigt, dass 50 bis 70 Prozent aller IT-Projekte durch schlechte Daten ausgelöst werden. Die Prozesse, wie mit Daten umgegangen wird, müssen sich also erheblich verbessern - vom Anfang bis zum Ende ihres Lebenszyklus. Dass sich dies auch positiv auf die Betriebskosten auswirkt liegt auf der Hand, machen diese in der Regel etwa 70 Prozent des gesamten IT-Budgets aus.
So werden Banken fit für das Zeitalter der Digitalisierung
Von einer hohen Datenqualität profitieren letztlich alle Bereiche einer Bank. Es gibt jedoch noch einen weiteren Aspekt, der in diesem Zusammenhang eine Rolle spielt. Finanzhäuser, die Datenqualität, Stammdaten und Prozesse im Griff haben - und BCBS 239 bietet hierzu nun sogar einen verpflichtenden Anlass - können der Digitalisierung der Wirtschaft und der Konkurrenz von so genannten "FinTechs" weit gelassener entgegensehen. Insofern können Entscheider dem Regulator durchaus dankbar sein, denn er unterstützt indirekt deren Konkurrenzfähigkeit. (bw/fm)