BCBS 239 verlangt hohe Datenqualität

4 Punkte, die Banken jetzt beachten müssen

20.01.2016 von Holger Stelz
Die Finanzkrise hat Defizite in der IT- und Datenarchitektur vieler Banken aufgedeckt. Daraus resultierten schwerwiegende Folgen für die Banken selbst und für die Stabilität des gesamten Finanzsystems. Der Basler Ausschuss für Bankenaufsicht veröffentlichte daraufhin regulatorische Anforderungen an die IT-Architektur und das Datenmanagement in Kreditinstituten. Ab Januar 2016 wird ihre Umsetzung zur Pflicht.

Die sogenannten "Grundsätze für die effektive Aggregation von Risikodaten und die Risikoberichterstattung" (BCBS239) veröffentlichte der Basler Ausschuss bereits im Januar 2013. Die Regeln umfassen konkrete regulatorische Anforderungen an die IT-Architektur und das Datenmanagement in Kreditinstituten, insbesondere bezüglich: IT-Organisation, Datenhaltung, Datenqualitätssicherung und Risiko-Reporting.

Ab Januar 2016 ist die Umsetzung von BCBS239 für Banken verpflichtend.
Foto: Vladru_shutterstock


Die Umsetzung der Regeln ist für global systemrelevante Banken ab Januar 2016 verpflichtend. Auch für national systemrelevante Banken ist eine Umsetzung ab Januar 2016 gefordert. Auf was Banken beim Aspekt der Datenqualitätssicherung jetzt achten müssen, habe ich nachstehend in 4 Punkten zusammengestellt.

1. Status Quo: Datenqualität prüfen

Laut BCBS 239 müssen Institute künftig in der Lage sein, über alle Bereiche ihres Unternehmens hinweg einheitliche Risikoberichte gewissermaßen auf Knopfdruck zu erstellen. Deshalb ist eine hohe Datenqualität zentraler Aspekt von BCBS 239. Unternehmensdaten, wie etwa Stammdaten von natürlichen Personen, juristischen Personen oder öffentlichen Haushalten, müssen daher hohe Ansprüchen an Beschaffenheit, Aktualität und Qualität erfüllen.

Um zu bewerten, wie es überhaupt um die eigene Datenqualität bestellt ist, kann eine Analysesoftware zum Einsatz kommen. Diese sucht automatisiert nach Lücken, Fehlern und Zusammenhängen innerhalb eines Datenbestands, trägt diese zusammen und liefert damit die Grundlage für das Analyseergebnis. Das mehrfache Auftauchen von etwa Kunden und Geschäftspartnern (Dubletten) in datenführenden Systemen liefert bereits einen ersten Anhaltspunkt. Durch eine Reihe verschiedener softwaregestützter Datenqualität-Tests, etwa Dublettenprüfung, postalische Validierung, Namensvalidierung und Syntaxprüfungen, können Banken einen sogenannten Datenqualitätsfaktor bestimmen, der dazu dient in Zukunft einen Vergleichswert für die Datenqualität zu haben.

2. Silos aufbrechen und Daten bereinigen

Herrscht nun Klarheit darüber, wie es um die Datenqualität bestellt ist, geht es an die eigentliche Bereinigung. Dies ist besonders wichtig, wenn viele verschiedene Datenquellen im gesamten Unternehmen analysiert werden oder eine komplexe Datenmigration und -integration durchgeführt werden soll.

Neun Handlungsempfehlungen für das Datenmanagement
Managementunterstützung und Kulturwandel
Managementunterstützung und Kulturwandel sind wesentliche Merkmale datengetriebener Unternehmen. Die IT kann und ist nicht der Treiber, wohl aber möglicher Initiator und Wegbereiter für Business Analytics im Unternehmen.
Kultur ändern, Strukturen aufbrechen
Die Notwendigkeit zur strategischen Verankerung und Schaffung der Voraussetzungen zum Arbeiten mit Daten müssen dem Management bewusst werden. Fordern und fördern Sie entsprechende Aktionen zur Schaffung von Ressourcen, Änderung der Kultur sowie zum Aufweichen von Strukturen und Prozessen.
Roadmap entwickeln
Entwickeln Sie Ihre Roadmap unter Berücksichtigung der analytischen Anforderungen und bringen Sie diese zur Diskussion! Gehen Sie dabei wertorientiert vor, beginnend mit einfach umzusetzenden Use Cases (low hanging fruit).
Altlasten beseitigen
Nutzen Sie die analytischen Herausforderungen, um Altlasten zu beseitigen. Auf dem Weg hin zu einem flexiblen Framework für Daten und Analytik evaluieren Sie unter Berücksichtigung alternativer Architekturvarianten und Technologien neue Lösungsansätze.
Self-Service-BI integrieren
Integrieren Sie Self-Service-BI in Ihre Strategie und nutzen Sie dessen Vorteile, um clever und einfach schnelle Erfolge erzielen und Hemmnisse abbauen zu können! Machen Sie sich bewusst, in welchem Umfang und zu welchem Zweck Sie Self-Service-BI im Unternehmen nutzen wollen und berücksichtigen Sie dies entsprechend!
Mit Predictive Analytics loslegen
Ermöglichen Sie erste Predictive-Analytics-Projekte und zeigen Sie deren Mehrwert auf! Dienstleister bieten einen Einstieg und vermitteln Wissen während dem Aufbau erster Applikationen! Denken Sie über den Wert Ihrer Daten nach und beginnen Sie, zeitnah Daten für derartige Auswertungen zu sammeln! Hierfür bietet sich unter Umständen Hadoop an.
Cloud für Big Data
Nutzen Sie Cloud-Angebote, um erste Schritte in Richtung „Big Data“ zu machen und lernen Sie mit dem Projektfortschritt! Der Aufbau umfangreichen Wissens und einer On-premise Lösung kostet viel Zeit und Geld, die unter Umständen nicht vorhanden sind.
Heterogene Daten bändigen
Die Integration heterogener Daten ist laut Studienergebnisse der Hauptkritikpunkt am Datenmanagement. Dies bestätigt auch unsere Projekterfahrung. Testen Sie, ob Sie die gewünschte Datenverfügbarkeit herstellen können, ohne gleich komplexe Integrationsszenarien in einem DWH zu nutzen!
Fachbereiche einbinden
Seien Sie offen für alternative Möglichkeiten, wie die Verlagerung von Datenmanagementaufgaben in die Fachbereiche, dem Zugriff auf Quellsysteme oder einem Datenpool, wie dem Data Lake, der Daten nahe ihrem Rohdatenformat für Analysen vorhält!

Um im ersten Schritt gesäuberte Datenquellen für den Upload auf neue oder bestehende IT, etwa SAP-Systeme, vorzubereiten, müssen Fehler, Anomalien und Inkonsistenzen aufgespürt werden. Zu Beginn werden die Stammdaten bereits während ihrer Erfassung mittels Datenqualitätsservices geprüft. Fehlerhafte Daten, die nicht automatisch bereinigt werden können, werden in einer Zwischendatenbank gespeichert und ein Bericht oder Alert an die Eingabestelle geschickt, so dass diese eine Korrektur vornehmen kann. Mit diesem Kreislauf werden Stammdaten kontinuierlich während der Erfassung und Bearbeitung überprüft. Werden über diese Prozesse regelmäßig Berichte verfasst, kann die Leistung dieses geschlossenen Regelkreises für das Datenqualitätsmanagement gemessen und der Prozess kontinuierlich verbessert werden. Das Ergebnis ist eine nahezu konstante Datenqualität auf hohem Niveau.

3. Einzige wahre Datenquelle schaffen

Daten nur einmal zu bereinigen, um BSBC 239 zu erfüllen, wäre zu kurz gegriffen. Um fragmentierte Daten und Datensilos zu vermeiden, müssen sich Banken dem ganzheitlichen Datenmanagement annehmen. Dieses beginnt bei dem sogenannten "Golden Record". Er ist der einzig gültige, "allwissende" Datensatz, der alle relevanten Informationen zu den Stammdaten beinhaltet und zentriert abbildet - und auf den sich alle anderen operativen IT-Systeme beziehen.

Der Golden Record umfasst zuverlässige, korrekte, qualitätsgesicherte und verfügbare Stammdaten. Er ist quasi ein zentrales Register, in dem beispielsweise alle Kundenstammdaten über alle Kanäle, Organisationsbereiche und Applikationen hinweg gespeichert und kombiniert werden. Der Golden Record wird in einem zentralen Datenspeicher verwaltet. Der übergeordnete Datensatz enthält Links zu allen Stammdatensätzen aus verschiedenen Datenquellen, in denen Attribute aus dem Golden Record verwendet werden.

So kann sichergestellt werden, dass in einer beliebigen Datenquelle vorgenommene Änderungen von Attributen in allen anderen verbundenen Quellen ebenfalls berücksichtigt werden. Die Daten bleiben so konsistent und brauchen weder physikalisch bewegt noch redundant gespeichert werden. Das Ergebnis ist eine Synchronisierung der Datensilos im Unternehmen. Fragmentierte Daten gehören der Vergangenheit an.

4. Ganzheitliches Datenmanagement für Risikomanagementprozesse

Ist der Golden Record einmal angelegt, kann auf seiner Basis eine konzernweite ID für beispielsweise Geschäftspartner oder Kundendaten generiert werden. Diese Kunden-ID können Banken wiederum in ihren weiteren Risikomanagementprozessen zur Gesamtbewertung von Risiken nutzen. Damit stellt der Golden Record die einzig wahre und vor allem validierte Datenquelle dar, auf die sich Risikodaten beziehen.

Deloitte Datenland Deutschland "Talent meets Technology"
Datenland Deutschland
In der Studie „Datenland Deutschland – Talent meets Technology“ hat Deloitte 291 Unternehmen daraufhin untersucht, wie sie Data Analytics personell und organisatorisch angehen.
Wert von Datenanalysen
Nur gut drei von zehn Befragten unterschreiben, dass die Nutzung von Data Analytics Unternehmen einen klaren Wettbewerbsvorteil verschafft.
Einbindung von Datenanalysten
Bei der organisatorischen Verankerung der Datenanalysten im Haus gehen Wunsch und Wirklichkeit teils weit auseinander.
Handlungsbedarf
Die Befragten schreiben sich auf die Fahnen, Data Analytics organisatorisch besser einzubinden und stärker in diesen Bereich zu investieren.
Investitionen in die Mitarbeiter
Unternehmen wollen in die Weiterbildung von Mitarbeitern zu Datenanalysten (27 Prozent) und das Recruiting von Datenanalysten (26 Prozent) investieren.
Wunschkandidaten
Wer Datenspezialisten einstellen will, sucht selten einen promovierten Naturwissenschaftler.
Kenntnisse
Kenntnisse in Analyse und Statistik sowie ein gutes Verständnis für das Geschäftsmodell sind bei Datenanalysten stärker gefragt als IT-Kenntnisse.

Um Datensilos auch zukünftig zu vermeiden, müssen sich Unternehmen dem ganzheitlichen Stammdatenmanagement annehmen, etwa damit neue Daten immer korrekt eingegeben werden. Geeignete IT-Lösungen erlauben es zudem, Daten von Geschäftspartnern oder Kunden, die etwa neu in ein System eingegeben werden, auch direkt mit dem vorhandenen Adressdatenbestand abzugleichen. Dies vermeidet die doppelte Erfassung von Daten und schafft eine optimale Datenbasis.

Fazit

Auf den ersten Blick mag sich hinter BCBS 239 zwar ein erheblicher Aufwand verbergen, tatsächlich bietet die Richtlinie Banken große Chancen. Denn sie beabsichtigt, verbesserte Datenaggregation, Risikomanagement und Berichtswesen zu schaffen. Auf lange Sicht können Banken auf dieser Grundlage die finanziellen Folgen von Krisensituationen deutlich schneller und besser erfassen als bisher. (bw)