Foto: Barc
Mangelhafte Datenqualität kann Unternehmen vielfältigen Ärger bereiten - beispielsweise wenn durch hohe Rückläuferquoten Mailing-Aktionen versanden oder kostspielig ein zweites Mal vorgenommen werden müssen. Wenn Kunden Werbematerialien mehrmals oder Rechnungen gar nicht erhalten. Wenn es Beschwerden hagelt, weil die Mitarbeiter im Support zu lange brauchen, um die nötigen Daten zu finden, oder Forecast-Analysen des Vertriebs ins Leere gehen, weil potenzielle Interessenten doppelt verbucht wurden. Ernst wird es, wenn solche Fehler hohe Kosten nach sich ziehen, beispielsweise beim unbeabsichtigten Verstoß gegen Compliance-Vorschriften. Diese Aufzählung ließe sich beliebig weiterführen - und den meisten Unternehmen sind solche Fehler wohlbekannt. Gemeinsam ist ihnen, dass postalische Daten nicht korrekt sind, Dubletten vorliegen oder Business-Regeln nicht eingehalten werden. Gemeinsam ist ihnen auch die Ursache: mangelhafte Datenqualität.
Ursachenforschung
Eine erste Abhilfe schaffen diverse am Softwaremarkt verfügbare Datenqualitäts-Lösungen. Das reicht oft allerdings nicht aus. Der Blick auf die Daten muss tiefer gehen. Sonst kehren die Symptome inklusive der damit verbundenen Kosten immer wieder. Für die betroffenen Unternehmen gilt es deshalb, die Ursache der Mängel aufzuspüren und zu beseitigen. Anbieter und Kunden von Datenqualitätslösungen sollten sich daher über die jeweiligen Anforderungen, die an die Unternehmensstammdaten gestellt werden, im Klaren sein:
-
Was müssen die Datensätze beinhalten?
-
In welcher Form sollen sie dargestellt werden?
-
Welche Business-Regeln müssen eingehalten werden?
-
Was wird systemseitig gefordert?
-
Gelten in allen Unternehmensbereichen die gleichen Anforderungen, oder benötigen der Vertrieb und der Support unterschiedliche Inhalte und Formate?
Oft stellen die Verantwortlichen fest, dass sich die Datenansprüche in den verschiedenen Firmenbereichen unterscheiden. Die Anforderungen wechseln also mit dem Datennutzer. Man spricht vom "different view of data" im Gegensatz zum "single view of customer", der nur die Daten und nicht deren Verwendung im Blick hat. Das bedeutet allerdings auch, dass man per se nicht von guter oder schlechter Datenqualität sprechen kann - entscheidend ist, ob die Datenqualität den jeweiligen Anforderungen der Nutzer gerecht wird. Die Rolle des Nutzers definiert, welche Daten in welcher Form benötigt werden - er steht im Mittelpunkt.
Für die Implementierung von Datenqualitätslösungen heißt das, dass der erste Schritt eine präzise Untersuchung und Darstellung des Status quo der vorhandenen Daten und der an sie gestellten Anforderungen sein sollte.
Schritt 1: Überblick verschaffen
Ein Datenqualitäts-Check ermöglicht einen ersten schnellen Überblick über die Stammdaten in einem Unternehmen. Dabei wird ein repräsentativer Ausschnitt der Daten primär unter Qualitäts-Dimensionen wie Vollständigkeit, Fehlerfreiheit und Eindeutigkeit untersucht. Besonderen Wert sollten Unternehmen dabei auf die Namens- und die Adresselemente legen: Sind die Namen vollständig erfasst ("Pflichtfelder")? Sind die Adressen postalisch korrekt? Liegen Dubletten vor, und wenn ja, sind sie gewollt und entsprechend gekennzeichnet, oder handelt es sich um Fehler?
Die Ergebnisse des Qualitäts-Checks werden im Anschluss in Form von Statistiken aufbereitet und mit aussagekräftigen Beispielen ergänzt. Das hilft den Verantwortlichen, einen ersten Eindruck vom tatsächlichen Zustand ihrer Daten aus der "Single-view-of-customer"-Perspektive zu erhalten. Der festgestellte Verschmutzungsgrad ist ein Indikator für die Notwendigkeit einer Datenbereinigung und legt das weitere Vorgehen fest.
Schritt 2: Datenvalidität prüfen
Der erste Überblick hilft zu erkennen, wo der größte Handlungsbedarf besteht. Der nächste Schritt sollte eine fundierte Analyse der Gesamtheit der Stammdaten sein: Das reicht von den Datensätzen bis hin zu spezifischen Datenfeldern wie beispielsweise Telefonnummern, Kundenumsatz oder weiteren anhängenden Daten. Auch die Business-Regeln dürfen die Verantwortlichen an dieser Stelle nicht aus den Augen verlieren - sind sie noch aktuell und relevant beziehungsweise werden sie korrekt umgesetzt?
Bevor die Firmen tiefer in die Datenstrukturen eintauchen, sollten Analyseanbieter, Unternehmensführung und die Leiter der Fachabteilungen in einem einleitenden Workshop den Rahmen und die Ziele der Analyse festlegen. Mögliche Diskussionsthemen sind die Datenstruktur, deren Sinngehalt, Konsistenz, Eindeutigkeit, Klarheit und Korrektheit sowie die Business-Regeln, die auf die Daten Einfluss nehmen. Sind die Kriterien und Ziele der Untersuchung festgelegt, kann die technische Analyse erfolgen. Möglichst unternehmensweit wird die Belastbarkeit des Datenmaterials überprüft. Daran sollte sich ein weiterer Workshop anschließen, in dem die Analyseergebnisse und erste Vorschläge zur Verbesserung der Datenqualität vorgestellt werden. Außerdem lassen sich nun präzisere und applikationsspezifischere Anforderungen an die Daten definieren.
Schritt 3: Prozesse analysieren
Für eine umfassende und zielführende Analyse, gerade bei einer sehr heterogenen IT-Landschaft, kann es sinnvoll sein, noch eine Stufe tiefer in die Datensätze und Systeme einzudringen. Ziel einer solchen Analyse ist es, die Entstehungsbedingungen und -prozesse von Daten aufzuzeigen, um eventuelle Schwachstellen, die zu einer Verschlechterung der Datenqualität führen, erkennen zu können. Das ist besonders mit Blick auf Maßnahmen, die die Datenqualität langfrisig verbessern sollen, sinnvoll. An dieser Stelle rücken dann auch die einzelnen Datennutzer und ihre Bedürfnisse, die "different views of data", in den Mittelpunkt. Es gilt Fragen zur Datenqualität wie Verständlichkeit, Übersichtlichkeit und Zugänglichkeit zu untersuchen, aber auch die Einschätzung der Fachabteilungen und einzelner Datennutzer zur Glaubwürdigkeit und Belastbarkeit ihrer Daten zu dokumentieren. Anbieter von Datenqualitätslösungen sollten über ihre Consultants eng mit den Kunden zusammenarbeiten, um gemeinsam die involvierten Systeme und Prozesse besser erkennen und beschreiben zu können. Dieser Ist-Zustand lässt sich dann mit den vorher ausgearbeiteten idealen Anforderungen an die Datenqualität abgleichen.
Es empfiehlt sich, den Nutzern bei der Arbeit - Dateneingabe, -pflege und -nutzung - über die Schulter zu schauen. Im konkreten Anwendungsfall lassen sich Optimierungspotenziale am effizientesten identifizieren. Hier lässt sich auch feststellen, ob die Daten inhaltlich und formal so präsentiert werden, dass die täglichen Aufgaben effektiv erledigt werden können.
Brauchbare Daten auch in Zukunft
Nach einer umfassenden Analyse lassen sich nicht nur Aussagen zum allgemeinen Zustand der Datenqualität machen. Auch die individuellen Anforderungen der Fachabteilungen und die prozessualen Schwachstellen sind nun bekannt. Jetzt können die Unternehmen bewerten, ob ihre Daten "fit for use" sind. Auf dieser Basis lassen sich langfristig Strategien entwickeln, um die Datenqualität dauerhaft zu sichern. Eine weitere Symptombehandlung mit Ad-hoc-Lösungen ist dann nicht mehr nötig. Das spart Kosten für aufwendige Nachbearbeitungen von Daten. Außerdem können Unternehmen Implementierungskosten für Datenqualitätslösungen senken, da Umfang und Aufwand der Implementierung besser abgeschätzt werden können. So wird auch die Rentabilität schneller erreicht. Als Nebeneffekt lassen sich zudem die Effektivität von Arbeitsprozessen besser beurteilen und an der einen oder anderen Stelle mögliche Einsparpotenziale aufdecken. (ba)
Das könnte Sie auch interessieren:
COMPUTERWOCHE Marktstudie
Datenqualität (149,90 €)
Was tun für eine bessere Datenqualität? Wir haben unsere Leser aus dem IT-Management gefragt, ob und mit welchem Erfolg sie für einen sauberen Datenbestand sorgen.