Bis 2020 soll die Datenmenge weltweit auf rund 40 Zettabyte steigen. Dann wird es 57 Mal mehr Daten als Sandkörner auf den Stränden der Erde geben. Fluch oder Segen? Mit der zunehmenden Digitalisierung, insbesondere der fortschreitenden Vernetzung von Maschinen, haben Unternehmen jedenfalls Zugriff auf eine Flut neuer Daten. Dazu kommen Daten aus öffentlichen Quellen, mit denen sie ihre eigenen Informationen anreichern können. Diese Masse an Daten sollten Unternehmen über gezielte Analysen für sich nutzbar machen, zum Beispiel durch das Identifizieren verborgener Muster oder das Offenlegen von völlig neuen Korrelationen.
Was brauchen Unternehmen dafür? Zu empfehlen ist der Aufbau eines Data-Intelligence-Centers: Ein solches Center bündelt Methoden, Tools und Prozesse rund um die Datenanalyse, sorgt so in Zusammenarbeit mit den Fachbereichen für mehr Umsatz und identifiziert Kosteneinsparpotenziale.
Wie? Indem es wichtige unternehmerische Fragen beantwortet und bessere sowie genauere Analyse macht. Zum Beispiel, indem es Daten aus allen Unternehmensbereichen mischt. Indem es interne mit externen Daten anreichert. Und schließlich indem es Analyseergebnisse in konkrete Handlungen umsetzt.
Worauf sollten Unternehmen nun achten, wenn sie ihre Datenanalysekompetenzen in einem speziellen Team bündeln wollen, wo liegen die Fallstricke und wie lässt sich der gesamte Datenschatz heben? Hier einige "Lessons learned", die es zu beachten gilt:
Das könnte Sie auch interessieren:
Sieben Erfolgsfaktoren zur Digitalisierung
So schaffen Unternehmen den Turnaround in der Digitalisierung
Die Cloud wird zum Motor der Digitalisierung
Was sollte ein Data Intelligence Center abdecken?
Die Aufgaben sind vielfältig, die Kompetenzen herausfordernd. Ein Data Intelligence Center sollte daher folgende Bereiche abdecken:
Auswahl und Bereitstellen von Big Data Tools und Technologien
Visualisierung der Ergebnisse und Deskriptive Statistik
Predictive und Prescriptive Analytics
Modellierung und Simulation
Data Mining
Aufbau und Bereitstellung der Dateninfrastruktur, einer Cloud und der Enterprise Architecture
Entwicklung von speziellen Applikationen und Plug-Ins
Wie strukturiere ich ein Data Intelligence Center?
Ein Data Intelligence Center beschäftigt sich im Kern mit drei Kompetenzfeldern:
Erstens muss es eine Datenarchitektur für das Datenmanagement aufbauen. Dazu muss die passende IT-Infrastruktur mit Hard- und Software installiert sein. Das Datenmanagement verdichtet die Daten, entscheidet, ob es Anwendungen aus der Cloud braucht oder in der Lage sein muss, Daten in Echtzeit zu verarbeiten.
Zweitens stellt ein Data Intelligence Center Datenanalytiker bereit. Sie bringen die mathematisch- statistische Methodenkompetenz ins Team. Dazu gehören unter anderem Zeitreihenanalysen für prädiktive Analysen.
Drittens sollte ein Data Intelligence Center über Industrie- und Prozess-Know-how verfügen, also typische Abläufe im Unternehmen oder zumindest der Branche kennen. Eine reine Fokussierung auf Hard- und Software sowie theoretische Analytiker sowie das Briefen über Fachbereiche greift zu kurz.
Das richtige Team
Von allem mindestens ein Paar: also zwei Analytiker, zwei Datenmanager, zwei Businessanalysten. Warum? Im Tandem arbeiten sie produktiver. Sie können sich austauschen, ausprobieren, neue Wege gehen und ihre individuellen Kompetenzen einbringen. Hier gilt also das klare Prinzip: Eins und eins macht drei.
Das Problem: Es gibt kaum gute Leute auf dem Markt - egal wie sie heißen. Ob Business Big Data Analyst, Data Warehouse Analyst oder Data Scientist: Die Unternehmen suchen verzweifelt nach erfahrenen Analysten. Allein über Stepstone suchten Ende August 2017 mehr als 3.400 Unternehmen Data Warehouse Analytiker.
Die Alternative: selbst ausbilden und dafür guten Nachwuchs direkt von der Uni holen. Hier aber nicht nach einem Data Scientist suchen, denn dieses Berufsbild ist neu und in vielen Unis gibt es noch keinen passenden Studiengang. Stattdessen ist es besser, nach einem R-Entwickler zu suchen. R ist eine freie Programmiersprache für statistische Berechnungen und Grafiken. Und das Wichtigste: R ist Hype an den Unis.
An einem erfahrenen Datenanalysten kommt trotzdem kein Unternehmen vorbei. Es muss im Team wenigstens einen erfahrenen Data Scientist geben, der Algorithmen schreiben kann, und echtes praxisnahes Analytics-Know-how mitbringt. Dafür kann man dann aber auch etwas mehr Geld in die Hand nehmen.
Ohne Fachbereiche geht es nicht
Die Spezialisten im Data Intelligence Center haben in der Regel kein Fachbereichs-Know-how, sind also keine Produktions-, Finanz- oder Logistikexperten. Diese Kompetenz muss aus den Fachbereichen kommen. Hier besteht allerdings häufig ein Zeitproblem: die mangelnde Verfügbarkeit. Nur nebenbei ist zu wenig.
Daher sollten die Fachbereiche Mitarbeiter definieren, die eine festgelegten Anteil ihrer Arbeitszeit explizit für das Data Intelligence Center zur Verfügung stehen. Eine andere Möglichkeit ist es, Datenanalysten in die Fachbereiche zu setzen. Hier stellt sich jedoch meist die Frage: Woher nehmen und nicht stehlen?
Zwei Denkwelten zusammenbringen
IT-Experten und Mitarbeiter in den Fachbereichen trennt neben Zeit noch ein weiteres Problem: Sie denken und handeln grundverschieden. Linienorganisationen arbeiten weniger agil und haben meist kein Projektmanagement im eigentlichen Sinne.
Entwicklerteams dagegen arbeiten heute meist agil, zum Beispiel auf Basis der Scrum-Methodik. Der Data Scientist wiederum funktioniert in keine der beiden Richtungen. Er kennt weder Projektmanagement noch Scrum, sondern setzt in der Regel auf das branchenübergreifende Prozess-Modell Cross Industry Standard Procedure for Data Mining (CRISP DM).
Dieses Modell besteht aus sechs Phasen: Erst Business verstehen, dann Daten verstehen, anschließend Daten aufbereiten, Modell bauen, evaluieren und schließlich das analytische Modell bereitstellen. Während die CRISP DM-Methodik und Scrum der Datenanalysten und Entwickler noch gut harmonisieren, ist es deutlich schwieriger die Fachbereiche methodisch einzubetten. Wer das allerdings nicht schafft, könnte den Projektaufwand extrem erhöhen und schlimmstenfalls scheitern.
Fachbereiche aufschlauen und Selfservice-Analytics ermöglichen
Verzeichnen die Unternehmen erste Erfolge mit ihrem Data Intelligence Center, öffnet sich oftmals eine Schleuse. Dann entwickeln sich die Datenanalysten schnell zu Flaschenhälsen, da alle Fachbereiche sie dann in Beschlag nehmen.
Daher ein Tipp: Versuche nicht der einzige Bereich zu sein, der Analytics macht. Versuche die Kenntnisse in die Fachbereiche zu tragen, so dass diese bis zu einem gewissen Maß selbst Analysen aufsetzen können. Solche Analysen können auch Nicht-Entwickler über Dashboards zusammenstellen und visualisieren.
Such dir einen Sponsor
Aller Anfang ist schwer. Daher braucht ein Data Intelligence Center für den Start einen internen Sponsor, also einen Fachbereich, der auf die Unterstützung eines Datenanalysten brennt.
Dies sind dann die internen Auftraggeber, die erfolgreiche Projekte gern positiv nach innen verkaufen, da sie in der Regel von den Ergebnissen der Analysen profitieren. An diesem Erfolg wollen dann alle teilhaben. Schnell wird so deutlich, dass Datenanalytik eine unternehmensweite Aufgabe ist.
Fokussieren und Priorisieren
Alles auf einmal geht nicht. Stellt sich Euphorie ein, sollte ein Data Intelligence Center nicht den Fehler begehen, zu viele Projekte auf einen Schlag zu beginnen. Stattdessen gilt es zu fokussieren und zu priorisieren. Denn weniger kann mehr sein.
Lieber sich die Projekte rauspicken, die die schnellsten und größten Erfolge versprechen. Dazu können die Datenanalysten gemeinsam mit der Geschäftsführung klare Ziele definieren und basierend auf diesen Zielen Schritt für Schritt in die Umsetzung gehen.
Use Cases identifizieren und evaluieren
Uses Cases helfen, die richtigen Projekte zu identifizieren. Es gibt inzwischen eine Vielzahl von branchentypischen Use Cases. Sie helfen Unternehmen, sich zu orientieren.
Der Wertbeitrag dieser Use Cases lässt sich auf einer 9-Felder-Matrix abbilden, wobei die y-Achse zeigt, was ein Use Case konkret bringt und die x-Achse die Machbarkeit abbildet. Von schwierigen Projekten mit geringem Wertbeitrag sollten Data Intelligence Center zunächst die Finger lassen.
Erfolg messen und darstellen
Sind die Use Cases evaluiert, wird abgewogen, wo sich die Nutzen- / Aufwandverhältnisse am besten darstellen. Wichtig ist hier die konkrete Definition von Schwellwerten für Resultate, die übertroffen werden sollen.
Vielfach werden Use Cases nicht umgesetzt, weil nicht klar ist, ob diejenigen Ergebnisse, die erzielt wurden, nun wirtschaftlichen Erfolg begründen oder nicht. Ein solcher Proof-of-Concept sollte zudem auch nicht zu eng gefasst sein und nur einen Teilprozess beleuchten, sondern auch weitere Kriterien wie Fachlichkeit und Domain-Know-How umfassen. (hal)