Process Mining

Das Ziel ist kontinuierliche Prozesskontrolle

14.11.2023 von Heinrich Vaske
Wil van der Aalst, Chief Scientist von Celonis und Professor an der RWTH Aachen, beschreibt Process Mining als Werkzeug, das ständig benutzt werden sollte, um kritische Prozesse zu überwachen.
  • Es ist wie mit Excel: Die Anwender entscheiden, wie sie Process-Mining-Tools nutzen wollen
  • Echte Effekte entstehen, wenn nicht nur Standard- sondern auch Kernprozesse überwacht werden
  • Wil van der Aalst rät zu einem Center of Excellence, um alle wichtigen Prozesse unter Kontrolle zu bringen
Er gilt als der unumstrittene Experte für Process-Mining: Wil van der Aalst, Inhaber des Lehrstuhls für Process and Data Science an der RWTH Aachen und Chief-Scientist von Celonis.
Foto: Celonis

Erfahrungsberichte zum Thema Processing Mining deuten darauf hin, dass manche Unternehmen zu hohe Erwartungen daran knüpfen und sich Ziele setzen, die kaum erreichbar sind. Können Sie das bestätigen?

Van der Aalst: Letztendlich hat das jedes Unternehmen selbst in der Hand, wobei die Erfahrungen und Ergebnisse unserer Kunden positiv sind. Bei unseren Process-Mining-Tools handelt es sich um eine generische Software, es kommt also stark darauf an, wie die Anwender sie nutzen. Das ist vergleichbar mit Excel: Damit kann man unheimlich viel machen, aber erstmal ist es nur ein Tool. Die Benutzer müssen es mit Leben füllen - was unsere Kunden auch tun.

Welche Ziele verfolgen Celonis-Kunden mit Process Mining?

Van der Aalst: Sie möchten die Performance ihrer End-to-End-Prozesse und auch die Compliance verbessern. In diesem Zusammenhang bedeutet Compliance: Sie wollen prüfen, ob die Dinge optimal laufen. Beispielsweise wollen sie Maverick-Buying verhindern, also Einkäufe, die nicht von einem Genehmigungsprozess abgedeckt sind.

Performance bedeutet, man möchte überflüssige Arbeiten und Verzögerungen eliminieren oder etwa herausfinden, wo Kunden in der Buying Journey abspringen und vieles mehr. In den meisten Betrieben gewinnt man zuerst meistens den Eindruck, dass die Prozesse ganz ordentlich durchlaufen. Wenn man aber genauer hinsieht, zeigt sich aber, dass etliche Aufgaben viel effizienter erledigt werden könnten.

Der Order-to-Cash-Prozess ist meist schnell optimiert...

Sie sagen, Process-Mining-Tools seien generisch. Was bedeutet das für die Einführung? Brauchen Unternehmen dafür ein Center of Excellence?

Van der Aalst: In größeren Unternehmen ist das sinnvoll. Zumindest wäre es schade, wenn Process Mining nur für einige wenige Prozesse genutzt würde. Unsere erfolgreichsten Kunden wenden unsere Plattform für 50 oder mehr Prozesse an. Wir versuchen natürlich, es einfach zu gestalten. Deshalb sind wir bei Standardprozessen wie Purchase to Pay (vom Einkauf bis zur Bezahlung, Anm. d. Red.) oder Order to Cash (Auftrag bis Auszahlung) schnell am Start, hier lassen sich sofort Erfolge erzielen. Die Daten sind oft schon im ERP-System vorhanden. Wenn man aber einen Prozess hat, der einzigartig ist, dann wächst der Aufwand - aber eben auch der potenzielle Erfolg.

Können Sie ein Beispiel nennen?

Van der Aalst: Bei der Lufthansa wird Process Mining genutzt, um Verzögerungen im Flugverkehr zu analysieren und zu verhindern. Wenn ein Flugzeug irgendwo landet, läuft ja immer derselbe Prozess an: Er umfasst Tanken, Gepäck, Boarding und vieles mehr. Da gibt es ungefähr 80 einzigartige Ereignisse oder auch Aktivitäten. Wenn sich nun ein Flugzeug verzögert, kann die Airline das automatisiert analysieren und eingreifen, wenn sich etwas zusammenbraut. Das Process Mining bei der Lufthansa ist individuell konfiguriert worden, dem liegt kein Standardprozess zugrunde.

Die Basis sind Logdaten, und die gibt es auch für komplexe Prozesse

Celonis-Produkte sind auf die Logdaten aus den vom Kunden eingesetzten Applikationen angewiesen, um übergreifende Prozesse analysieren zu können. Wie bekommen sie für komplexe, viele Anwendungen umfassende Prozesse diese Ereignisdaten zusammen?

Van der Aalst: Ich habe das Beispiel der Lufthansa deswegen gebracht, weil wohl die wenigsten Leute erwarten würden, dass sich solch komplexe Prozesse vollständig anhand von Event-Logs nachvollziehen lassen. Das ist aber der Fall. Es gibt dort sehr viele Anwendungen, in der Produktion etwa oder in den Lieferketten. Man muss die anfallenden Ereignisdaten nur finden, verstehen und extrahieren.

Dafür brauchen die Betriebe vor allem Domain-Know-how. Die meisten Firmen benutzen 200 und mehr Softwaresysteme, wobei die End-to-End-Prozesse oft von einer ganzen Reihe dieser Systeme unterstützt werden. Deshalb bedeutet Process Mining, einen Layer über alle existierenden Systeme zu legen. Für Standardsysteme ist das, wie gesagt, relativ einfach. In anderen Bereichen ist der Aufwand größer.

Wenn man die Anwendungen kennt, heißt das noch nicht, dass man auch an die Ereignisdaten herankommt…

Van der Aalst: Nehmen wir das Beispiel der ERP-Systeme, in denen für die bekannten Prozesse klar ist, welche Tabellen involviert sind. Bei anderen Anwendungen, etwa bei der Lufthansa, weiß man auch genau, welche Systeme an den Gates oder in der Gepäckabfertigung genutzt werden. Oft ist das Software, die spezifisch ist, für einen Flughafen zum Beispiel. Die Leute, die diese Software gebaut haben, wissen, welche Daten es gibt und wo sie liegen.

Fast jeder Eintrag, den man in einem Informationssystem sieht, besitzt einen Zeitstempel. Es gibt nur ganz wenige Fälle, in denen das nicht der Fall ist. Man kann also sagen: Alle Firmen sitzen auf einem Riesenhaufen von Ereignisdaten, oft ohne davon zu wissen. Das ist eine der Herausforderungen, vor denen wir stehen: Wir müssen an diese Daten herankommen. Genau dafür haben wir zahlreiche Konnektoren, mit denen sich die verschiedensten Datenquellen einfach anbinden lassen.

Sie interessieren sich für Process Mining? Dann lesen Sie auch

Bottom-up-Einführung ist keine gute Idee

Wie hoch ist der Aufwand für Process Mining? Ein Excellence-Center einrichten, Datenquellen anzapfen und später dann gegebenenfalls die Prozesse und vielleicht sogar das ganze Business umbauen - das klingt nach viel Arbeit...

Van der Aalst: Als ich noch in Eindhoven gelehrt habe, haben mehrere meiner Studenten Process-Mining-Firmen gegründet. Die hatten alle das Problem, dass ihre Kunden Bottom-up angefangen haben. Da war irgendjemand an Datenanalyse interessiert, und los ging's. Was dann passierte, ist klar: Man findet zwar Probleme, aber andere Abteilungen und auch die übergeordneten Hierarchieebenen finden es gar nicht lustig, wenn man viele Prozessineffizienzen findet.

Deshalb empfiehlt Celonis seinen Kunden, das Ganze zentral aufzusetzen, um die erforderliche Unterstützung innerhalb der Organisation zu haben. Wobei die Einführung in der Regel schrittweise erfolgt: Das fängt mit einem Proof of Concept an, bei dem man sich einen oder mehrere Standardprozesse ansieht. Das haben wir schon 1.000 Mal gemacht und können recht gut vorhersagen, wie viel hier tatsächlich herauszuholen ist.

Für mich ist aber wichtig, dass es damit nicht endet. Die Standardprozesse sind ja nicht die Kernprozesse des Unternehmens. Eine Lufthansa muss nicht exzellent darin sein, Rechnungen zu verschicken, sie muss Passagiere pünktlich und zuverlässig von A nach B transportieren. Deshalb ist es von Bedeutung, dass das oberste Management im Boot ist und unterstützt. Je weiter Process Mining skaliert, desto größer ist der Erfolg.

Wie gehen Sie auf die Unternehmen zu? Die Türen zu den Vorstandsetagen öffnen sich ja nicht so schnell für Techies wie Sie…

Van der Aalst: Das ist unterschiedlich. Am einfachsten ist es bei den Standardprozessen, wo Leute etwa für den Einkauf verantwortlich sind und ihren Purchase-to-Pay-Prozess verbessern wollen. Wenn aber ein Betrieb generalistisch ansetzen und auf vielen Ebenen skalieren möchte, dann fallen die Entscheidungen auf einer höheren Ebene. Bei der Lufthansa oder BMW wissen die Topleute alle, dass Process Mining als übergreifende Technologie zum Einsatz kommt und fordern dies auch. Sie sehen ja, welche Einsparpotenziale möglich sind.

Viele Unternehmen möchten nicht nur analysieren, sondern auch automatisieren. Dann wäre das Center of Excellence kein Process-Mining-, sondern ein Process-Automation-Center.

Van der Aalst: Wenn Leute anfangen, Prozesse zu automatisieren, indem sie sich ein entsprechendes Modell malen und dann abbilden wollen, funktioniert das meistens nicht. Viele Systeme sind sehr kompliziert, da ist über Jahre Zeit und Geld reingesteckt worden, um sie aktuell zu halten. Process Mining orientiert sich an dem, was wirklich da ist. Man geht von den De-facto-Prozessen und verfügbaren Daten aus. Und dann wird ausgewertet: Was sind die Fehler und Ineffizienzen, die am häufigsten vorkommen oder am gravierendsten sind. Erst dann beginnt die Automatisierung, die genau auf diese Probleme zielt.

Deswegen ist das eine viel effizientere Art der Automatisierung als all die Ansätze, die bei null anfangen oder einfach nur ineffiziente Prozesse automatisieren möchten. Man findet Probleme, nicht einmalig, sondern ständig. Jeden Tag. Wir geben den Leuten ein Werkzeug an die Hand, um ihre kritischen Prozesse permanent zu überwachen und zu optimieren.

"Die Idee eines Process Owners passt gut zu dieser Technologie"

Finden Sie in den Unternehmen überhaupt schon Verantwortliche für übergreifende End-to-End-Prozesse vor? Process Mining braucht ja crossfunktionales Vorgehen, also Process Owner statt Abteilungsleiter.

Van der Aalst: Das hängt stark davon ab, mit was für einer Firma wir es zu tun haben. Die Realität in den meisten Unternehmen ist die Matrixorganisation. Die Stärke von Process Mining - genau genommen von Object-centric Process Mining - liegt darin, End-to-End-Prozesse zu verbessern, deshalb passt die Idee eines Process Owners gut zu dieser Technologie. Tatsache ist aber, dass die Firmen alle unterschiedlich organisiert sind. Deshalb ist ein Center of Excellence eine Chance: Manchmal gibt es in größeren Betrieben noch Six-Sigma- oder Business-Process-Management-Experten, die oft außerhalb der IT-Abteilung angesiedelt sind.

Wenn Process Mining sein ganzes Potenzial entfalten soll, sollte man all diese Kompetenzen zusammenführen. Wobei man sich vom Begriff "Center" nicht abschrecken lassen sollte - oft sind das nur sehr wenige Akteure. Entscheidend ist, dass diese die IT-Abteilung sowie die verschiedenen Bereiche mit ins Boot holen und für die erforderliche Abstimmung zwischen diesen sorgen.

Sie haben eben Object-centric Process Mining (OCPM) angesprochen. Wie unterscheidet sich das vom klassischen Process Mining?

Van der Aalst: Klassisches Process Mining beschränkt sich auf einzelne Prozesse oder oft auch nur Teilprozesse - etwa die Rechnungsstellung. Damit lässt sich die betriebliche Realität aber nicht wirklich abbilden: Denn Prozesse sind ja vernetzt. Verzögert sich die Lieferung von Rohwaren, hat das Auswirkungen auf die Produktion, der Kunde bekommt seine Ware verspätet und bezahlt deshalb auch später, was ich wiederum bei meiner Liquidität zu spüren bekomme. Zudem muss ich bei der Prozessanalyse für jede neue Perspektive eine neue Analyse vornehmen. OCPM basiert dagegen auf einem einheitlichen Datenmodell. Das bedeutet, dass ich die Perspektive jederzeit wechseln kann. Zudem kann ich miteinander verknüpfte Prozesse von Anfang bis Ende betrachten.

Das einheitliche Datenmodell hat darüber hinaus noch einen anderen großen Vorteil: Es ist eine ideale Basis für den Einsatz von KI-Tools, die es mit den erforderlichen Daten "füttert", damit diese vernünftige Ergebnisse liefern können. Aber auch andere Anwendungen können daran angebunden werden und profitieren davon. Was wir diese Woche auf dem Celosphere-Event unter dem Namen Process Intelligence Graph vorgestellt haben, ist letztendlich ein Dreiklang aus Prozessdaten, Prozessintelligenz und einer offenen Plattform, um Prozessoptimierung in Unternehmen voranzutreiben.

Stark vernetzte Prozesse lassen sich mit Object-centric Process Mining überwachen, sagt Wil van der Aalst.
Foto: Celonis

Es geht um harte Fakten - und die lügen nicht

Kommt es oft zu Konflikten in Betrieben, die Process Mining machen wollen? Immerhin wird hier in Fachkompetenzen hineinregiert und es werden gnadenlos Schwächen in den Prozessketten aufgedeckt. Die Defizite sind ja meist bei irgendwem zu verorten.

Van der Aalst: Natürlich ist das Ziel die Ursachenforschung, man will transparent machen, warum Prozesse so laufen, wie sie laufen. Es kann gute Gründe geben, wenn es zu Verzögerungen kommt. Dabei liegt das Augenmerk aber stets auf der Prozessebene und nicht auf einzelnen Anwendern. Man sollte nicht auf die Ebene der einzelnen Mitarbeiter runtergehen. In Workshops zur Einführung von Workflow-Automation- oder Process-Mining-Systeme sitzen oft 20 Leute, und alle haben einen anderen Blick auf die Realität. Da ist es gut, wenn es harte Fakten gibt, die nicht lügen können. Dann gibt es auch kein politisches Gerangel.

Mit welchem finanziellen Aufwand muss man rechnen, wenn man große strategische Prozesse wie im Fall der Lufthansa anpackt?

Van der Aalst: Die Software selbst funktioniert so selbstverständlich wie Excel, sie kostet meistens am wenigsten und tut, was sie tun soll, wenn sie denn richtig konfiguriert wurde. Die Anwender können auch schnell damit Dashboards konfigurieren. Celonis wird meistens in der Cloud genutzt, Skalierbarkeit und Hardware spielen also für die IT-Abteilung des Kunden auch keine große Rolle mehr. Das läuft im Browser.

Das Problem liegt eher darin, tiefer vorzudringen: Welchen Umfang soll das Projekt haben? Sind alle nötigen Daten in der richtigen Qualität vorhanden? Ist klar, wie sie extrahiert werden können? Diese Dinge können Monate dauern, weil man das Ganze erst einmal organisieren und die richtigen Leute zusammenbringen muss.

Noch wichtiger: Man muss anschließend sicherstellen, dass Process Mining regelmäßig genutzt wird. Gewohnheiten zu ändern, ist nie ganz leicht. Wenn jemand viele andere Dinge zu erledigen hat, wird er sich anfangs zwingen müssen, regelmäßig auf dieses Dashboard zu schauen. Ideal ist es, wenn die die Software automatisiert in den Prozess eingreift, womit man einfache Probleme schnell beheben kann. Dafür nutzen wir Low-Code-Automatisierung. Bis zu einem gewissen Grad können das die Mitarbeitenden in den Fachbereichen selbst tun oder es läuft automatisch. Aber wenn dann ein ganz neuer Engpass erstmals auftritt, muss ein Experte tiefer analysieren.

Konnektoren zu über 1.000 Softwareprodukten

Wie muss man sich Ihre Low-Code-Umgebung vorstellen?

Van der Aalst: Sehr einfach. Wir haben vor ein paar Jahren die Firma Integromat gekauft, deren Tool heißt bei uns jetzt "Make" und dient dazu, visuell unterstützt Workflows zu konfigurieren. Wichtig ist, dass wir damit Konnektoren zu über 1.000 Softwareprodukten bekommen haben. Wir nennen sie Action Flows. Fachbereichsmitarbeiter können darüber in ERP- und SCM-Systemen oder worin auch immer eingreifen, wenn sie denn dafür die Berechtigung haben.

Wir bauen also eine Brücke zwischen unserer Prozessdiagnose und den dahinterliegenden Systemen. Nicht immer geht es darum, in Software einzugreifen. Manchmal wird auch nur der Versand einer E-Mail an eine verantwortliche Person ausgelöst mit dem Hinweis: "Es gibt hier ein Problem mit Deinem Prozess". Oder die Lösung wird direkt automatisch vollzogen. Das Spektrum ist breit.

Was sind die Erfolgsfaktoren, damit Process-Mining funktioniert?

Van der Aalst: Am wichtigsten ist die Unterstützung der Führungsebene. Ein zweiter Erfolgsfaktor: Das Unternehmen sollte ein gewisses Level in Sachen Datenmanagement erreicht haben. Heute reden ja viele Betriebe über künstliche Intelligenz, sind aber in Wirklichkeit nicht fähig, auch nur die einfachsten Dinge aus ihren Systemen herauszuholen.

Drittens: Change Management. Wenn man die Process-Mining-Ergebnisse vorliegen hat, geht es darum, die Prozesse auch wirklich zu verbessern. Das kann mit Veränderungen verbunden sein, die gemanagt werden müssen.

Procress Mining hat erstmal nichts mit KI zu tun

Sie haben KI angesprochen. Was unternimmt Celonis, um die eigenen Produkte mit KI aufzuwerten?

Van der Aalst: Erstmal möchte ich klarstellen: Die Core-Algorithmen für Process Mining haben nichts mit KI zu tun. Das ist eine komplett andere Technologie. Aber es gibt natürlich spannende Verbindungen. KI eröffnet uns beispielsweise die Möglichkeit, Daten zu generieren, die wir sonst nicht hätten. Wir können auf die inhaltliche Ebene gehen, also beispielsweise Texte analysieren, Rechnungen vergleichen und vieles mehr.

Und dann kann ich KI nutzen, um Vorhersagen zu treffen. Ein Beispiel: An der RWTH Aachen haben wir ein Projekt laufen, in dem wir herausfinden wollen, warum einige Studenten schneller und erfolgreicher sind als andere. Wir analysieren dazu das Curriculum, also die Abfolge der Vermittlung von Lernstoff. Wir fragen etwa: Was hat es für Konsequenzen, wenn Studierende der vorgegebenen Reihenfolge nicht folgen? Ist das ein Problem? Ergeben sich vielleicht sogar Vorteile? Auf dieser Basis können wir dann gegebenenfalls das Curriculum ändern, Verwaltungsprozesse anpassen, neue Software generieren und die Studenten über Best Practices informieren.

Sie haben noch gar nicht über Generative AI gesprochen.

Van der Aalst: Das ist natürlich ein besonders vielversprechender Aspekt. Wir können es unseren Kunden damit einfacher machen, unsere Software zu bedienen. Nutzer formulieren dann in natürlicher Sprache ihre Abfrage: Warum verzögert sich die Lieferung an den Kunden XYZ? Wo sind hier die Engpässe? Celonis gibt im Dialog die Antwort.

Im Hintergrund werden die großen Sprachmodelle genutzt, mit denen natürliche Sprache verarbeitet wird, mehr aber auch nicht. Die Sprache wird in unsere Process Query Language (PQL)umgewandelt und diese wie immer ausgeführt - auf Basis der vorgefundenen Daten. Das LLM weiß nichts über die Daten, die eine Firma hat. Wir wandeln lediglich natürliche Sprache in unsere PQL um, also in etwas, das Celonis versteht. Die Antwort wird dann ebenfalls umgewandelt und in natürlicher Sprache ausgegeben.

Das Spiel wird sich erst ändern, wenn es wirklich große Sprachmodelle gibt, die spezifisch für ein Unternehmen sind. Momentan macht das noch niemand, denn ein LLM zu generieren ist sehr aufwändig. Momentan optimiert man höchstens die verfügbaren LLMs ein bisschen, damit die Antworten besser werden.

Am Ende ist Process Mining eine deterministische Technologie, man kann dem vertrauen, was herauskommt. Bei den LLMs ist das anders. Das ist vergleichbar mit autonomem Fahren. Das funktioniert immer noch nicht, obwohl Elon Musk schon 2015 gesagt hat: In ein paar Monaten sind wir so weit.

Mit Task Mining sehen, was Nutzer in SAP machen

Celonis bietet auch Task Mining an. Was steckt dahinter?

Van der Aalst: Process Mining verbessert End-to-End-Prozesse, doch genauso gut ist es möglich zu analysieren und zu optimieren, was Menschen an ihren Bildschirmen tun. Darauf setzt Task Mining.

Ist es vergleichbar mit Robotic Process Optimization (RPA)?

Van der Aalst: Nicht direkt. RPA-Anbieter schauen der Person an ihrem Arbeitsplatz quasi über die Schulter, um herauszufinden, was sie tut, und das dann eins zu eins zu automatisieren. Unsere Task-Mining-Lösung zielt darauf, anhand von Logdaten zu ermitteln, wie sich die Personen verhalten und welche Prozesse bei ihnen laufen. Unser Ziel ist es, genau zu verstehen, wie Prozesse, die Arbeitsschritte von Anwendern umfassen, ablaufen und wo es zu Problemen kommt. Oft lässt sich das anhand von Daten nachvollziehen - so wie bei den großen End-to-End-Prozessen, die wir mit Process Mining analysieren.

Dabei ist natürlich der Datenschutz besonders wichtig, die Anwender müssen darüber informiert werden und angezeigt bekommen, wann und was erfasst wird. Man kann das auch so konfigurieren, dass sich ermitteln lässt, wie einzelne Anwendungen genutzt werden. Dann sieht man zum Beispiel, was Nutzer in SAP machen. In den meisten Fällen ist diese Analyse aber eher grob. Unser Ziel ist immer, die Abläufe zu verbessern, nicht die Menschen auszuspionieren. Wir wollen herausfinden, warum Dinge solange dauern, wie sie dauern und wo es Probleme gibt - und das auch zum Nutzen der Anwender verbessern. (hv)