Einsatzszenarien für Zukunftsprognosen

Predictive Analytics in der Praxis

14.07.2015 von Jürgen Mauerer
Dynamische Preisgestaltung, Absatzprognosen oder vorausschauende Wartung - das Spektrum der Anwendungen von Predictive Analytics ist breit gefächert. Unternehmen aus vielen Branchen werfen auf Basis statistischer Methoden den Blick in die Zukunft. Dieser Artikel beschreibt ausgewählte Beispiele für Einsatzszenarien in Branchen wie Einzelhandel, Luftfahrt oder Fertigung.

Predictive Analytics ist nicht ganz neu. Banken und Versicherungen treffen bereits seit längerem im Risikomanagement Vorhersagen über die Wahrscheinlichkeit von zukünftigen Ereignissen. Banken schätzen beispielsweise beim Kredit-Scoring das Risiko ab, mit dem eine Person oder ein Unternehmen die zukünftigen Ratenzahlungen eines gewährten Kredits nicht leisten könnte. Versicherungen prognostizieren über Data Mining und andere statistische Methoden zukünftige Schäden und deren potenzielle Kosten. Auf diese Weise ermitteln sie unter anderen die passenden Tarife, um ihr Schadenrisiko zu minimieren.

Die Kunst von Predictive Analytics ist es, aus den gesammelten Daten die richtigen Schlüsse zu ziehen.
Foto: Sergey Niven - Fotolia.com

Mittlerweile wird Predictive Analytics in vielen Branchen mit Erfolg eingesetzt. Hier einige ausgewählte Beispiele für Einsatzszenarien von Zukunftsprognosen.

Automobilzulieferer: Auslastungsprognose sichert Überleben

Ein global tätiger Automobilzulieferer mit 55.000 Mitarbeitern und 52 Standorten in 20 Ländern hatte das Ziel, den Absatz pro Land genauer vorherzusagen, um die Auslastung in den weltweiten Produktionsstandorten zu verbessern. Dabei ging es auch darum, die Produktionskapazitäten besser auf Absatzschwankungen zwischen den einzelnen Ländern auszurichten und damit handlungsfähiger gegenüber lokalen und auch globalen Krisen zu sein.

Der Zulieferer realisierte daher auf Basis von Predictive Analytics eine Gesamtplanung für alle Länder und Standorte. Dieses System bestand seine Feuertaufe 2009/10 in der Finanzkrise nach der Lehman-Pleite. Das Unternehmen spielte innerhalb von nur drei Tagen belastbare Szenarien über die künftige Auslastung seiner Produktionsstätten durch, passte umgehend die Kapazitäten an und legte auf Basis der Berechnung die absehbar unrentabel werdenden Fabriken still. Diese sehr harten und schnellen Einschnitte sicherten dem Unternehmen schließlich das Überleben. Aus dem Unternehmen, das nicht genannt werden will, heißt es dazu: "Ohne unsere auf Predictive Analytics basierte Gesamtplanung gäbe es uns heute nicht mehr."

Luftfahrt: Vorhersage des Passagieraufkommens verbessert Cash-Flow

Der weltweite Wettbewerb unter den Luftfahrtkonzernen ist hart. Eine deutsche Fluggesellschaft setzt daher auf Predictive Analytics, um das zu erwartende Passagieraufkommen für alle Routen und Maschinen möglichst genau zu planen. Damit verfolgt das Unternehmen mehrere Ziele: Durch die genauere Vorhersage der Passagierzahlen, die auch Faktoren wie Buchungsstornierungen angemessen mit berücksichtigt, lassen sich die benötigte Treibstoffmenge genauer vorherzusagen, die Treibstoff-Disposition verbessern und die Kosten für Sicherungsgeschäfte zur Treibstoffbeschaffung senken.

Hintergrund: Bei den Fluggesellschaften entfallen rund 40 Prozent der gesamten Betriebsausgaben auf die Treibstoffkosten. Angesichts der Preisschwankungen bei Treibstoffen und des knappen Angebots bemühen sich Luftfahrtkonzerne, ihren Kerosinbedarf möglichst zutreffend zu prognostizieren, um bei der Treibstoffbeschaffung und Absicherung von Preisrisiken Kosten zu sparen. Für die Prognose des Treibstoffbedarfs zieht die Predictive Analytics-Lösung neben dem Passagieraufkommen auch Wetterdaten wie die Temperatur am Start- und Zielort oder Informationen zur Sicherheitslage am Zielort mit heran, die erfahrungsgemäß die Stornoquote beeinflussen.

Tatsächlich gelingt es dem Unternehmen, die Prognosen für die Flugbuchungen laufend zu verbessern, die Beschaffungskosten durch bessere Ausnutzung von Schwankungen des Kerosinpreises (Ölpreisentwicklung) zu senken und so den Cash-Flow zu erhöhen.

Absatzprognosen vereinfachen Disposition

Mehr Garnelen bei schönem Wetter: Genaue Absatzprognosen spielen für den Wareneinkauf eine zentrale Rolle. Bei der Analyse kommen auch Wetterdaten zum Einsatz.
Foto: Blue Yonder

Predictive Analytics kommt im Einzelhandel sehr häufig im Umfeld der Disposition zum Einsatz, wenn es um den bedarfsgerechten Einkauf von Waren geht. Mit präzisen Absatzprognosen lassen sich kostspielige Über- oder Unterbestände im Lager verhindern, Leerverkäufe werden vermieden und das Sortiment ist stets verfügbar. In Supermärkten stellt die Disposition beispielsweise bei Frischeprodukten wie Fleisch, Fisch oder Meeresfrüchten eine besondere Herausforderung dar.

Die Unternehmensgruppe Kaufland mit europaweit rund 1.200 Filialen nutzt für ihre täglichen Bestellungen für SB-Frischfleisch eine Predictive Lösung von Blue Yonder. Für Kaufland ist es entscheidend, in jeder Filiale die richtige Menge an Fleisch für seine Kunden verfügbar zu haben. Dabei spielt die automatisierte Disposition auf Basis genauer Absatzprognosen die zentrale Rolle. Neben unternehmensinternen Daten bezieht die Supermarkt-Kette auch wichtige Einflussfaktoren wie Sonderaktionen, Feiertage oder Wetter ein. Denn es gilt: Je wärmer es ist, umso häufiger wird gegrillt, umso mehr Frischfleisch wird verkauft.

Steuerung des Produktlebenszyklus: Die Otto Group nutzt die Predictive-Analytics-Lösung über vier Phasen des Produktlebenszyklus, die im Zusammenspiel einen geschlossenen Kreislauf (Closed Loop) ergeben: Trenderkennung, Planung, Prognose und Abverkaufsoptimierung.
Foto: Blue Yonder

Auch der deutsche Online- und Versandhändler Otto Group setzt für seinen Onlineshop auf Absatzprognosen, um den Wareneinkauf zu automatisieren und zu optimieren. Mit rund 4.000 Marken und zwei Millionen Artikelpositionen aus den Bereichen Mode, Technik, Möbel, Sportartikel, Schuhe oder Spielzeug fallen große Datenmengen an. Täglich wird für jeden Artikel je Farbe und Größe eine aktualisierte Prognose auf Basis von 200 verschiedenen Inputvariablen (z. B. Marke, Preis, Onlineplatzierung, Bestandssituation, Wetter) ermittelt. Hierzu übergibt Otto wöchentlich 300 Millionen Datensätze an Blue Yonder. Jedes Jahr werden somit mehr als 5 Milliarden Einzelprognosen erstellt. Die Prognosequalität verbesserte sich dadurch gegenüber den herkömmlichen Verfahren um bis zu 40 Prozent je Artikel.

Dynamische Preisgestaltung

Ein weiteres Einsatzgebiet von Predictive Analytics ist die dynamische Preisgestaltung. Unternehmen können damit ihre Preise - auch in Echtzeit - an die aktuelle Markt- und Wettbewerbssituation sowie an Verfügbarkeiten und Lieferbedingungen anpassen. Im Modebereich sind Preise beispielsweise im Winter- oder Sommerschlussverkauf entscheidend, um die Lager pünktlich zum Saisonende zu räumen. Auch Wetterdaten oder Feiertage fließen in die Berechnung ein. Ein konkretes Beispiel:

Dynamische Preisgestaltung: Eine Predictive Analytics-Lösung rechnet mit Hilfe externer Daten (Wetter, Feiertage etc.) und interner Faktoren wie Einkaufspreise, Umsatzziel, historische Preise etc. mehrere Szenarien durch und ermittelt den optimalen Preis automatisiert.
Foto: Blue Yonder

Wie viel darf eine Badehose kosten, wenn es in den Pfingstferien regnet? Was darf sie kosten, wenn die Sonne scheint? Ein Modehändler weiß aus seinen historischen Daten, dass der Absatz von Badehosen an den ersten warmen und freien Tagen generell deutlich steigt. Kunden, die das schöne Wetter für einen Tag am See oder über Pfingsten in den Urlaub fahren, sind bereit, genau jetzt Geld für eine Badehose auszugeben. Das heißt: Der Händler kann mehr Geld verlangen, wenn er seinen Umsatz erhöhen will. Eine Predictive Analytics-Lösung rechnet hier mit Hilfe externer Daten (Wetter, Feiertage etc.) und interner Faktoren wie Einkaufspreise, Umsatzziel, historische Preise etc. mehrere Szenarien durch und ermittelt den optimalen Preis automatisiert.

Die Begriffe rund um Big Data
Big Data - was ist das eigentlich? Jeder spricht drüber, jeder versteht etwas anderes darunter. Klicken Sie sich durch unser Glossar mit den wichtigsten und meistgenutzten Begriffen (manche sagen auch "Buzzwords") und verstehen Sie, was damit genau gemeint ist. <br /><br /> <em>zusammengestellt von <a href="http://www.kommunikation-in-sendling.com/" target="_blank">Kriemhilde Klippstätter</a>, freie Autorin und Coach (SE) in München</em>
Ad Targeting
Der Versuch, die Aufmerksamkeit des potenziellen Kunden zu gewinnen, meist durch "passgenaue" Werbung.
Algorithmus
Eine in Software gegossene mathematische Formel mit der ein Datensatz analysiert wird.
Analytics
Mit Hilfe von Software-basierenden Algorithmen und statistischen Methoden werden Daten interpretiert. Dazu benötigt man eine analytische Plattform, die aus Software oder Software plus Hardware besteht und die die Werkzeuge und Rechenpower bereitstellt, um unterschiedliche analytische Abfragen durchführen zu können. Es gibt eine Reihe unterschiedlicher Formen und Einsatzzwecke, die in diesem Glossar näher beschrieben sind.
Automatic Identification and Capture (AIDC)
Jede Methode der automatischen Identifizierung und Datensammlung über eine Gegebenheit und die nachfolgende Speicherung in ein Computersystem. Etwa die Informationen aus einem RFID-Chip, die ein Scanner ausliest.
Behavioral Analytics
Behavioral Analytics nutzt Informationen über das menschliche Verhalten, um die Absichten zu verstehen und zukünftiges Verhalten vorhersehen zu können.
Business Intelligence (BI)
Der generelle Ausdruck für die Identifizierung, Herkunft und Analyse der Daten.
Call Detail Record (CDR) Analyse
Diese enthält Daten, die die Telekommunikationsunternehmen über die Nutzung von Mobilfunkgesprächen – etwa Zeitpunkt und Dauer der Gespräche – sammeln.
Cassandra
Ein verteiltes Datenbank-Verwaltungssystem für sehr große strukturierte Datenbanken („NoSQL“-Datenbanksystem) auf Open-Source-Basis (Apache).
Clickstream Analytics
Bezeichnet die Analyse der Web-Aktivitäten eines Benutzers per Auswertung seiner Klicks auf einer Website.
Competitive Monitoring
Tabellen, in denen die Aktivitäten der Konkurrenz im Web automatisch gespeichert werden.
Complex Event Processing (CEP)
Ein Prozess, bei dem alle Aktivitäten in den Systemen einer Organisation überwacht und analysiert werden. Bei Bedarf kann sofort in Echtzeit reagiert werden.
Data Aggregation
Das Sammeln von Daten aus unterschiedlichen Quellen für die Erstellung eines Berichts oder für eine Analyse.
Data Analytics
Ein Stück Software, mit dem Informationen aus einem Datensatz gezogen werden. Das Ergebnis kann ein Report, ein Status oder eine Aktion sein, die automatisch gestartet wird.
Data Architecture and Design
Legt dar, wie Unternehmensdaten strukturiert sind. Meist erfolgt das in drei Prozessschritten: Begriffliche Abbildung der Geschäftseinheiten, logische Abbildung der Beziehungen innerhalb der Geschäftseinheit sowie die physikalische Konstruktion eines Systems, das die Tätigkeiten unterstützt.
Data Exhaust
Die Daten, die eine Person bei ihrer Internet-Aktivität "nebenbei" erzeugt.
Data Virtualization
Der Prozess der Abstraktion verschiedener Datenquellen durch eine einzige Zugriffsschicht auf die Daten.
Distributed Object
Ein Stück Software, das es erlaubt, mit verteilten Objekten auf einem anderen Computer zusammenzuarbeiten.
De-Identification
Das Entfernen aller Daten, die eine Person mit einer bestimmten Information verbindet.
Distributed Processing
Die Ausführung eines Prozesses über verschiedene per Netzwerk verbundene Computer hinweg.
Drill
Apache Drill ist eine Open-Source-SQL-Suchmaschine für Hadoop- und NoSQL-Datenmanagement-Systeme.
Hadoop
Ein freies, in Java geschriebenes Framework der Apache Foundation für skalierbare, verteilt arbeitende Software in einem Cluster. Es basiert auf dem bekannten MapReduce-Algorithmus der Google Inc. sowie auf Vorschlägen des Google-Dateisystems.
HANA
SAPs Software-und Hardware-Plattform mit In-Memory-Computing für Echtzeitanalysen und große Transaktionsvolumen.
In-Database Analytics
In-Database Analytics bezeichnet die Integration der Analysemethoden in die Datenbank. Der Vorteil ist, dass die Daten für die Auswertung nicht bewegt werden müssen.
In-Memory Database
Jedes Datenbanksystem, das den Hauptspeicher für die Datenspeicherung benutzt.
In-Memory Data Grid (IMDG)
Die verteilte Datenspeicherung im Hauptspeicher vieler Server für schnellen Zugriff und bessere Skalierbarkeit.
Machine-generated Data
Alle Daten, die automatisch von einem Rechenprozess, einer Applikation oder einer nicht-menschlichen Quelle erzeugt werden.
Map/reduce
Ein Verfahren, bei dem ein großes Problem in kleinere aufgeteilt und an verschiedene Rechner im Netz oder Cluster oder an ein Grid aus unterschiedlichen Computern an verschiedenen Standorten ("map") zur Bearbeitung verteilt wird. Die Ergebnisse werden dann gesammelt und in einem (reduzierten) Report dargestellt. Google hat sein Verfahren unter der Marke "MapReduce" schützen lassen.
Mashup
Dabei werden unterschiedliche Datensätze innerhalb einer Applikation so kombiniert, dass das Ergebnis verbessert wird.
NoSQL
Datenbanken, die nicht relational aufgebaut sind und mit denen sich große Datenvolumina handhaben lassen. Sie benötigen keine festgelegten Tabellenschemata und skalieren horizontal. Beispielsweise ist Apache Cassandra eine NoSQL.
Operational Data Store (ODS)
Darin werden Daten aus unterschiedlichen Quellen gesammelt damit noch weitere Operationen ausgeführt werden können, bevor die Daten in ein Data Warehouse exportiert werden.
Pattern Recognition
Die Klassifizierung von automatisch erkannten Mustern.
Predictive Analytics
Diese Form der Analytics nutzt statistische Funktionen in einem oder mehreren Datensätzen, um Trends oder zukünftige Ereignisse vorherzusagen.
Recommendation Engine
Per Algorithmus werden die Kundenbestellungen einer Website analysiert und sofort passende Zusatzprodukte ausgesucht und angeboten.
Risk Analysis
Die Anwendung statistischer Methoden auf einen oder mehrere Datensätze, um das Risiko eines Projekts, einer Handlung oder Entscheidung abschätzen zu können.
Sentiment Analysis
Dabei werden Einträge von Leuten in sozialen Netzwerken über ein Produkt oder ein Unternehmen statisch ausgewertet.
Variable Pricing
Dabei folgt der Kaufpreis eines Produkts dem Angebot und der Nachfrage. Das erfordert die Echtzeit-Überwachung von Konsum und Lagerbestand.
Parallel Data Analysis
Ein analytisches Problem wird in Teilaufgaben aufgebrochen und die Algorithmen werden auf jede Problemkomponente zeitgleich und parallel angewendet.
Query Anal
In diesem Prozess wird eine Suchanfrage optimiert, um das bestmögliche Ergebnis zu erhalten.
Reference Data
Daten, die ein physikalisch oder virtuell vorhandenes Objekt und seine Eigenschaften beschreiben.

Industrie 4.0: Predictive Maintenance

Predictive Maintenance: Über die Analyse von Sensordaten lassen sich Fehler in einer Maschine oder Anlage vorhersagen. Der Service kann dadurch proaktiv reagieren.
Foto: Blue Yonder

Ein Beispiel aus der Industrie ist Predictive Maintenance, sprich vorausschauende Wartung. Basis dafür ist die Fülle an Sensordaten, die Maschinen, Geräte und Fahrzeuge heute senden. Diese Sensoren übermitteln dabei Daten zum Status etwa einer Anlage wie Leistung, Temperatur, Umdrehungen und Auslastung (meist) an eine Cloud-Plattform. Die Lösung analysiert Kenndaten bezüglich Nutzung, Verschleiß und Zustand aus verschiedenen Quellen und erkennt so Fehlermuster und qualitativ minderwertige Komponenten - und kann Fehler vorhersagen. Der Service kann dadurch rechtzeitig reagieren und einen kostspieligen Ausfall der Maschine proaktiv verhindern, indem er beispielsweise ein neues Ersatzteil einbaut oder die Wartungsarbeiten vorzieht.

Predictive Analytics hilft zudem bei der Entscheidung über die Laufzeit und Konditionen bei der Verlängerung von Serviceverträgen. Hier sind anhand des Anlagen- bzw. Maschinenzustands präzise Prognosen zu Risiken, Ausfällen und Wartungsbedarf möglich; hier lassen sich auch Wetterdaten und sonstige Umwelteinflüsse integrieren. Die Analyse bildet die Basis für die Entscheidung, ob der Vertrag zu den bisher für den Kunden günstigen Konditionen beibehalten oder geändert wird.

Personalmanagement: Wahrscheinlichkeit einer Kündigung vorhersagen

Auch im Personal Management kommt Predictive Analytics zum Einsatz. Die Lösung Workday Talent Insights beispielsweise analysiert über einen selbstlernenden Algorithmus historische Daten zur Mitarbeiterfluktuation, um das Kündigungsrisiko von Mitarbeitern frühzeitig zu erkennen. Als Parameter für die Wechsel-Wahrscheinlichkeit dienen Fragen wie: Wie lange arbeitet der Kollege im Unternehmen? Wie oft erhielt er eine Gehaltserhöhung? Wie lange ist sein Arbeitsweg? Wie oft wechselten seine Vorgesetzten? Wie viele Projekte hat er abgewickelt? Wie wurde er beurteilt? Für welche Projekte erhielt er eine Auszeichnung?

Rot ist kritisch: Die Punktewolke zeigt, wie viele Mitarbeiter aktuell den Kriterien für ein erhöhtes Wechselrisiko entsprechen.
Foto: Workday

Die ermittelten Muster werden dann mit ähnlichen Mustern von Mitarbeitern verglichen, die das Unternehmen verlassen haben, um das Kündigungsrisiko einzuschätzen. Die Ergebnisse sind rein statistischer Art und bilden einen Anhaltspunkt für individuelle Gespräche mit dem potenziell wechselwilligen Mitarbeiter. Zugleich bietet die Software konkrete Empfehlungen, wie sich die Abwanderungswahrscheinlichkeit reduzieren lässt, beispielsweise durch die Versetzung zu einem interessanten Projekt. Mit der Lösung lassen sich auch Fragen beantworten wie: Um wie viel Prozent reduziert sich die Wahrscheinlichkeit einer Kündigung, wenn wir das Gehalt um fünf Prozent erhöhen? (mb)