Big-Data-Lösung

SAP HANA und Hadoop - ein starkes Team

21.04.2016 von Gregor  Stöckler und Markus Severin
Hadoop ist das Hype-Thema der Big-Data-Welt. Mit Hilfe des Open-Source-Frameworks lassen sich beliebig große Datenmengen unterschiedlichster Struktur schnell und kostengünstig verwalten, nutzen und auswerten. Doch Hadoop alleine reicht in der Regel für die Anforderungen von Big Data Analytics nicht aus. Für die Auswertung braucht es eine analytische Datenbank, die moderne Analyseverfahren einsetzt.

Empfehlenswert und ökonomisch sinnvoll ist es, kaufmännische und Massen-Datenverarbeitung zu trennen und dadurch den Spezialisten in jeder Disziplin zu vertrauen. Für viele Unternehmen kann ein idealer Mix aus der High-Performance-Datenbank SAP HANA und solider Hadoop-Plattform völlig neue Wege im Bereich der Realtime Analytics eröffnen und gleichzeitig enorme Kosten einsparen. Die Ankündigung des Produktes "SAP HANA Vora" untermauert diese ideale Konstellation. Dieses Werkzeug sorgt für eine noch tiefere Integration zwischen der In-Memory Datenplattform SAP HANA und der Big-Data-Komponente Hadoop.

Hadooponomics
Foto: Ton Snoei - shutterstock.com

Der Clou: Verteilte Verarbeitung der Daten

Ein wesentlicher Vorzug gegenüber anderen Systemen ist, dass Hadoop nicht auf teure proprietäre Hardware für die Speicherung und Verarbeitung der Daten baut. Der Vorteil des verteilten Filesystems erstreckt sich auch auf die verteilte Verarbeitung der Daten und kann nahezu endlos über günstige Standardserver skalieren: eine ideale Voraussetzung für die Vorbereitung auf die stetig wachsende Datenflut.

"Hadooponomics": Zahlen sprechen für sich

Hadoop ist nicht nur eine Option, sondern essenziell für Big-Data-Szenarien, so das Marktforschungsunternehmen Forrester Research. Um den finanziellen Nutzen der Open-Source-Software zu unterstreichen, kreierten Forrester-Analysten das Wort "Hadooponomics". Die Zahlen sprechen in der Tat für sich. Nach Angaben von Forrester belaufen sich die Kosten für die großen Hadoop-Distributionen auf 2000 bis 3000 Dollar pro Knoten und Jahr. Ein HANA-Knoten kostet dagegen rund 750.000 Dollar pro Jahr.

10 Dinge, die Sie über Hadoop wissen sollten
Hadoop – Framework für Big Data
Haddop ist ein komplexes Framework, welches große Datenmengen auf zahlreiche Clusterknoten verteilen und berechnen kann.
Daraus besteht Hadoop
Hadoop besteht aus einem Cluster. Ein Knoten übernimmt die Steuerung (NameNode), die anderen die Berechnungen (DataNodes) im Cluster.
Lokaler Betrieb oder Cloud
Hadoop können Sie auch in der Cloud bei Microsoft Azure betreiben.
Ersetzt Hadoop Business Intelligence im Unternehmen?
Big Data-Lösungen wie Hadoop ergänzen Business Intelligence. Im Gegensatz zu BI-Lösungen, benötigen Big-Data-Lösungen keine perfekt zusammen gestellten Daten.
IBM General Parallel File System im Big Data-Einsatz
Verschiedene Clusterknoten können auf eine gemeinsame Datenbasis zugreifen, wenn GPFS im Einsatz ist. Unternehmen müssen beim Einsatz von Hadoop also nicht gezwungenermaßen auch auf HDFS setzen.
Hadoop in Amazon Web Services, Google Cloud Platform und Rackspace
Hadoop können Sie auch in Amazon Web Services betreiben.
Die wichtigsten Hadoop-Distributionen
Hortonworks Data Platform gehört zu den besonders bekannten Hadoop-Distributionen.
Hadoop erweitern – YARN und Co.
Auf dem Markt finden Sie zahlreiche Erweiterungen, mit denen sich der Funktionsumfang von Hadoop vergrößern lässt.
Sicherheit und Überwachung im Hadoop-Cluster
Apache Knox erhöht beispielsweise die Sicherheit im Hadoop-Cluster. Für die Überwachung der Hadoop-Infrastruktur eignet sich Apache Chukwa.
Oracle, IBM und Co. – Hadoop kommerziell erweitern
Oracle bietet zum mit Big Data SQL die Möglichkeit über SQL-Abfragen auf Big Data-Daten zuzugreifen. IBM InfoSphere BigInsights erweitert Hadoop um zahlreiche Möglichkeiten.

Ein namhaftes Unternehmen in Großbritannien stellte die konventionelle Datenspeicherung den geschätzten Kosten für den Einsatz von Hadoop gegenüber. Ein Terabyte in einer Oracle-Datenbank verursache demzufolge Kosten in Höhe von 35.000 Britischen Pfund pro Jahr. Für die Speicherung derselben Datenmenge in Hadoop errechnete das Unternehmen dagegen Kosten von 1120 Britischen Pfund pro Jahr. Angesichts dieser immensen Kostendifferenz ist es ökonomisch sinnvoll, nur die wertvollsten und am häufigsten genutzten Daten in SAP HANA zu verarbeiten und die übrigen Daten in Hadoop vorzuhalten.

Daten-Offload senkt HANA-Kosten

Mithilfe des Daten-Offloads bleiben SAP HANA-Kosten trotz steigender Datenmenge konstant, während der Zugriff auf die ausgelagerten Daten weiterhin erfolgt, ohne diese allerdings zurückladen zu müssen. Die administrativen Kosten für einfache Aufbewahrung und Verarbeitung von Inhalten sind bei Hadoop ebenfalls sehr gering. Zudem ermöglicht Hadoop, kosteneffektiv analytische Verfahren auf Daten anzuwenden.

Mittels Smart Data Access (SDA) ist der Zugriff auf derart ausgelagerte Daten weiterhin aus SAP HANA heraus möglich. Dieser Aspekt wird in Zukunft auch noch deutlich komfortabler unterstützt. Während in SPS10 von SAP HANA erste Versionen des "Hadoop Relocation Agent" im "SAP HANA Data Lifecycle Manager Tool" (DLM) integriert sind, kann man davon ausgehen, dass die Zeiten der Programmierung von manuell zu erstellenden und einzuplanenden Prozeduren zur Datenverlagerung nach Hadoop bald der Vergangenheit angehören. Das gerade angekündigte Produkt "SAP HANA Vora" unterstützt dabei im Bereich Analytics Performance, indem es eine hauptspeicherbasierte Queryausführung innerhalb des Apache Spark Framework ermöglicht und neue Funktionen integriert.

Alle Informationen mit Corporate-Daten verknüpfbar

Die gewaltigen Datenmengen, die durch aktuelle Themen wie dem "Internet of Things" (IoT) oder Industrie 4.0, aber auch durch klassische Big Data Themen (Web, Social Media, Mobile Apps) entstehen, lassen sich mithilfe von Hadoop nicht nur zu 100 Prozent auffinden und indexieren, sondern sie sind durch die Verknüpfungsmechanismen der SAP-HANA-Technologie über Smart Data Access (SDA) mit den Corporate-Daten verknüpfbar - beispielsweise Daten aus Sensoren, Netzwerken, Maschinendaten sowie unstrukturierte Informationen aus Texten, Social-Media-Daten, Mailboxen und SharePoints oder auch Video-/ Audio-Informationen. Darüber hinaus kann mittels geeigneter Zugriffsmechanismen auch den Compliance-Anforderungen Sorge getragen werden.

Sicherung bisher getätigter Investitionen

Unternehmen, die bereits in Hadoop-Umgebungen arbeiten, dort Erfahrungen mit den unterschiedlichsten Datenformaten sowie mit MapReduce gesammelt und schon Data Lakes aufgebaut haben, können diese Hadoop-Umgebungen direkt mit SAP HANA verbinden und darüber auch die Anzahl der umsetzbaren Use Cases wesentlich erhöhen. Bisher getätigte Investitionen werden somit weiter genutzt. SAP HANA ermöglicht es, nicht nur Hadoop, sondern alle gängigen Datenbankformate für Data Warehouses mittels Smart Data Access anzubinden und somit dem "logischen Data Warehouse" oder "verteilten Data Warehouse" einen Schritt näher zu kommen und eine hybride Architektur zu erhalten.

Datenvirtualisierung: Erst integrieren, dann modernisieren

Existierende Data Warehouses und Hadoop-Umgebungen lassen sich virtuell in SAP HANA verknüpfen und ermöglichen dadurch den Aufbau einer einheitlichen Zugriffschicht für Applikationen. Egal, welche Technologien über Smart Data Access mit SAP HANA verknüpft werden, aus Sicht von SAP HANA werden alle beteiligten Tabellen als eigene virtuelle Tabellen angesehen und können mit Standard SQL angesprochen und verbunden werden. Smart Data Access bietet somit eine Datenvirtualisierung.

Es empfiehlt sich, Schritt für Schritt und Applikationsbereich für Applikationsbereich zu überlegen, ob eine Modernisierung und eine mögliche direkte Verlagerung in SAP HANA sinnvoll sein können. Wichtig ist auch abzuwägen, ob die gewonnene Performance einen entscheidenden Vorteil darstellt, oder ob sich dadurch neue Geschäftsmöglichkeiten umsetzen lassen. Vorteil eines auf SAP HANA basierende verteilten Data Warehouse: die Daten sind virtuell in SAP HANA integriert und die Applikationen greifen bereits darauf zu.

Die virtuelle Tabelle, die mittels Smart Data Access auf die darunterliegende Technologie zugreift, muss nun lediglich in eine physikalische Tabelle in SAP HANA umgewandelt werden. Der Applikationszugriff bleibt dabei gleich. Dadurch ergibt sich die Möglichkeit, wichtige Applikationen nach und nach zu modernisieren und sich langfristig durch Abschaltung von nicht mehr benötigten Applikationsteilen zu trennen.

Echtzeit-Auswertung ermöglicht neue Anwendungsfelder

Eine Big-Data-Plattform mit einer hohen Verarbeitungsgeschwindigkeit für verteiltes Ausführen analytischer Algorithmen über große Datenmengen aller Strukturen ermöglicht es, analytische Applikationen in einem datenintegrierten Umfeld zu erstellen und noch wertvoller zu gestalten. Anspruchsvolle "menschliche Information", beispielsweise Video, Audio, kontextbezogene Bedeutungen oder Mehrsprachigkeit machen eine weitere Ergänzung dieses Frameworks sinnvoll, beispielsweise durch HP Autonomy. Verfügbare Konnektoren und Projektbeschleuniger helfen dabei, unterschiedlichste Datenausprägungen von intern und extern möglichst schnell aufzunehmen, zu integrieren und zu verarbeiten und für eine schnellere Umsetzung von Social Media Analytics oder die Analyse anderer unstrukturierter Daten zu sorgen. Gerade im Bereich Analytics ist Geschwindigkeit ein Differenzierungsfaktor. Die Verknüpfung von SAP HANA mit dem In-Memory basierten Framework Apache Spark ist daher umso wichtiger.

Ausprobieren erwünscht

Die Anwendungsfelder für Analytics sind zahlreich und hoch innovativ. Vieles muss jedoch zunächst erprobt werden, bevor es sich in der Praxis umsetzen lässt, wie ein Beispiel aus dem Bereich Maschinendaten zeigt. Ein Maschinen- oder Gerätehersteller muss eine Menge Sensoren verbauen, um eine bestmögliche Benutzung unterstützen zu können. Da diese Geräte beim Endkunden eingesetzt werden, müssen die Daten häufig mittels eingebauter SIM-Karten über Mobilfunk an den Hersteller übertragen werden. Dadurch entstehen Kosten für die Datenübertragung und es gilt, die zu übermittelnde Datenmenge zu optimieren.

IoT-Produkte und -Strategien der Hersteller
IoT-Produkte und -Strategien der Hersteller
Im Zukunftsmarkt des Internet of Things (IoT) bringt sich nahezu jeder große IT-Hersteller in Stellung. Manchmal ist der Marktzugang nachvollziehbar, manchmal werden auch Nebelkerzen geworfen und vorhandene Produkte umdefiniert. Wir geben einen Überblick über die Strategien der wichtigsten Player.
Microsoft
Wie über 200 andere Unternehmen war der Softwarekonzern bis vor kurzem Mitglied in der von Qualcomm initiierten Allianz AllSeen und wechselte kürzlich in die neu formierte Open Connectivity Foundation. Deren Ziel ist die Entwicklung einer einzelnen Spezifikation oder zumindest eines gemeinsamen Sets an Protokollen und Projekten für alle Typen von IoT-Geräten.
Microsoft
Auf Client-Seite fungiert Windows 10 IoT Core als mögliches Betriebssystem für industrielle Geräte. Das Beispiel zeigt ein Roboter-Kit.
Microsoft
Als Cloud-Plattform stellt Microsoft die Azure IoT-Suite bereit. Diese enthält bereits einige vorkonfigurierte Lösungen für gängige Internet-of-Things-Szenarien. Mit dem Zukauf des italienischen IoT-Startups Solair wird das Portfolio erweitert.
Amazon
Das Portfolio erstreckt sich mit AWS Greengrass bis in den Edge-Bereich. So können IoT-Devices auf lokale Ereignisse reagieren, lokal auf die von ihnen erzeugten Daten wirken können, während die Cloud weiterhin für Verwaltung, Analyse und dauerhafte Speicherung verwendet wird.
IBM
Im März 2015 hat Big Blue mitgeteilt, über die nächsten vier Jahre rund drei Milliarden Dollar in den Aufbau einer IoT-Division zu investieren. Sie soll innerhalb des Unternehmensbereichs IBM Analytics angesiedelt sein. IBM will hier neue Produkte und Services entwickeln. Im Zuge dessen wurde auch die "IBM IoT Cloud Open Platform for Industries" angekündigt, auf der Kunden und Partner branchenspezifisch IoT-Lösungen designen und umsetzen können.
Intel
Obwohl sich Intel mit seinen Ein-Prozessor-Computern "Galileo" und "Edison" im Bereich der Endgeräte für das Zeitalter von Wearables und IoT schon gut gerüstet sieht, will das Unternehmen mehr vom Kuchen. "Das Internet of Things ist ein End-to-End-Thema", sagte Doug Fisher, Vice President und General Manager von Intels Software and Services Group, zur Bekanntgabe der IoT-Strategie vor einem halben Jahr. Deren Kernbestandteil ist demnach ein Gateway-Referenzdesign, das Daten von Sensoren und anderen vernetzten IoT-Geräten sammeln, verarbeiten und übersetzen kann.
Intel
Im Zentrum der IoT-Strategie des Chipherstellers steht eine neue Generation des "Intel IoT Gateway". Auf Basis der IoT Plattform bietet Intel eine Roadmap für integrierte Hard- und Software Lösungen. Sie umfasst unter anderem API-Management, Software-Services, Data Analytics, Cloud-Konnektivität, intelligente Gateways sowie eine Produktlinie skalierbarer Prozessoren mit Intel Architektur. Ein weiterer maßgeblicher Bestandteil der Roadmap ist IT-Sicherheit.
SAP
Bei der SAP IoT-Plattform "HANA Cloud Platform for IoT" handelt es sich um eine IoT-Ausführung der HANA Cloud Platform, die um Software für das Verbinden und Managen von Devices sowie Datenintegration und -analyse erweitert wurde. Die Edition ist integriert mit SAPs bereits vorgestellten IoT-Lösungen "SAP Predictive Maintenance and Service", "SAP Connected Logistics" und "Connected Manufacturing".
Hewlett-Packard
HP hat Ende Februar 2015 seine "HP Internet of Things Platform" präsentiert. Das Unternehmen richtet sich damit an "Communications Service Providers", die in die Lage versetzt werden sollen, "Smart Device Ecosystems" zu schaffen - also in ihren Netzen große Mengen an vernetzten Produkten und Endgeräten zu verwalten und die entstehenden Daten zu analysieren.
PTC
Mit der Übernahme von ThingWorx konnte der amerikanische Softwareanbieter PTC zu Beginn vergangenen Jahres zum Kreis der vielversprechendsten Internet-of-Things-Anbieter aufschließen. Das Unternehmen bietet mit "ThingWorx" eine Plattform für die Entwicklung und Inbetriebnahme von IoT-Anwendungen in Unternehmen an.

Doch was sind die wichtigsten Daten, die übermittelt werden müssen, um neue Möglichkeiten im Bereich Preventive Maintenance zu kreieren? HP hat gemeinsam mit dem Hersteller die Daten zunächst in einem Offline Szenario mit einem Datenumfang von mehreren Monaten getestet. Data Scientists aus dem Bereich HP Global Analytics analysierten alle Daten und ermittelten daraus die wichtigsten Parameter. Für den Maschinenhersteller ergibt sich daraus die Möglichkeit, den Datenaustausch aus dem Fahrzeug anzupassen und nur die wichtigsten Daten zu übermitteln.

Zudem kann der Hersteller seinen Kunden durch die frühzeitige Erkennung von Problemen einen verbesserten Service bieten. Gemeinsam mit dem Kunden lassen sich geeignete Wartungsfenster identifizieren und dadurch kostspielige Ausfälle für den Endkunden vermeiden. Auch die Gewährleistungskosten für den Hersteller reduzieren sich, wenn festgestellt wird, dass die Maschine oder das Fahrzeug missbräuchlich benutzt wird, beispielsweise durch ständige Überladung.

Gelingt es über eine IoT Plattform, eine bidirektionale Kommunikation aufzubauen, erweitert sich das Potenzial noch einmal erheblich. In diesem Fall empfängt man nicht nur Daten aus den Maschinen, sondern kann auch auf die Maschine beziehungsweise das Fahrzeug einwirken und die entsprechenden Devices, Sensoren, Geräte remote verwalten. Dadurch lassen sich beispielsweise Software Updates verteilen und gegebenenfalls neue Funktionen nutzen, oder aber komplette oder teilweise Stilllegungen erreichen. Bei Diebstahl, festgestellt über die GPS Daten, kann das Fahrzeug oder die Maschine vollständig funktionsuntüchtig geschaltet werden (Geo Fencing).

Es empfiehlt sich grundsätzlich, Use Cases zunächst zu verproben und erst anschließend in den Produktivbetrieb zu überführen, um Fehlinvestitionen zu vermeiden. Dies gilt auch für die Big-Data-Umgebung selbst. Bevor in eine eigene Big-Data-Plattform investiert wird, für die weder ein Betriebskonzept existiert noch eine Betriebsorganisation den Praxisbetrieb übernehmen kann, lässt sich diese mit den entsprechenden Komponenten beispielsweise in einer Private Cloud nutzen und sowohl die technische Machbarkeit, aber auch die Businessrelevanz dort nachweisen. Für die Analyse aktuell anfallender Daten ist eine sehr hohe Verarbeitungsgeschwindigkeit und für die Speicherung und Verarbeitung der historischen Massendaten eine günstige Speicher- und Verarbeitungslösung notwendig.

Orchestrierung über HANA

Die Anwendungsbeispiele zeigen: Big Data ist schon lange keine Vision mehr, sondern in der Unternehmensrealität angekommen. Bisher galt: je größer die Datenmenge, umso teurer die Speicherung und umso langsamer der Zugriff. Diese Herausforderungen lassen sich mithilfe von Hadoop kostengünstig lösen, in dieser Disziplin liegt das Open-Source-Framework vorne. Nicht jedoch in der Disziplin Analytics in Echtzeit. Hier kann die In-Memory-Plattform SAP HANA punkten. Die Stärken liegen hierbei neben der schnellen Verarbeitung vor allem in der Business Logik der transaktionalen SAP-Applikationen. Durch die Kombination von SAP HANA und Hadoop lassen sich die Vorteile aus beiden Disziplinen gewinnbringend nutzen, sofern die Orchestrierung über SAP HANA erfolgt.

Die Geschichte von SAP
2016
Auf der Kundenkonferenz Sapphire kündigte SAP im Mai eine Kooperation mit Microsoft an. Beide Hersteller wollen künftig SAPs In-Memory-Plattform HANA auf Microsofts Cloud-Infrastruktur Azure unterstützen. Microsofts CEO Satya Nadella sagte: "Gemeinsam mit SAP schaffen wir ein neues Maß an Integration innerhalb unserer Produkte."
2016
SAP und Apple wollen gemeinsam native Business-iOS-Apps für iPhone und iPad entwickeln. Experten sehen SAPs Festlegung auf eine mobile Plattform kritisch und monieren fehlende Offenheit. Anwendervertreter reagierten überrascht und verlangten Aufklärung was die neue Mobile-Strategie bedeutet.
2015
Im Sommer verunglückt SAP-CEO Bill McDermott bei der Geburtstagsfeier seines Vaters. Er stürzt mit einem Glas auf der Treppe und verliert nach einer Operation ein Auge. Im Herbst meldet sich der US-amerikanische Manager als wieder voll einsatzfähig zurück.
2015
Im Februar stellt SAP mit S/4HANA eine neue Generation seiner Business-Software und damit den Nachfolger für die Business Suite vor. SAP definiere damit das Konzept des Enterprise Resource Planning für das 21. jahrhundert neu, pries SAP-Chef Bill McDermott die Neuentwicklung. Für den Großteil der Unternehmen dürfte das Produkt noch Zukunft bleiben, konterte die Anwendervereinigung DSAG. Die Prioritäten vieler Kunden lägen eher auf klassischen Projekten rund um das ERP-System.
2014
SAP-Technikchef Vishal Sikka gibt im Mai seinen Posten auf und wird CEO von Infosys. SAP sucht lange einen Nachfolger für Sikka, holt im November schließlich den langjährigen Microsoft-Manager Quentin Clark für diesen Posten.
2012
Die Walldorfer setzen mit dem Kauf des amerikanischen Cloud-Computing-Anbieters SuccessFactors ihren Weg ins Cloud-Geschäft fort – nachdem kurz zuvor Wettbewerber Oracle RightNow übernommen hat. Der Kaufpreis lag mit 2,4 Milliarden Euro über die Hälfte höher als der aktuelle Marktwert. Cloud-Services werden mit der SuccessFactors-Lösung vor allem im Human-Ressources-Umfeld angeboten. Außerdem schnappt sich SAP den weltweit zweitgrößten Cloud-Anbieter für Handelsnetzwerke Ariba für 3,3 Milliarden Euro.
2011
In 2011 ist das Formtief vergessen, die Walldorfer fahren die besten Ergebnisse ihrer Geschichte ein. Die Innovationsstrategie geht auf, auch wenn zwischendurch gezweifelt wurde, ob SAP seinen Kunden nicht davon-sprintet: 2011 implementieren die ersten Kunden die In-Memory-Plattform HANA, immer mehr Kunden nutzen die mobilen Lösungen, die aus dem Sybase-Deal entstanden sind.
2010
Der Paukenschlag: Hasso Plattner reißt mit dem Aufsichtsrat das Ruder herum. Der glücklose Léo Apotheker, der zuvor mit der Erhöhung der Wartungsgebühren viele Kunden vor den Kopf gestoßen hatte, muss gehen. Die neue Doppelspitze aus Bill McDermott und Jim Hagemann Snabe verspricht den Anwendern wieder mehr Kundennähe. CTO Vishal Sikka wird Vorstandsmitglied und SAP übernimmt Sybase, einen Anbieter für Informationsmanagement und die mobile Datennutzung, zum Preis von etwa 5,8 Milliarden Dollar.
2008
Mit der Erhöhung der Wartungsgebühren von 17 auf 22 Prozent und den Modalitäten des „Enterprise Support“, die viel Aufwand für die Anwender bringen, verärgert SAP seine Kunden massiv. Trotz intensiver Auseinandersetzung auf dem DSAG-Kongress bleibt SAP bei seiner Linie. Mittlerweile ist Léo Apotheker zweiter Vorstandssprecher neben Kagermann. Ende des Jahres beugt sich SAP dem Kundenwiderstand.
2008
Die größte Übernahme in der Unternehmensgeschichte: 2008 kauft SAP den Business-Intelligence-Spezialisten Business Objects für 4,8 Milliarden Euro und wird damit der bisherigen Strategie untreu, aus eigener Kraft zu wachsen. Die Integration mit der eigenen SAP-BI-Palette gestaltet sich aufwendig und wird sich über mehrere Jahre hinziehen. Die 44.000 BO-Kunden sollen dabei helfen, die Kundenzahl bis 2010 auf 100.000 zu steigern.
2007
Über viele Jahre hinweg entwickelt SAP an der SaaS-ERP-Lösung Business byDesign für kleinere Unternehmen. Rund drei Milliarden Euro wurden laut „Wirtschaftswoche“ im Entstehungsprozess versenkt. Trotz der Arbeit von 3000 Entwicklern kommt die Software Jahre zu spät. Obwohl innovativ, hat es die Lösung schwer im deutschen Markt. 2013 wird byDesign ins Cloud-Portfolio überführt.
2006
Mit „Duet“ bringen SAP und Microsoft eine gemeinsame Software auf den Markt, mit der sich MS Office einfach in SAP-Geschäftsprozesse einbinden lassen soll. 2006 wird auch die Verfügbarkeit der neuen Software SAP ERP angekündigt, die auf dem SOA-Prinzip (Service oriented Architecture) basiert.
2003
Abschied des letzten SAP-Urgesteins: Hasso Plattner zieht sich aus dem Vorstand zurück und geht in den Aufsichtsrat, Henning Kagermann wird alleiniger Vorstandsprecher. SAP stellt die Integrationsplattform NetWeaver vor, die Basis für künftige Produkte sein soll. Die Mitarbeiterzahl liegt jetzt bei 30.000.
2002
Der ERP-Hersteller will das bisher vernachlässigte Feld der KMUs nicht mehr dem Wettbewerb überlassen. Auf der CeBIT 2002 stellt SAP mit Business One eine ERP-Lösung für kleine bis mittelständische Unternehmen mit rund fünf bis 150 Mitarbeitern vor. Doch einfach haben es die Walldorfer in diesem Marktsegment nicht. Zu stark haftet der Ruf an den Walldorfern, hauptsächlich komplexe und teure Lösungen für Konzerne zu bauen.
1999
Die New Economy boomt und der E-Commerce hält Einzug bei SAP: Plattner kündigt die neue Strategie von mySAP.com an. Die Software soll Online-Handels-Lösungen mit den ERP-Anwendungen auf Basis von Webtechnologie verknüpfen. Im Vorjahr hatten die Walldorfer ihr Team um die Hälfte verstärkt, jetzt arbeiten 20.000 Mitarbeiter bei SAP. Weil die Kunden beim Umstieg mehr zahlen sollen, gibt es längere Zeit Gegenwind, schließlich werden die Internet-Schnittstellen auch im Rahmen der R/3-Wartung geboten. Derweil ist die Zentrale gewachsen.
1997
Die SAP-Anwender organisieren sich in der Deutschsprachige SAP-Anwendergruppe e.V. (DSAG), um ihre Interessen gemeinsam besser vertreten zu können. Laut Satzung ist das Ziel des Vereins die „partnerschaftliche Interessenabstimmung und Zusammenarbeit zwischen SAP-Softwarebenutzern und SAP zum Zweck des Ausbaus und der Verbesserung der SAP-Softwareprodukte“.
1997
Der ERP-Hersteller feiert sein 25. Jubiläum, zum Gratulieren kommt Bundeskanzler Helmut Kohl, der im Jahr darauf von Gerhard Schröder abgelöst wird. Der Umsatz liegt bei über sechs Milliarden Mark, das Geschäftsergebnis erstmals über der Milliarden-Grenze. Mehr als zwei Drittel werden im Ausland erwirtschaftet. SAP beschäftigt knapp 13.000 Mitarbeiter und geht an die die Börse in New York (NYSE).
1995
1995 versucht der ERP-Anbieter erstmals, in Zusammenarbeit mit Systemhäusern den Mittelstandsmarkt zu beackern. Es sollte noch einige Jahre dauern, bis sich mehr mittelständische Unternehmen auf die komplexe Software einlassen wollten. Mit knapp 7.000 Mitarbeitern erwirtschaftet SAP einen Umsatz von 2,7 Milliarden Mark, mehr als doppelt so viel wie noch zwei Jahre zuvor. Rudolf Scharping, damals noch SPD-Parteivorsitzender, kommt zu Besuch.
1993
Shake-Hands zwischen Plattner und Gates. SAP schließt ein Kooperationsabkommen mit Microsoft ab, um das System R/3 auf Windows NT zu portieren. SAP kauft zudem Anteile am Dokumentenmanagement-Anbieter IXOS. Zum ersten Mal überschreiten die Walldorfer die Milliardengrenze beim Umsatz.
1992
Seit 1992 wird R/3 ausgeliefert. Die Walldorfer hatten die Software für die AS/400 von IBM konzipiert, nach Performance-Problemen wich man auf Unix-Workstations mit Oracle-Datenbank im Client-Server-Prinzip aus. Das internationale Geschäft wächst: 1992 verdient die SAP im Ausland schon knapp die Hälfte von dem, was sie in Deutschland einnimmt. Der Gesamtumsatz beläuft sich auf 831 Millionen Mark. 3157 Mitarbeiter sind jetzt für SAP tätig.
1991
In diesem Jahr steigt Henning Kagermann (rechts im Bild), der seit 1982 die Entwicklungsbereiche Kostenrechnung und Projektcontrolling verantwortet, in den Vorstand auf.
1990
SAP übernimmt das Softwareunternehmen Steeb zu 50 Prozent und das Softwarehaus CAS komplett, um das Mittelstandsgeschäft zu verstärken. Die Mauer ist gefallen und die Walldorfer gründen gemeinsam mit Siemens Nixdorf und Robotron die SRS in Dresden. Die Berliner Geschäftsstelle wird eröffnet und SAP hält seine erste Bilanzpressekonferenz ab.
1988
SAP geht an die Börse: Hasso Plattner am ersten Handelstag der SAP-Aktie.
1987
Der erste Spatenstich: Dietmar Hopp startet 1987 den Bau der SAP-Zentrale in Walldorf.
1983
1983 zählt das Unternehmen 125 Mitarbeiter und erwirtschaftet 41 Millionen Mark im Jahr. Nach der Fibu adressiert SAP auch das Thema Produktionsplanung und -steuerung. Beim Kunden Heraeus in Hanau wird zum ersten Mal RM-PPS installiert. Im Jahr zuvor hatten die Gründer von SAP (v.l.: Dietmar Hopp, Hans-Werner Hector, Hasso Plattner, Klaus Tschira) zehnjähriges Jubiläum gefeiert.
1979
SAP setzte sich mit dem Datenbank- und Dialogsteuerungssystem der IBM auseinander: Das war der Auslöser eine die Neukonzeption der Software und Grundstein für SAP R/2. Aus den Realtime-Systemen entstand in den 70iger Jahren das Online Transaction Processing (OLTP). So sahen Anfang der 80iger Jahre die Arbeitsplätze bei SAP aus.
1976
Die Software sollte Lohnabrechnung und Buchhaltung per Großrechner ermöglichen. Anstatt auf Lochkarten wurden die Daten per Bildschirm eingegeben – das nannte sich Realtime und das „R“ blieb über Jahrzehnte Namensbestandteil der Lösungen. Weil die Software erstmals nicht nur für ein Unternehmen entwickelt wurde, sondern universeller einsetzbar war, gilt SAP als Miterfinder des Standardsoftware-Ansatzes. Aber auch der Fußball kam nicht zu kurz: Das Computerteam mit Hasso Plattner und Dietmar Hopp auf dem Feld.
1972
1972 gründen die fünf ehemalige IBM-Mitarbeiter Claus Wellenreuther, Hans-Werner Hector, Klaus Tschira, Dietmar Hopp und Hasso Plattner das Unternehmen „SAP Systemanalyse und Programmentwicklung“. Sie wollen eine Standardanwendungssoftware für die Echtzeitverarbeitung schaffen, die sich für unterschiedliche Unternehmen nutzen lässt und die Lochkarten ablöst.