Zwei Wege - Ein Ziel

Top-Down versus Bottom-Up Cloud-Strategie

12.03.2015 von René Büst
Renommierte Unternehmen haben viele Legacy- beziehungsweise Enterprise-Applikationen im Einsatz, die sich in ihrer jetzigen Form nicht einfach in die Cloud überführen lassen. Für viele Entscheider steht damit die Frage im Raum, ob sie eine Top-Down- oder Bottom-Up-Strategie verfolgen sollen.
Ob sich ein Unternehmen für eineTop-Down oder Bottom-Up Cloud-Strategie entscheidet, hängt von der individuellen Situation und dem aktuell vorhandenen Wissensstand ab.
Foto: Alexey Rozhanovsky, Shutterstock.com

Mit dem stetig steigenden Reifegrad der Cloud wird auch die Frage nach geeigneten Anwendungsfällen (Use Cases) in der Cloud immer größer. Nachdem Unternehmen wie Pinterest, Airbnb, Foursquare, Wooga oder Netflix gezeigt haben, wie sich Cloud-Infrastrukturen und -Plattformen nutzen lassen, um neue, gar disruptive Geschäftsmodelle zu starten, liebäugeln nun auch immer mehr Unternehmenslenker und CIOs damit, von den Eigenschaften der Cloud zu profitieren.

Eine IT-Strategie hat die Aufgabe, die Unternehmensstrategie bestmöglich zu unterstützen. Im Rahmen der zunehmenden Digitalisierung von Gesellschaft und Ökonomie steigt der Wertbeitrag und die Bedeutung der IT somit maßgeblich an. Das heißt, dass der Einfluss der IT auf die Unternehmensstrategie in Zukunft noch wichtiger wird. Wenn wir unterstellen, dass das technologische Fundament der Digitalen Transformation Cloud-Infrastrukturen, -Plattformen und -Services sind, dann ist es folgerichtig, dass die Cloud-Strategie einen unmittelbaren Einfluss auf die IT-Strategie eines Unternehmens hat und haben muss.

Somit stellt sich die Frage, inwieweit also Cloud-Services die Unternehmensstrategie direkt oder indirekt unterstützen können. Das muss sich nicht zwangsläufig in harten Zahlen widerspiegeln. Wenn ein Unternehmen es beispielsweise auf Basis von Software-as-a-Service schafft, dass seine Mitarbeiter flexibler arbeiten, dann hat es etwas für die Produktivität seiner Mitarbeiter getan, was sich mittelfristig positiv auf das Unternehmen auswirkt. Allerdings ist festzuhalten, dass insbesondere Cloud-Infrastrukturen und -Plattformen nur als Basis dienen, auf der Unternehmen die Möglichkeit erhalten, Innovation zu schaffen. Die Cloud ist nur ein Vehikel.

Top-Down versus Bottom-Up Cloud-Strategie
Foto: Crisp Research AG

Um ein Verständnis für den Einfluss des Cloud Computing auf die Unternehmensstrategie zu erhalten, lassen sich folglich zwei Ansätze nutzen:

Beim Top-Down Ansatz werden die Möglichkeiten des Cloud Computing für ein Unternehmen analysiert und daraus ein konkreter Use Case definiert. Also eine Innovation beziehungsweise eine Idee kreiert, die das Cloud Computing erst ermöglicht. Anschließend wird auf dieser Basis die Cloud-Strategie erstellt.

Beim Bottom-Up Ansatz wird ein bereits existierender Use Case mit den Möglichkeiten des Cloud Computing umgesetzt. Das bedeutet, es wird analysiert, wie die Cloud dabei helfen kann, die Anforderungen des Use Cases bestmöglich zu unterstützen. Daraus leitet sich dann die jeweilige Cloud-Strategie ab.

Der Top-Down-Ansatz bringt in der Regel neue Geschäftsmodelle oder disruptive Ideen hervor. Die Entwicklung erfolgt vollständig auf der grünen Wiese in der Cloud und bleibt meistens Innovatoren vorbehalten. Der Bottom-Up-Ansatz verfolgt das Ziel, ein bestehendes System oder eine vorhandene Applikation in die Cloud zu überführen oder dort neu zu entwickeln. Hierbei geht es primär darum, eine bereits existierende IT-Ressource am Leben zu erhalten und bestenfalls zu optimieren.

Bottom-Up: Migration von Enterprise Applikationen

Renommierte Unternehmen verfolgen bevorzugt eine Bottom-Up Strategie, um möglichst schnell von den Vorzügen der Cloud zu profitieren. Hierbei steckt der Teufel jedoch im Detail. Legacy oder klassische Enterprise Applikationen sind nicht für den Betrieb auf verteilten Infrastrukturen, also Cloud-Infrastrukturen, entwickelt worden. Das bedeutet, dass diese von Natur aus nicht "in die Breite" (Scale-Out) skalieren sondern maximal einen Scale-Up auf einem einzigen System überstehen, indem zum Beispiel mehrere Java-Threads verwendet werden. Wenn dieses System allerdings ausfällt, dann ist die Applikation auch nicht mehr verfügbar.

Applikationen, die in der Cloud betrieben werden sollen müssen daher auch die Eigenschaften der Cloud berücksichtigen und dafür entwickelt werden. Die Herausforderung: Unternehmen fehlt es weiterhin an geeignetem Personal mit den notwendigen Cloud-Skills. Weiterhin beschäftigen sich Unternehmen intensiv mit dem Thema der "Data Gravity". Hierbei geht es um die Unbeweglichkeit der Daten. Entweder weil die Datenmenge zu groß ist, um sie in die Cloud zu verlagern oder weil rechtliche Rahmenbedingungen es erforderlich machen, die Daten im eigenen Besitz zu behalten.

Storage Trends 2015 - Hybrid-Cloud-Anforderungen für die Storage-Infrastruktur
Dr. Georgios Rimikis, Senior Manager Solutions Strategy, HDS
„Über RESTful Protokolle könnten Daten in einer Public Cloud gespeichert werden, während aktive Metadaten hinter der Firewall in der Private Cloud residieren."
Vincenzo Matteo, Disk Product Management Director, Oracle
"Eine hochwertige Hybrid-Cloud-Infrastruktur setzt eine leistungsstarke Application Engineered Storage Lösung (AES) inklusive OpenStack Cloud API Support vor Ort voraus. AES senken per Automatisierung Verwaltungskosten und bieten zusätzlich anwendungsspezifisch speziell abgestimmte Funktionen."
Ralf Colbus, Leading Storage Professional, IBM Deutschland
"Zentral muss die Möglichkeit bestehen, Daten nahtlos von einem Cloud-Provider zu einem anderen zu verschieben. Dies rückt etwa dann in den Fokus, wenn ein Cloud Provider die definierten Service Level Agreements (SLA) nicht mehr halten kann."
Johannes Wagmüller, Director Systems Engineering, NetApp
"Unternehmen benötigen eine Datenmanagementplattform, die über die Clouds der verschiedenen Anbieter hinweg funktioniert. Erst mit einer solchen Lösung gelingt eine Verbindung zwischen On-Premise-Systemen sowie Ressourcen aus der Private und Public Cloud."
Dr. Stefan Radtke, CTO Isilon Storage Division, EMC Deutschland
„Ein weiteres sehr wichtiges Element ist die Bereitstellung eines Service-Kataloges für die Endbenutzer. Dieser muss sehr einfach handhabbar sein, damit die Akzeptanz genauso hoch ist wie bei bedienerfreundlichen Cloud-Anbietern. Das setzt ein Portal für die Administration voraus, in dem Services zentral definiert und gewartet werden können.“
Hans Schramm, Field Product Manager Enterprise, Dell
"Die Storage-Infrastruktur sollte für neue Technologien offen sein und beispielsweise die Kombination von unterschiedlichen Storage-Technologien in einem System oder auch Hyperconverged-Lösungen, die zunehmend auf den Markt kommen, unterstützen."

Sowohl das fehlende Cloud-Wissen als auch die "Data Gravity" haben Anbieter erkannt und versuchen mit neuen Lösungen die Bottom-Up-Strategie zu unterstützen. So ermöglicht es NetApp mit seinem NetApp Private Storage für Unternehmen die "Data Gravity" zwischen Public Cloud-Services und dem eigenen Kontroll-Level so optimal wie möglich auszubalancieren.
Um Governance- und Compliance-Richtlinien zu erfüllen, sind Unternehmen darauf angewiesen, die Daten unter der eigenen Kontrolle zu behalten und die Cloud-Services bei Bedarf in einem Hybrid-Cloud-Modell darauf zugreifen zu lassen. Die Daten befinden sich in diesem Szenario somit nicht unmittelbar in der Cloud des Anbieters. Stattdessen greifen die Cloud-Services lediglich während der Verarbeitung über eine direkte Verbindung auf die Daten zu. Der NetApp Private Storage ermöglicht dieses Szenario in Kooperation mit den Amazon Web Services. Damit lassen sich zum Beispiel Amazon EC2 Instanzen nutzen, die auf die Daten in einem Colocation-Rechenzentrum von Equinix mittels einer dedizierten AWS Direct Connect-Verbindung zugreifen.

Eine weitere Herausforderung mit nicht Cloud-fähigen Enterprise Applikationen in der Public Cloud besteht auf Datenebene, wenn die Daten die Cloud eines Anbieters wieder verlassen sollen. Das liegt daran, dass Cloud-native Speichertypen wie Object Storage und Block Storage nicht mit gängigen on-Premise Speicher-Kommunikationsprotokollen wie iSCSI, NFS und CIFS kompatibel sind. NetApp Cloud ONTAP versucht hierfür in Kooperation mit Amazon AWS Abhilfe zu schaffen. Als eine Art NAS-Storage werden die Daten verschlüsselt auf einem Amazon Elastic Block Storage (EBS)-SSD gespeichert. Cloud ONTAP dient in diesem Fall als Storage Controller und sorgt für den Zugriff von nicht Cloud-fähigen Enterprise Applikationen auf die Daten. Durch die Kompatibilität mit bekannten Kommunikationsprotokollen lassen sich die Daten ebenfalls einfacher bewegen.

VMware richtet sich mit vCloud Air gezielt an Unternehmen mit bestehenden Enterprise Applikationen. Die vCloud Air Public Cloud Plattform basiert auf der vSphere-Technologie und ist kompatibel zu on-Premise vSphere-Umgebungen. Damit lassen sich vorhandene Workloads und virtuelle Maschinen auf die VMware Public Cloud und wieder zurück in die eigene IT-Infrastruktur verschieben.

ProfitBricks versucht Unternehmen mit dem Konzept des Live Vertical Scaling zu unterstützen. In diesem Fall lassen sich einzelne virtuelle Server im laufenden Betrieb vertikal um weitere Ressourcen - zum Beispiel die Anzahl an CPU-Kernen oder RAM - erweitern, ohne einen Neustart des Servers vorzunehmen. Ohne Anpassung der betriebenen Applikation lässt sich damit die Leistung eines virtuellen Servers erhöhen. Gute Erfahrungen wurden insbesondere mit dem LAMP-Stack (Linux, Apache, MySQL, PHP) gemacht, da zum Beispiel eine MySQL-Datenbank ohne weitere Anpassungen und einen Neustart des Systems die neuen Ressourcen erkennt und in der Lage ist, die hinzugefügte Leistung direkt zu nutzen. Um dies zu ermöglichen, hat ProfitBricks auf Betriebssystem- und Hypervisor-Ebene Modifikationen vorgenommen, die für den Nutzer jedoch transparent bleiben. Dieser muss lediglich ein zur Verfügung gestelltes Referenz-Betriebssystemimage einsetzen, das die Live Vertical Scaling-Funktionalität beinhaltet.

Ein ausgewählter Bottom-Up Use Case von Enterprise Applikationen in der Public Cloud findet sich u.a. bei Amazon Web Service, der allerdings auch zeigt, das Systemintegratoren in der Cloud eine hohe Bedeutung zugesprochen werden muss.

Die Hotelkette Kempinski hat Großteile ihrer Kernanwendungen und Abteilungen, darunter Finanzen, Buchhaltung und den Schulungsbereich auf die Amazon Cloud-Infrastruktur migriert. Zusammen mit dem Systemintegrator Cloudreach wurde hierzu eine VPN-Verbindung aus dem eigenen Rechenzentrum in Genf zur Amazon Cloud aufgebaut, über welche die 81 Hotels weltweit nun mehrheitlich versorgt werden. Kempinski plant zudem die vollständige Schließung des eigenen Rechenzentrums und damit seine IT-Infrastruktur zu 100 Prozent in die Public Cloud zu überführen.

Ausgewählte Dienste von AWS
Elastic Compute Cloud
EC2 stellt virtuelle Rechner bereit, die über eine Web-Oberfläche administriert werden. So lassen sich beispielsweise (Server-)Instanzen auf Basis ausgewählter Images starten, die Zugangsberechtigungen verwalten und die jeweils benötigten Ressourcen zuteilen
Simple Storage Service
Bei Amazon S3 handelt es sich um mietbaren Online-Speicher. Er bietet eine einfache Web-Service-Schnittstelle zum Speichern und Abrufen von Daten, und zwar nicht nur von EC2 aus, sondern von jedem Rechner im Internet.
Elastic Block Store
EBS stellt hochverfügbare Volumes für EC2-Instanzen bereit, die innerhalb der virtuellen Maschinen als Gerät angesprochen werden können.
Identity and Access Management
IAM regelt den Zugriff auf die meisten AWS-Dienste, darunter EC2, S3, SimpleDB, Auto Scaling, CloudFormation oder CloudWatch. Wie andere Verzeichnisdienste führt es die Konten für Benutzer, die man in Gruppen organisieren kann. Über Identity Federation unterstützt es ein Single-Sign-on für Konten eines Active Directory.
Virtual Private Cloud
VPC stellt via VPN eine sichere Verbindung zwischen der internen IT eines Unternehmens und einem isolierten Netzwerkbereich bei Amazon her. Es erlaubt die Anwendung von internen Sicherheitssystemen (Firewalls, Intrusion Detection etc.) auf die AWS-Ressourcen.
Relational Database Service
RDS ist ein Web-Service zum Einrichten und Betreiben einer relationalen Datenbank in der Cloud. Er bietet vollen Zugriff auf die Funktionen von MySQL und Oracle 11g. Im Gegensatz zu einer Datenbank, die man selbst in einer EC2-Instanz betreibt, übernimmt Amazon bei RDS das Patch-Management und das Backup.
DynamoDB
Dieser Service bietet eine NoSQL-Datenbank in der Cloud, die unbegrenzt große Datenvolumina automatisch partitionieren und auf mehrere Server verteilen kann. Außerdem repliziert sie die Daten zwischen mindestens drei der international verteilten Rechenzentren von Amazon, um Ausfallsicherheit zu gewährleisten.
CloudSearch
Dabei handelt es sich um eine Suchmaschine, die über ein einfaches Web-API in die eigenen Anwendungen eingebunden wird und die zu S3 hochgeladenen Dokumente durchsuchen kann.
Simple Workflow Service
Er gibt Entwicklern die Möglichkeit, Abläufe und komplexere Geschäftslogiken in Cloud-Anwendungen abzubilden. Die Workflows lassen sich auch von Applikationen abarbeiten, die in den Unternehmen laufen.
CloudWatch
Amazon offeriert damit einen Monitoring-Service, der EC2-Instanzen, EBS-Volumes, Elastic Load Balancers und RDS-Instanzen in Echtzeit überwachen kann.
CloudFormation
Dieser Dienst eignet sich dafür, eine Sammlung von AWS-Komponenten zu definieren und sie automatisch in einer vorbestimmten Reihenfolge bereitzustellen.
Elastic Beanstalk
Es handelt sich dabei um einen Mechanismus für das Deployment von Java-Applikationen. Er kümmert sich etwa um das Kapazitäts-Management, Load Balancing, Auto Scaling und Health Monitoring.

Top-Down: Start auf der grünen Wiese

Im Gegensatz zum Erhalt von Enterprise Applikationen verfolgt ein Neustart auf der grünen Wiese die Top-Down Strategie. In diesem Fall wird eine Applikationen oder gar ein Geschäftsmodell vollständig neu entwickelt und das System an die Anforderungen und Eigenschaften der Cloud angepasst. Man spricht in diesem Zusammenhang auch von einer Cloud-nativen Applikation, welche die Skalierbarkeit und Hochverfügbarkeit von Beginn an mit berücksichtigt.

Diese Anwendung ist eigenständig in der Lage weitere virtuelle Maschinen hochzufahren, wenn mehr Leistung benötigt wird beziehungsweise die nicht mehr benötigten virtuellen Maschinen auch selbstständig wieder herunterzufahren. Genauso verhält es sich, wenn eine virtuelle Maschine in einen fehlerhaften Zustand gerät. Auch hier sorgt die Anwendung selbst dafür, dass entsprechend eine virtuelle Maschine als Ersatz hochgefahren wird und die defekte Maschine aus dem System verschwindet. Die Anwendung ist daher in der Lage, auf jeder beliebigen virtuellen Maschine (VM) einer Cloud-Infrastruktur zu funktionieren. Das liegt unter anderem daran, dass jederzeit eine VM ausfallen kann und eine andere neu hochgefahren werden muss. Hinzu kommt, dass ebenfalls die Daten, die von einer Anwendung verarbeitet werden, sich zwangsläufig nicht mehr an einem einzigen Ort befinden, sondern über die Cloud hinweg verteilt gespeichert sind.

Dieser Komplexität sind sich Startups und innovative Unternehmen bewusst, wie die folgenden Top-Down Use Cases zeigen:

Netflix gehört zu den Leuchtturm Use Cases auf der Amazon Cloud. Der Video-Streaming Anbieter macht sich die Eigenschaften der Cloud bis ins kleinste Detail zu nutze, was sich in einer hohen Verfügbarkeit und Performanz widerspiegelt. Als einer der Pioniere auf der Amazon Infrastruktur hat Netflix sich bereits von Beginn an eigene Tools -Netflix Simian Army - geschrieben, um die Komplexität zu beherrschen.

Die jüngste Vergangenheit hat allerdings gezeigt, dass innovative Geschäftsmodelle zwangsläufig nicht in einer Public Cloud umgesetzt werden müssen und dass der grüne Wiese Ansatz nicht immer nur Startups vorbehalten bleibt.

Runtastic ist ein Anbieter von Apps für Ausdauer, Kraft & Toning, Gesundheit & Wellness sowie Fitness und hilft den Nutzern dabei ihre Gesundheits- und Fitnessziele zu erreichen. Das Unternehmen hat ein riesen Wachstum zu verzeichnen. Nach 100.000 Downloads im Jahr 2010 und 50 Millionen Downloads im Jahr 2013 haben die Downloadzahlen bis heute die 110 Millionen-Grenze überschritten. Hinzu kommen weltweit 50 Millionen Nutzer. Die Zahlen sprechen grundsätzlich für ein ideales Szenario für eine Public Cloud. Runtastic hat sich jedoch aus technischen Gründen für T-Systems entschieden und betreibt seine Infrastruktur in zwei Rechenzentren in einem Colocation-IaaS Hybrid Modell.

Mit dem "Leica Fotopark" hat der Kamerahersteller Leica im vergangenen Jahr einen Online-Fotodienst für die Verwaltung und Bearbeitung sowie das Drucken und Teilen von Photos veröffentlicht. Für die Entwicklung und den Betrieb der Infrastruktur ist der Managed Cloud Anbieter Claranet zuständig, der den "Leica Fotopark" auf einer Scale-Out-Umgebung bestehend aus einer Converged Infrastructure und einem Software Defined Storage betreibt. Als agiles Betriebskonzept wird hier zudem auf ein DevOps-Modell gesetzt.

Grüne Wiese vs. Enterprise Applikationen: The Bottom-Line

Ob sich ein Unternehmen nun für eine Top-Down oder Bottom-Up Cloud-Strategie entscheidet, hängt von der individuellen Situation und dem aktuell vorhandenen Wissensstand ab. Fakt ist, dass beide Varianten dabei helfen, die IT-Infrastruktur, die IT-Organisation und das gesamte Unternehmen agiler und skalierbarer zu gestalten. Allerdings entstehen nur mit einem Top-Down-Ansatz Innovationen und neue Geschäftsmodelle. Jedoch muss man auch berücksichtigen, dass zum Beispiel für die Entwicklung und den Betrieb der Netflix-Plattform ein ausgezeichnetes Verständnis von Cloud-Architekturen vorhanden sein muss, was im Markt derzeit noch sehr rar gesät ist.

Foto: Crisp Research AG

Unabhängig von ihrer Strategie und insbesondere im Hinblick auf das Internet of Things (IoT) und der dafür notwendigen Digital Infrastructure Fabric (DIF) sollten sich Unternehmen auf Cloud-Infrastrukturen konzentrieren. Diese bieten die idealen Voraussetzungen für den Backend-Betrieb von IoT-Lösungen, sowie für den Austausch mit Sensoren, Embedded Systems und mobilen Applikationen. Weiterhin stehen bei einigen wenigen Anbietern bereits unterstützende Higher-Level-Services für die Entwicklung zur Verfügung, die den Time-to-Market verkürzen können. Mit einer weltweit umspannenden Infrastruktur von Rechenzentren hilft die globale Skalierbarkeit zudem dabei schnell in neue Ländermärkte zu expandieren. (bw)