Die Servervirtualisierung im Servicerechenzentrum hat den Providern mehr Flexibilität und eine bessere Auslastung der Ressourcen ermöglicht. Mit dem Software-defined Data Center (SDDC) wird dieser Ansatz weitergedacht und um Storage- und Netzwerkvirtualisierung erweitert. Provider können auf diese Weise individuelle Cloud-Leistungen innerhalb kürzester Zeit einheitlich bereitstellen.
Ein Servicerechenzentrum war bis vor wenigen Jahren eine Ansammlung von Hardware- und Softwarekomponenten, die für die konkreten Anforderungen eines Auftraggebers konfiguriert, vernetzt und bereitgestellt wurden. Mit immer mehr Anwendungen und komplexen IT-Strukturen der Unternehmen wurde dieser Ansatz zu unflexibel. Der jeweilige Einrichtungs- und Installationsaufwand wurde ohne Automatisierungen und zentrale Steuerung sehr hoch. Besonders der steigende Bedarf der Unternehmen an flexiblem Wachstum und Skalierung ließ sich auf diese Weise nicht decken; es war zeitaufwendig und teuer, zusätzliche Komponenten zu integrieren. Mit diesem Konzept ließen sich die steigenden Anforderungen der Anwender nach "Kapazität-on-Demand" nicht mehr erfüllen.
Für die Anbieter von Rechenzentrumsleistungen war aus den gleichen Gründen die Servervirtualisierung interessant: Herkömmliche und hardwarelastige Ansätze ließen sich in flexiblere und virtuelle Lösungsmodelle umwandeln. Das Ziel der Servervirtualisierung besteht darin, die vorhandenen Computerressourcen bestmöglich auszulasten und bedarfsweise kundenübergreifend zu nutzen.
Die unterschiedlichen Workloads von mehreren Rechenzentrumsinfrastrukturen können beispielsweise durch das Verschieben logischer Server so verteilt werden, dass alle Komponenten optimal ausgelastet sind. Das Management der virtualisierten Umgebungen erlaubt es zusätzlich, Ausfallsicherheit, Performance, Sicherheit und Stabilität bei deutlich niedrigeren Betriebskosten besser umzusetzen als bei Plattformen ohne Virtualisierungsanteil.
Das SDDC - Virtualisierung weiterdenken
Software-defined Data Center (SDDC) greifen die Idee der Servervirtualisierung auf und denken konsequent weiter: War die Virtualisierung bisher auf die Servervirtualisierung beschränkt, werden nun alle Komponenten eines Rechenzentrums unter dieses Konzept gestellt. Es werden also auch Storage- und Netzwerksysteme virtualisiert und gemeinsam mit der Servervirtualisierung gesteuert. Um individuelle Cloud Services einheitlich definieren und betreiben zu können, bedarf es also der ganzheitlichen Betrachtung der dafür benötigten Compute/RAM-, Storage- und Network-Ressourcen.
Mit dem SDDC-Ansatz haben sich Service-Provider im Cloud Computing neue Geschäftsgebiete erschlossen. Anbieter wie Amazon, Google oder Microsoft haben vor einigen Jahren damit begonnen, ihre Ressourcen auf Basis von Virtualisierungstechnologien anderen Nutzern gegen Entgelt zur Verfügung zu stellen. Bei diesen Anbietern können Unternehmen heute schnell und ohne großen Aufwand Rechenkapazitäten oder benötigten Speicherplatz buchen.
Klassisches (Public) Cloud Computing war so im Grunde immer auch schon ein SDDC: Es können auf der jeweiligen Plattform virtuelle Maschinen mit unterschiedlicher Ausstattung oder mit einer definierten Softwarekonfiguration inklusive der Netzanbindung aufgesetzt werden. Anwender können das Ganze im Self-Service-Verfahren zu vergleichsweise geringen Kosten buchen, alles funktioniert schnell und automatisch.
Wenn dieses Konzept, trotz großen medialen Zuspruchs, von den Unternehmen bis heute dennoch nur zögerlich angenommen wird, so deshalb, weil es sich dabei um ein meist stark standardisiertes Angebot handelt. Flexibel ist das Konzept nur in einem engen Korridor. Im Übrigen ist die Konstellation vorwiegend statisch: Der Nutzer kann beispielsweise die Zahl der Server, den benötigen Speicherplatz und die Softwareumgebung wählen; eine an seine individuellen Anforderungen angepasste Dienstumgebung muss er sich selbst einrichten.
Wer innerhalb dieser Cloud-Services Zugriff auf die gespeicherten Daten erhält, ist in vielen Fällen für den Nutzer nicht transparent. Die Spionageaffäre des vergangenen Jahres hat die grundlegenden Grenzen dieses Ansatz noch einmal deutlich gemacht: Als Nutzer des Services kann man hier nicht festlegen, wo sich die Daten aufhalten dürfen oder welche Rechtsprechung den Zugriff Dritter auf die gespeicherten Daten regelt. Ein weiterer wichtiger Punkt sind die Service Level Agreements (SLA), die die Güte und Verfügbarkeit dieser Cloud-Services regeln. Manche SLAs erfordern es, dass Systeme und Daten geografisch getrennt, in sogenannten Verfügbarkeitszonen, redundant vorgehalten werden.
Die Anwender befinden sich also in einem Dilemma: Sie können schnell und einfach ein Angebot wählen, dessen Standards sie sich unterwerfen müssen, oder sie können die maßgeschneiderte Lösung eines Service-Providers wählen, die, wie jede Maßanfertigung, nicht nur ihren Preis hat, sondern auch nicht gleich fertig zum Mitnehmen bereitliegt - Kaufhaus versus Savile Row.
SDDC nach Maß
Mit dem SDDC-Konzept können Service-Provider nun ihre Angebote aber so gestalten, dass sie beide Seiten erfüllen. Da ein SDDC keine statische Infrastruktur ist, kann ein Software-Layer geschaffen werden, der die individuellen Anforderungen Schritt für Schritt in eine technische Konfiguration umsetzt. Alle Server-, Storage- und Netzwerk-Ressourcen werden auf dieser Ebene durch ein entsprechendes automatisiertes Management so konfiguriert, dass am Ende ein "individueller" Service bereitgestellt wird; beim Provider Nexinto heißt diese Engine beispielsweise Electronic Workflow System (EWS). Zusätzliche Tools können sich aus einer Systemdatenbank Informationen über benötigte Parameter selbst beschaffen.
Der gesamte Prozess der Konfiguration einer Infrastruktur sieht dann etwa folgendermaßen aus:
Am Anfang steht - wie bisher - ein Gespräch mit dem Consulting des Providers zur Aufnahme der Anforderungen; hier werden Aufgaben für Technik, Software, Monitoring, Abrechnung oder Lifecycle-Management festgelegt, also alles, was für den Betrieb einer Lösung nötig ist und dann auch in die SLAs und die Kostenkalkulation eingeht.
Im System des Providers gibt es einen logischen Layer, der von der Technik abstrahiert und die Informationen über die benötigten CPU-Kerne, das Storage-Volumen oder die Netzwerkadressen aufnimmt und über APIs an die darunterliegende Infrastruktur weiterleitet. Mit dem Software-Layer wird im zweiten Schritt bestimmt, welche RAM- und Disk-Kapazitäten benötigt werden.
Über eine Automatisierungs- und Orchestrierungs-Engine werden dann in einer virtualisierten Umgebung Server-, Storage- und Netzwerksysteme konfiguriert. Weitere APIs stellen das abgestimmte Betriebssystem bereit oder übernehmen die Installation von Applikationen und Standarddiensten.
Hierzu werden die Anforderungen des Kunden abgestimmt und in logische Funktionalitäten umgesetzt, die mittels API jederzeit abgerufen werden können. Anstatt für jeden Kunden eine eigene Infrastruktur zu definieren und zu implementieren, werden die Definitionen in den Software-Layer gepackt und sind damit für künftige Fälle wiederverwendbar. Der Software-Layer wächst damit von Projekt zu Projekt.
Im Prozess werden nicht nur die Ressourcen der Infrastruktur bestimmt, sondern auch die sonstigen Funktionen bereitgestellt, die man für den Betrieb benötigt, also Performance-, Kapazitäts- und Availability-Management. Ziel ist ein ganzheitliches Lifecycle-Management des einzelnen Services und aller beteiligten Ressourcen, um beispielsweise Engpässe oder eine Überlastung rechtzeitig zu erkennen.
Die durch dieses Verfahren erreichte Automatisierung der Konfiguration der Infrastruktur sorgt für hohe Effizienz und niedrige Kosten. Vor allem lassen sich die Ressourcen auf diese Weise in sehr kurzer Zeit bereitstellen: Von den Anforderungen eines definierten Services bis zur Bereitstellung in der virtuellen Kundenumgebung vergehen so oft nur Minuten.
Damit können Service-Provider individuelle Lösungen erstellen, die in puncto Schnelligkeit mit den gängigen Cloud-Angeboten konkurrieren. Im Unterscheid dazu bieten sie aber die volle Flexibilität einer individuellen Konfiguration und zwingen den Anwender nicht unter einen vorgegebenen Standard. So lassen sich also beispielsweise kurzfristig Cloud-Lösungen implementieren, die dezidierte Orte für die Verarbeitung und Speicherung von personenbezogenen Daten berücksichtigen. Setzt sich das Verfahren des automatisierten SDDC durch, so könnte das Cloud Computing auch in den Bereichen Fuß fassen, die ihm bisher verschlossen waren. (hal)