Next Generation IT für virtuelle Umgebungen

Hyper Converged Infrastructure - ein Überblick

18.07.2016 von Thomas Drilling
Virtualisierung, Cloud und Big Data zwing Unternehmen herkömmliche IT-Infrastrukturen zu hinterfragen. Der steigende Bedarf an Shared-Storage, skalierbarer und an Workloads angepasster IT stellt aber auch IT-Anbieter vor neue Herausforderungen. Hyper Converged Systeme entpuppen sich als Alternative zu klassischen IT-Infrastrukturen in virtuellen Umgebungen.

Lässt man die Silbe "Hyper" zunächst außer Acht, ist eine konvergente Infrastruktur nichts anderes, als eine Appliance, die essentielle Data-Center-Komponenten in einem einzigen Gerät zusammenführt und sich besonders komfortabel zentral verwalten lässt. Diesem prinzipiellen Vorteil steht der Nachteil gegenüber, dass sich der Kunde auf einen einzigen Anbieter festlegt, der vorkonfigurierte Hardware und Software in einer einzigen Umgebung liefert. Insofern sind Konvergente Infrastruktur (CI) zunächst einmal nur ein Konzept für das Data Center Infrastructure Management (DCIM).

Eine konvergente Infrastruktur vereinigt sämtliche elementaren Data-Center-Komponenten in einer zentralen Appliance mit dem Ziel, Kompatibilitäts-Probleme zu reduzieren und das Verwalten von Servern, Storage-Systemen und Netzwerk-Komponenten zu vereinfachen. Als Nebeneffekt verringert das Zusammenführen von Server-, Storage- und Netzwerk-Technik theoretisch auch die Kosten für Verkabelung, Energiebedarf oder Kühlung und minimiert den physikalischen Platzbedarf.

Hyper Converged Infrastruktur.
Tintri
Tintris Application-aware Storage
Atlantis
Zusammen mit Partnern bietet Atlantis Computing seine Plattform auf Wunsch auch mit Hardware an.
Simplivity
Außer als Komplett-Appliance der eigenen OmniCube-Reihe, bietet Simplivity seinen HCI-Stack auf Basis von Lenovo- oder Cisco-Hardware an
Thomas Krenn GmbH
Thomas Krenn Virtual SAN Appliance – Vmware VSAN-Einstieg schlüsselfertig.

Hyper Converged Systeme auf Wachstumskurs

Geradezu zu explodieren scheint der IT-Markt, zieht man die Silbe "Hyper" hinzu. Diese Ergänzung bringt zum Ausdruck, dass statt der klassischen Server-Komponente ein Hypervisor fundamentaler Bestandteil des "Hyper Converged Stacks" ist. Konzeptionell ist der Begriff "Hyperconverged" etwa seit 2012 in der Welt.

Heute hat Hyperconverged den Konzept-Status längst hinter sich gelassen und ist eine der am stärksten wachsenden Methoden für das Bereitstellen von IT-Infrastrukturen im Datacenter. Die Analysten von Gartner erwarten beispielsweise, dass der Markt bis 2019 auf ein Volumen von rund 5 Milliarden US-Dollar wachsen wird.

Storage-Virtualisierung bietet neue Lösungsansätze

Hyperkonvergente Infrastrukturen kombinieren CPU-Virtualisierung (Compute) mit Netzwerk- und Storage-Technologien, wobei Letztere in der Regel auch "VM-aware" sind. Meist werkelt in hyperkonvergenten Infrastrukturen auch ein "Storage-Hypervisor", der die Storage-Verwaltung von der Physik entkoppelt. Hier geht es vor allem darum, klassische SAN-Systeme in ein virtuelles Umfeld zu überführen.

So kann der Hypervisor unter anderem Storage-relevante Operationen ausführen; was diese extrem beschleunigt. Darüber hinaus erlaubt die Speichervirtualisierung es auch, die Verwendung von Storage richtlinienbasiert zu gestalten. Daraus resultiert eine flexiblere und automatisierbare Dimensionierung der Storage-Landschaft.

Zusätzlich bietet der Markt auch Angebote, die erweiterte Funktionen, wie etwa Cloud Bursting oder Disaster Recovery (DR) umfassen. Nutzer haben so die Möglichkeit, physikalische und virtuelle Infrastruktur gemeinsam zu verwalten. Das Thema Storage-Virtualisierung ist eng mit hyperkonvergenten Systemen verknüpft und kommt deshalb in zahlreichen neuen Technologie-Lösungen zum Einsatz.

Storage für virtuelle Umgebungen

"VM-aware-Storage" und hyperkonvergente Systeme sind zwei Pole einer derzeit vielschichtigen Lösungslandschaft für Storage in virtuellen Umgebungen. Neben VMware, das schon früh erkannte, dass Storage einer der Schlüsselfaktoren in der Welt der Virtualisierung darstellt, dominieren Startups wie Nutanix, Atlantis Computing, PernixData, Tintri oder Simplivity den Markt. Einer der jüngsten Player im Segment ist nach der Übernahme von Sanbolic auch das Unternehmen Citrix. VMware hat mit VVOLs-Support in vSphere 6 und Virtual SAN gleich zwei Ansätze für moderne Speicher-Konzepte in virtuellen Umgebungen im Portfolio.

VMware Virtual SAN

VMware vSAN versteht sich als Alternative zum klassischen SAN-Array. Es führt das Konzept für Speichervirtualisierung auf Baisi des vSphere-Hypervisors auf einer gemeinsamen Server-Hardware für die ESXi-Hosts zusammen. Sie bildet dann gewissermaßen ein hyperkonvergentes System, Da vSAN eine reine Software-Lizenz ist, können und sollen Unternehmen sich ihr eigenes hyperkonvergentes System bauen. Allerdings springen inzwischen auch Server-Hersteller auf den vSAN-Zug auf und bieten diese Systeme aus einer Hand.

So bietet etwa Thomas Krenn seit September letzten Jahres eine konfigurierbare Appliance für VMware Virtual SAN als Einstiegssystem an. Ab 25000 Euro erhalten Unternehmen ein vorkonfiguriertes Komplettsystem aus 3 ESXi-Host samt vSphere- und vSAN-Lizenzen, mit der der Einstieg in die Welt des Software Defined Shared Storage Out-of-the-Box gelingt. Sämtliche Komponenten des Clusters sind entsprechend der Hardware Compatibility List von VMware für den Einsatz mit Virtual SAN zertifiziert.

Thomas-Krenn vSAN Appliance

Die Thomas-Krenn vSAN Appliance besteht aus drei Nodes (ESXi-Hosts) mit Dual-CPU-Mainboards. Diese sind in der Grundkonfiguration mit jeweils einer Xeon-E5-CPU und 64 GByte Arbeitsspeicher bestückt Pro Node ist eine Intel-Enterprise-SSD DCS3710 SSD mit 200 GByte für das Caching verbaut. Für das Speichern von Daten bringt jeder Node in der Grundkonfiguration drei SAS-Festplatten von Seagate mit einer Kapazität von je einem TByte mit. Verbunden sind die Nodes mit einem 10-Gigabit-Netzwerk, was zwingend erforderlich ist, da in einem vSAN-Storage-Cluster permanent Daten zwischen den Node repliziert werden müssen.

Thomas Krenn Virtual SAN Appliance - VMware VSAN-Einstieg schlüsselfertig.
Foto: Hersteller

Die Gesamtkapazität beträgt etwa 4,5 TByte (3 x 3 TByte/2) und errechnet sich daraus, dass sämtliche VMs im Mittel einen RAID1-Redundanzlevel aufweisen, obwohl man in Virtual SAN kein RAID oder ähnliches kennt. Ein Virtual SAN-Cluster präsentiert sich gegenüber dem Hypervisor als ein logischer Speicherpool, wobei einzelne VMs Storage-Policy-getriggert als Einzel-Objekte im Virtual SAN-Cluster aufschlagen. Für Ausfallsicherheit sorgen redundante Switches.

Die Konfiguration mit nur einer CPU hält zunächst die Lizenzkosten für das pro CPU zu lizensierende VMware Virtual SAN niedrig. Allerdings lässt sich bei Bedarf jeder Node mit weiteren CPUs, mit zusätzlichem Hauptspeicher von bis zu 1536 GByte für das Gesamtsystem und weiteren Festplatten aufrüsten. Zusätzlich ergeben sich durch das einfache Hinzufügen weiterer Nodes zum Cluster horizontale Scale-out-Optionen.

Nutanix - Skalieren satt

Einer der populärsten Anbieter im Hyperconverged-Segment ist Nutanix mit seiner Extreme Computing Platform (XCP), die das Unternehmen auch als Web-scale Infrastructure bezeichnet. Die Gründungsidee von Nutanix bestand 2011 in der Schaffung einer hyperkonvergenten Server- und Storage-Infrastruktur für Enterprise-Virtualisierung ohne SAN.

Das von ehemaligen Google-Mitarbeitern gegründete Startup, orientiert sich mit seiner Lösung an Google oder Facebook, die fast unbegrenzte Skalierbarkeit mittels Scale-out auf Basis von Commodity-Hardware erzielen.

Zu den wesentlichen Komponenten der Nutanix-Architektur gehören auch ein eigener Hypervisor namens Acropolis und das Management-Modul Prism. Acropolis zusammen mit Prism ist eine hypekonvergente Infrastruktur, mit der sich Applikationen unabhängig von der IT-Infrastruktur betreiben lassen, die aber auch App-Mobility-Funktionen einschließlich nativer Virtualisierung besitzt.

Während Acropolis and Prism auch in verschiedenen Software-basierten Editionen erhältlich sind, ebenso wie die Community-Edition der Extreme Computing Plattform, macht das Unternehmen seinen Hauptumsatz mit vorkonfigurierten Hardware-Appliances. Die Systeme unterstützen VMware vSphere und Microsoft Hyper-V gleichermaßen. Die einzelnen Modelle sind gezielt für bestimmte Storage- und Compute-Charakteristika optimiert beziehungsweise ausgestattet.

Bekanntlich sind Datenbanken meist mehr I/O- als CPU-intensiv. Das Gegenteil gilt bei Big Data und Analytics-Anwendungen. Man braucht also im Zweifel eigene Infrastructure-Pools für verschiedene Anwendungen mit spezifischen Eigenschaften. Als Betriebssystem kommt das Nutanix-eigene NOS (Nutanix OS) zum Einsatz, das seit Juni letzten Jahres in Version 4.1.3 vorliegt und zahlreiche Dienste für virtuelle Maschinen anbietet, wie zum Beispiel Deduplizierung, Backup oder Replikation für Disaster Recovery.

Simplivity OmniStack

Ein weiterer wichtiger Player im Hyper-Converged-Markt ist Simplivity. Seit Dezember letzten Jahres bietet das relativ junge Startup seine OmniStack Appliance auch auf Basis von Lenovo x3650 M5-Systemen an. Auch die hyperkonvergente Infrastruktur von Simplivity vereinfacht die IT-Infrastrukturen durch Konsolidierung sämtlicher Infrastruktur- und Datendienste unterhalb des Hypervisors, im Falle der OmniStack-Appliances in Form von lediglich einem 2HE-Baustein.

Außer als Komplett-Appliance der eigenen OmniCube-Reihe, bietet Simplivity seinen HCI-Stack auf Basis von Lenovo- oder Cisco-Hardware an
Foto: Hersteller

Die hyperkonvergente Infrastruktur kombiniert zahlreiche Datacenter-Kernfunktionen auf einem System, einschließlich Hypervisor, Rechenleistung, Speicher, Netzwerk-Switching, Backup, Replikation, Cloud-Gateway, Caching, WAN-Optimierung oder Echtzeit-Deduplizierung. Die OmniStack-Solution besteht aus einem Lenovo System x-Server, der SimpliVity OmniStack Data Virtualization Platform und der OmniStack Accelerator Card.

Simplivity erzielt damit nach eigener Angabe ein bisher unerreichtes Maß an Hyperkonvergenz zum Aufbau rein software-definierter Rechenzentren. Ferner soll es laut Hersteller möglich sein, mehrere OmniStacks zu einem gemeinsam nutzbaren Ressourcenpool zusammenzuführen, der hohe Verfügbarkeit, flexible Skalierung und damit eine vorausberechenbare lineare Leistung ermöglicht.

Atlantis Computing USX

Die USX-Plattform von Atlantis Computing (viele Unternehmen kennen bereits das für VDI-Umgebungen konzipierte ILIO USX) ist eine SDS-Plattform, die sich in verschiedenen Szenarien einsetzen lässt.

Die USX Plattform ist aus der Software USX LILO entstanden, einer Lösung, die den Storage für VDI-Anwendungen optimiert. USX steht für "Unified Software-defined Storage". Atlantis Computing USX baut aus vorhandenen SANs, NAS-Systemen, Server-RAM- und jeder Art von Direct-Attached-Storage-Systemen (SSD, Flash und SAS) hyperkonvergente Speicher-Pools zusammen. Diese verhalten sich gegenüber dem Hypervisor oder vorhandenen Storage-Architekturen agnostisch.

Derzeit unterstützt USX Hypervisoren von VMware und Citrix. Dabei verwendet USX vorhandenes Server-RAM als Storage-Tier für virtuelle Maschinen oder für "heiße" Daten. Allerdings beschleunigt USX nicht nur Speicherzugriffe. Dank der zahlreichen Optimierungen sollen sich auch bis zu fünf Mal mehr virtuelle Maschinen auf dem System starten lassen.

So arbeitet USX

Die USX-Plattform ist als reine Software-Lösung konzipiert, die Nutzer auf nahezu beliebiger x86-Hardware installieren kann, sofern das System auf der VMwares Kompatibilitätsliste für ESXi steht. Jeder ESXI-Server fungiert dann als virtuelle Storage-Appliance und verwendet die vorhandenen Speicher-Ressourcen als primäre Speicherebene. USX kümmert sich darum, alle verfügbaren Speicher-Ressourcen nach vom Administrator konfigurierten Regeln auf Speicher-Pool zu verteilen. Die Lösung unterstützt SSDs, PCIe Flash-Karten oder Harddisks. Interessant ist dabei, dass sich auch der vorhandene Backend-Storage "hinter" dem ESXi-Servern in die SDS-Pool einbinden lässt, unabhängig davon, ob es sich um Block- (iSCSI, SATA) oder NFS-basierten Speicher handelt. Alle mit USX präparierten ESXi-Hosts kommunizieren miteinander und sind in der Lage, Daten zu replizieren.

Zusammen mit Partnern bietet Atlantis Computing seine Plattform auf Wunsch auch mit Hardware an.
Foto: Hersteller

USX Cluster

USX-Hosts lassen sich zudem clustern, womit ein redundanter und skalierbarer Objekt-Speicher entsteht. Die erzielbare Geschwindigkeit ist dann eine Folge der verwendeten Storage-Technologien wie Deduplizierung, Kompression und I/O-Sequencing im Primärspeicher. Diese Technologien kommen bereits im RAM zum Einsatz, bevor physikalische Zugriffe an die sekundäre Speicherebene weitergeleitet werden.

Der Skalierbarkeit sind nach Aussage von Atlantis Computing keine Grenzen gesetzt. Der Hersteller kombiniert außerdem die aktuelle USX-Version 3.1, die erstmals das neue Stretched-Cluster-Feature einführte auch mit Hardware in Form der Hyperscale Appliances. Diese Out-of-the Box-Lösung hat das Unternehmen gemeinsam mit Cisco, HP, Dell, Lenovo oder Supermicro entwickelt.

Tintri Storage-Appliances

In diesem Zusammenhang darf auch eine Erwähnung des Storage-Spezialisten Tintri nicht fehlen. Tintri bietet zwar keine hyperkonvergenten Systeme, dafür aber Hardware Appliances, die für ESXi oder Hyper-V "VM-aware" sind und ohne LUNs arbeiten. Tintri nennt sein Konzept "Application-aware Storage".

Tintris Application-aware Storage.
Foto: Hersteller

Die Systeme enthalten HDDs und SSDs, die als RAID 6 konfiguriert sind, wobei Flash-Laufwerke als Cache fungieren, über den alle Schreibzugriffe laufen. Die integrierte Software beherrscht Inline-Deduplizierung sowie Komprimierung und bietet zum Beispiel in VMware-Umfeld VVOL-Support. Dazu entwickelte Tintri für seine VMstores ein eigenes Dateisystem und präsentiert dieses gegenüber vSphere als NFS-Freigabe beziehungsweise als SMB3-Share in einer Hyper-V-Umgebung. Dank VVOL-Support lassen sich Storage-Policies etwa für QoS auf VM-Ebene definieren, wobei jede VM ein einzelnes Storage-Objekt ist.

Fazit

Die Hersteller von Hyper Converged Infrastructure führen Compute und Storage-Ebene auf x86-Plattformen zusammen, auf der dann sowohl der Hypervisor mit seinem virtuellen Maschinen läuft, als auch eine Speichervirtualisierungs-Software.

In der Regel virtualisieren solche Systeme in Summe CPU, RAM, Speicher und Storage. Als wichtigsten Vorteil führen die Hersteller die Vereinfachung im Aufbau virtueller Umgebungen auf. Zusätzliche Kapazitäten lassen sich bei Bedarf per Scale-out ergänzen, indem man zum Beispiel einen weiteren x86-Server in das Rack integriert, dessen Speicher sich dann in den Storage-Pool einfügt. Fällt eine Maschine aus, dann bleibt dies bei richtiger Auslegung des Gesamtsystems ohne Folgen.

Als Gegenargument kann man allerdings anführen, dass in den meisten Unternehmen der Bedarf an Storage- und Compute-Ressourcen in der Regel nicht im gleichen Maße wächst. Wer nur mehr Speicherkapazität braucht, muss im ungünstigsten Fall gleich einen komplette Server ins Rack integrieren, dessen Rechenleistung möglicherweise gar nicht benötigt wird. Hinzu kommt, dass die Storage-Ebene immer auf die Rechenleistung der Hosts angewiesen ist, diese also mit anderen Workloads teilen muss oder diese sogar beeinträchtigt.