Bei der individuellen Kalkulation, ob sich Flash im Rechenzentrum heute schon rechnet, hilft ein Blick auf die laufenden Betriebskosten und die genutzten Workloads. In Umgebungen mit Rechenintensiven -intensiven Anwendungen sind All-Flash-Lösungen den klassischen Festplatten-Arrays in der Gesamtbewertung bereits überlegen. Beispiele hierfür sind virtuelle Desktop-Infrastrukturen (VDI) oder hochperformante Datenbank-Landschaften. Wer diese Workloads durch Flash optimiert, kann bestehende Server konsolidieren und damit CPU-bezogene Software-Lizenzen reduzieren, etwa bei SQL-Datenbanken, die die Lizenzen pro Prozessorkern abrechnen. Mit dem Abschalten von nicht mehr benötigten Servern fallen diese CPU-Kerne aus der Lizenzierung. Zusätzlich verringern sich die Energiekosten für Stromversorgung und Klimatisierung, wenn weniger Server und Festplatten benötigt werden.
Fitness-Kur für die Datenspeicher
Die in Flash-Systemen integrierten Funktionen wie Deduplizierung und Komprimierung tragen ganz erheblich dazu bei, die Speicherinfrastruktur zu optimieren. Dies gelingt mit Flash noch stärker als bei Festplatten-basierten Systemen. Die niedrigen Latenzzeiten sowie der hohe Datendurchsatz machen es möglich, deutlich aggressivere Methoden zur Datenreduzierung anzuwenden, wie eine sehr granulare Deduplikation mit Inline-Komprimierung.
Je nach Art der Daten lässt sich eine Datenreduktion von bis zu 10:1 erreichen - ohne Belastung der Server-Infrastruktur. Manche Hersteller geben ihren Kunden sogar eine Garantie für eine 4:1-Effizienzsteigerung ihrer Storage-Umgebung bei einer Migration auf Flash.
Mit Flash neue Anforderungen lösen
Muss die IT-Organisation ihren internen oder externen Kunden vertraglich zugesicherte SLAs bezüglich der Performance von Applikationen oder Storage-Systemen garantieren, war bislang die sicherste Variante eine Überprovisionierung der Infrastruktur. Die Idee dahinter: Wenn genug schnelle Festplatten und Server im Rechenzentrum stehen, sollte sich selbst bei maximalen Nutzerzahlen die vereinbarte Leistung erreichen lassen. Das bringt jedoch hohe Investitionskosten mit sich und bindet Kapital, das an anderer Stelle für strategische IT-Projekte fehlt.
Einige Hersteller von Flash-Systemen bieten dafür eine elegante Lösung und haben in ihre All-Flash-Arrays eine QoS-Unterstützung (Quality of Service) integriert. Hierbei sorgt das Storage-Betriebssystem dafür, dass das Flash-System mit einer zuvor definierten Workload-Performance arbeitet. Das unterstützt Rechenzentren und Service-Provider, die ihren Kunden eine definierte Dienstgüte anbieten müssen.
Scale-out mit Flash-Arrays
Ein weiteres Szenario, in dem Flash ganz erheblich Abläufe beschleunigt, sind dynamisch wachsende Internet-Unternehmen oder Anbieter großer Web-Applikationen. Für diese Unternehmen muss das Flash-Array die Flexibilität einer Scale-out-Architektur unterstützen, da hier häufig horizontal skalierende Software-Lösungen auf Basis von Internet-Technologien zum Einsatz kommen. Dies können Buchungs- und E-Commerce-Systeme oder Social-Media-Plattformen mit hohen Benutzerzahlen sein.
Lassen sich hierbei die Flash-Systeme entsprechend der Nutzerlast schrittweise hinzufügen, spart dies auch wieder Investitionskosten: Der Anbieter startet mit einer kleinen Flash-Lösung, die anschließend analog zum Geschäftserfolg schrittweise erweitert wird. Dies funktioniert jedoch nur dann effizient, wenn die zugrunde liegende Storage-Software eine flexible Scale-out-Architektur von Anfang an unterstützt - andernfalls sind aufwendige Migrationsschritte inklusive dem Datentransfer auf ein neues Storage-Array notwendig, wenn das alte Array einmal nicht mehr ausreichend Kapazität liefert.
Anwendungsentwicklung mit Flash beschleunigen
Bei großen Applikationslandschaften, die kontinuierlich weiterentwickelt werden, ist eine Vielzahl von täglichen Software-Updates notwendig. Solche kurzen Zyklen lassen sich mit traditionellen Entwicklungsmethoden (Development, Test, Produktion) nicht mehr realisieren. Daher setzen hier die IT-Organisationen auf die dynamische DevOps-Methode (Development and Operations) und nutzen hoch automatisierte Entwicklungsumgebungen. Funktionen wie Cloning oder Snapshot zur Datenreplikation beziehungsweise Sicherung werden durch die hohe Automation direkt für die Entwickler verfügbar. Diese können so aktuelle operative Datensätze direkt in der Anwendungsentwicklung nutzen, ohne diese Daten erst über den Storage-Administrator anfordern zu müssen.
Per Cloning erstellt die Flash-Lösung in wenigen Sekunden Kopien der operativen Daten und stellt diese der Entwicklung bereit. DevOps-Entwickler erhalten somit mehr Macht über die IT-Infrastruktur und können eigenständig die benötigten Komponenten anfordern oder ausrollen. Aus Sicht der IT-Abteilung sinkt damit der Aufwand für All-Flash-unterstützte Infrastrukturen ganz erheblich, während die Anwendungsentwicklung beschleunigt wird.
All Flash vereinfacht Workflows
Der Einsatz von Flash führt dazu, dass IT-Manager bestehende Konzepte für das Datenmanagement überprüfen sollten. Dies schließt die Frage ein, ob Backup-Kopien auf schnellem Flash-Speicher gesichert werden müssen. Das kann sinnvoll sein, wenn ein sehr schnelles Umschalten im Disaster-Recovery-Fall verlangt wird, um die Verfügbarkeit von Produktivsystemen zu sichern. In die TCO-Betrachtung einer Flash-Investition sollte daher auf jeden Fall das Gesamtkonzept von Backup und Restore inklusive einer Nutzung der Cloud für Backup-as-a-Service einfließen.
Warum Konzepte für Software-defined Storage, ein automatisiertes Backup und eine leichte Bedienbarkeit von Flash-Systemen so wichtig sind, zeigt die Entwicklung der Speicherkapazität, die pro IT-Administrator verwaltet wird. Eine Analyse von Gartner (Gartner IT Metrics 2015) hat ermittelt, wie sich die TB/FTE-Ratio (Terabyte per Full-Time Employee) in den vergangenen Jahren verändert hat: Im Jahr 2010 betreute ein Storage-Administrator im Schnitt noch 81 TByte, im Jahr 2014 bereits 299 TByte. Es ist davon auszugehen, dass dieser Wert steigt und somit die Verantwortung der IT-Mitarbeiter für die Datenverfügbarkeit zunehmen wird.
Innovationen aufnehmen
Das Wettrennen der Speichertechnologien geht weiter. So arbeiten die Festplatten-Hersteller bereits daran, die Speicherdichte zu steigern. Das Advanced Storage Technology Consortium (ASTC) sieht im Jahr 2025 erste Festplatten mit 100 TByte. Ob sich der hierfür notwendige technologische Aufwand bei den fallenden Flash-Preisen rechnet, wird sich zeigen.
Im Flash-Segment prognostiziert Toshiba SSD-Kapazitäten von bis zu 128 TByte bis etwa 2018 auf Basis von Quadruple Level Cells (QLC). Darüber hinaus arbeiten Intel und Micron an der 3D-Xpoint-Technologie: Diese soll mithilfe einer Art Phase Change Memory arbeiten und dadurch noch einmal mehr Geschwindigkeit im Vergleich zu Flash bieten und etwa ab 2017 verfügbar sein.
Fazit
Erst in Kombination mit innovativen Software-Features entwickeln Unternehmen mit der Flash-Technologie eine Infrastruktur, die flexibel skalierbar ist, höchste Performance-Anforderungen unterstützt und wirtschaftliche Vorteile bringt.
Die Integrationsfähigkeit von Flash-Storage mit vorhandenen und zukünftigen Storage-Infrastrukturen sollte höchste Priorität haben, um die laufenden IT-Kosten permanent niedrig zu halten. Gleichzeitig muss die Integration mit IT-Ressourcen aus der Cloud möglich sein, um das Hybrid-Cloud-Betreibermodell zu unterstützen.
Wer also heute ein zukunftsfähiges Datenmanagement implementieren möchte, gleicht die in diesem Beitrag aufgeführten Kriterien mit dem Storage-Lieferanten seiner Wahl ab. (hal)