Geschwindigkeit ist nicht alles

So setzen Sie Flash Storage im Rechenzentrum richtig ein

20.07.2016 von Peter Wüst
Wer auf Flash-Speicher im Rechenzentrum setzt, bekommt heute mehr als nur schnellere Zugriffszeiten. Die Optimierung der IT-Infrastruktur mit Flash hilft dabei, die Betriebskosten im Rechenzentrum zu senken und die Datenverfügbarkeit zu steigern. Auf welche Aspekte Unternehmen achten sollten und wie sich die Flash-Technologie weiterentwickelt, erörtert der folgende Beitrag.

Bei der individuellen Kalkulation, ob sich Flash im Rechenzentrum heute schon rechnet, hilft ein Blick auf die laufenden Betriebskosten und die genutzten Workloads. In Umgebungen mit Rechenintensiven -intensiven Anwendungen sind All-Flash-Lösungen den klassischen Festplatten-Arrays in der Gesamtbewertung bereits überlegen. Beispiele hierfür sind virtuelle Desktop-Infrastrukturen (VDI) oder hochperformante Datenbank-Landschaften. Wer diese Workloads durch Flash optimiert, kann bestehende Server konsolidieren und damit CPU-bezogene Software-Lizenzen reduzieren, etwa bei SQL-Datenbanken, die die Lizenzen pro Prozessorkern abrechnen. Mit dem Abschalten von nicht mehr benötigten Servern fallen diese CPU-Kerne aus der Lizenzierung. Zusätzlich verringern sich die Energiekosten für Stromversorgung und Klimatisierung, wenn weniger Server und Festplatten benötigt werden.

Fitness-Kur für die Datenspeicher

Die in Flash-Systemen integrierten Funktionen wie Deduplizierung und Komprimierung tragen ganz erheblich dazu bei, die Speicherinfrastruktur zu optimieren. Dies gelingt mit Flash noch stärker als bei Festplatten-basierten Systemen. Die niedrigen Latenzzeiten sowie der hohe Datendurchsatz machen es möglich, deutlich aggressivere Methoden zur Datenreduzierung anzuwenden, wie eine sehr granulare Deduplikation mit Inline-Komprimierung.

Je nach Art der Daten lässt sich eine Datenreduktion von bis zu 10:1 erreichen - ohne Belastung der Server-Infrastruktur. Manche Hersteller geben ihren Kunden sogar eine Garantie für eine 4:1-Effizienzsteigerung ihrer Storage-Umgebung bei einer Migration auf Flash.

Mit Flash neue Anforderungen lösen

Muss die IT-Organisation ihren internen oder externen Kunden vertraglich zugesicherte SLAs bezüglich der Performance von Applikationen oder Storage-Systemen garantieren, war bislang die sicherste Variante eine Überprovisionierung der Infrastruktur. Die Idee dahinter: Wenn genug schnelle Festplatten und Server im Rechenzentrum stehen, sollte sich selbst bei maximalen Nutzerzahlen die vereinbarte Leistung erreichen lassen. Das bringt jedoch hohe Investitionskosten mit sich und bindet Kapital, das an anderer Stelle für strategische IT-Projekte fehlt.

Einige Hersteller von Flash-Systemen bieten dafür eine elegante Lösung und haben in ihre All-Flash-Arrays eine QoS-Unterstützung (Quality of Service) integriert. Hierbei sorgt das Storage-Betriebssystem dafür, dass das Flash-System mit einer zuvor definierten Workload-Performance arbeitet. Das unterstützt Rechenzentren und Service-Provider, die ihren Kunden eine definierte Dienstgüte anbieten müssen.

Backup-Ratgeber 2016
Backup
Die Gründe für den Verlust von Daten sind vielfältig - leider wird das vielen Firmen und Anwendern häufig zu spät klar. (Bild: NovaStor)
Backup
Eigentlich selbstverständlich - aber IT-Verantwortliche und Administratoren sollten prüfen, ob ihre Backup-Lösung diesen Ansprüchen genügt. (Bild: NovaStor)
Backup
Wer seine Daten sichern und wiederherstellen will, kann auf eine große Auswahl an Open-Source-Lösungen wie beispielsweise das Programm Areca zurückgreifen.
Backup
Personal Backup ist ein weiteres Beispiel für eine freie Lösung, die zudem durch eine umfassende Unterstützung in deutscher Sprache glänzen kann.
Backup
Viele Anbieter kommerzieller Backup-Lösungen wie hier Veeam stellen freie Versionen ihrer Software kostenlos bereit. Diese weisen dann aber oft gewisse Einschränkungen beim Funktionsumfang auf.
Backup
Etwas versteckt aber wieder vorhanden: Microsoft stellt den Anwendern unter Windows 10 die Windows-7-Software zur Datensicherung wieder zur Verfügung, die unter Windows 8/8.1 fehlte
Backup
Keine vollständige Datensicherung aber gut dafür geeignet, einzelne Dateien auch in älteren Versionen wiederherzustellen: der Dateiversionsverlauf unter Windows 10.
Backup
Viele kommerzielle Lösung bieten auch eine direkte Sicherung auf einen Speicherplatz in der Wolke an: Acronis-Backup warnt hier aber zu Recht -- eine initiale Lösung kann je nach zur Verfügung stehender Bandbreite sehr lange dauern!
Backup
Wer eine professionelle Lösung wie hier beispielsweise Symantec Back Exec 15 einsetzt, kann direkt seine unterschiedlichen Systeme mittels Agenten direkt von seinem Server aus sichern und wiederherstellen.
Backup
Eine hybride Sicherung, wie sie hier schematisch am Beispiel der Lösung von NovaStor dargestellt wird, ergänzt die traditionelle Sicherung vor Ort sinnvoll durch Cloud-Speicher. (Bild: NovaStor)

Scale-out mit Flash-Arrays

Ein weiteres Szenario, in dem Flash ganz erheblich Abläufe beschleunigt, sind dynamisch wachsende Internet-Unternehmen oder Anbieter großer Web-Applikationen. Für diese Unternehmen muss das Flash-Array die Flexibilität einer Scale-out-Architektur unterstützen, da hier häufig horizontal skalierende Software-Lösungen auf Basis von Internet-Technologien zum Einsatz kommen. Dies können Buchungs- und E-Commerce-Systeme oder Social-Media-Plattformen mit hohen Benutzerzahlen sein.

Lassen sich hierbei die Flash-Systeme entsprechend der Nutzerlast schrittweise hinzufügen, spart dies auch wieder Investitionskosten: Der Anbieter startet mit einer kleinen Flash-Lösung, die anschließend analog zum Geschäftserfolg schrittweise erweitert wird. Dies funktioniert jedoch nur dann effizient, wenn die zugrunde liegende Storage-Software eine flexible Scale-out-Architektur von Anfang an unterstützt - andernfalls sind aufwendige Migrationsschritte inklusive dem Datentransfer auf ein neues Storage-Array notwendig, wenn das alte Array einmal nicht mehr ausreichend Kapazität liefert.

Anwendungsentwicklung mit Flash beschleunigen

Bei großen Applikationslandschaften, die kontinuierlich weiterentwickelt werden, ist eine Vielzahl von täglichen Software-Updates notwendig. Solche kurzen Zyklen lassen sich mit traditionellen Entwicklungsmethoden (Development, Test, Produktion) nicht mehr realisieren. Daher setzen hier die IT-Organisationen auf die dynamische DevOps-Methode (Development and Operations) und nutzen hoch automatisierte Entwicklungsumgebungen. Funktionen wie Cloning oder Snapshot zur Datenreplikation beziehungsweise Sicherung werden durch die hohe Automation direkt für die Entwickler verfügbar. Diese können so aktuelle operative Datensätze direkt in der Anwendungsentwicklung nutzen, ohne diese Daten erst über den Storage-Administrator anfordern zu müssen.

Per Cloning erstellt die Flash-Lösung in wenigen Sekunden Kopien der operativen Daten und stellt diese der Entwicklung bereit. DevOps-Entwickler erhalten somit mehr Macht über die IT-Infrastruktur und können eigenständig die benötigten Komponenten anfordern oder ausrollen. Aus Sicht der IT-Abteilung sinkt damit der Aufwand für All-Flash-unterstützte Infrastrukturen ganz erheblich, während die Anwendungsentwicklung beschleunigt wird.

All Flash vereinfacht Workflows

Der Einsatz von Flash führt dazu, dass IT-Manager bestehende Konzepte für das Datenmanagement überprüfen sollten. Dies schließt die Frage ein, ob Backup-Kopien auf schnellem Flash-Speicher gesichert werden müssen. Das kann sinnvoll sein, wenn ein sehr schnelles Umschalten im Disaster-Recovery-Fall verlangt wird, um die Verfügbarkeit von Produktivsystemen zu sichern. In die TCO-Betrachtung einer Flash-Investition sollte daher auf jeden Fall das Gesamtkonzept von Backup und Restore inklusive einer Nutzung der Cloud für Backup-as-a-Service einfließen.

Warum Konzepte für Software-defined Storage, ein automatisiertes Backup und eine leichte Bedienbarkeit von Flash-Systemen so wichtig sind, zeigt die Entwicklung der Speicherkapazität, die pro IT-Administrator verwaltet wird. Eine Analyse von Gartner (Gartner IT Metrics 2015) hat ermittelt, wie sich die TB/FTE-Ratio (Terabyte per Full-Time Employee) in den vergangenen Jahren verändert hat: Im Jahr 2010 betreute ein Storage-Administrator im Schnitt noch 81 TByte, im Jahr 2014 bereits 299 TByte. Es ist davon auszugehen, dass dieser Wert steigt und somit die Verantwortung der IT-Mitarbeiter für die Datenverfügbarkeit zunehmen wird.

Innovationen aufnehmen

Das Wettrennen der Speichertechnologien geht weiter. So arbeiten die Festplatten-Hersteller bereits daran, die Speicherdichte zu steigern. Das Advanced Storage Technology Consortium (ASTC) sieht im Jahr 2025 erste Festplatten mit 100 TByte. Ob sich der hierfür notwendige technologische Aufwand bei den fallenden Flash-Preisen rechnet, wird sich zeigen.

Im Flash-Segment prognostiziert Toshiba SSD-Kapazitäten von bis zu 128 TByte bis etwa 2018 auf Basis von Quadruple Level Cells (QLC). Darüber hinaus arbeiten Intel und Micron an der 3D-Xpoint-Technologie: Diese soll mithilfe einer Art Phase Change Memory arbeiten und dadurch noch einmal mehr Geschwindigkeit im Vergleich zu Flash bieten und etwa ab 2017 verfügbar sein.

Fazit

Erst in Kombination mit innovativen Software-Features entwickeln Unternehmen mit der Flash-Technologie eine Infrastruktur, die flexibel skalierbar ist, höchste Performance-Anforderungen unterstützt und wirtschaftliche Vorteile bringt.

Die Integrationsfähigkeit von Flash-Storage mit vorhandenen und zukünftigen Storage-Infrastrukturen sollte höchste Priorität haben, um die laufenden IT-Kosten permanent niedrig zu halten. Gleichzeitig muss die Integration mit IT-Ressourcen aus der Cloud möglich sein, um das Hybrid-Cloud-Betreibermodell zu unterstützen.

Wer also heute ein zukunftsfähiges Datenmanagement implementieren möchte, gleicht die in diesem Beitrag aufgeführten Kriterien mit dem Storage-Lieferanten seiner Wahl ab. (hal)