Virtualisierung entwickelt sich zum neuen Paradigma der IT-Welt. Das gilt auch für Speicher. Schließlich wächst der Datenberg unaufhörlich. Laut IDC müssen 2010 in Deutschland allein etwa 70 Exabyte (1 EB = 1 Million Terabyte/TB) gespeichert werden. Angesichts der spärlichen Auslastungsgrade von Storage-Systemen - üblich sind Werte zwischen 20 und 40 Prozent - bleibt für die Storage-Virtualisierung viel zu tun. Sie trennt die Hardware durch eine zusätzliche Softwareschicht von den zugreifenden Systemen und Anwendungen, so dass beispielsweise die Erweiterung eines logischen Speicherbereichs (LUN = Logical Unit Number) oder die Migration von Daten von einem System auf ein anderes keine physikalischen Eingriffe mehr erfordern und die Auslastung steigt. Die meisten neueren Geräte der Profiklasse lassen sich wenigstens innerhalb der Box virtualisieren.
- Storage-Trends 2010
Andreas Bechter, Symantec: „Siebzig Prozent aller Unternehmen setzen noch keine Deduplizierung ein. Dies wird sich dieses Jahr ändern, da die Firmen diese Funktion aktivieren wollen, sobald sie standardmäßig in den Speichersystemen integriert ist.“ (Quelle: Symantec) - Storage-Trends 2010
Bernd Gill, HP: „Das Thema Energieeffizienz ist mittlerweile Bestandteil der meisten Ausschreibungen.“ (Quelle: Hewlett Packard) - Storage-Trends 2010
Detlef Lieb, FTS: „Die Auswirkungen der Finanzkrise sind mit einiger Verzögerung deutlich spürbar. Allerdings gibt es bezüglich Speichersysteme wenig Alternativen, um dem gewaltigen Datenwachstum Herr zu werden.“ (Quelle: Fujitsu Technology Systems) - Storage-Trends 2010
Georgios Rimikis, HDS: „Konsolidierung und Virtualisierung sind bei Hitachi Data Systems kein Widerspruch, sie gehen Hand in Hand.“ (Quelle: Hitachi Data Systems) - Storage-Trends 2010
Mika Kotro, EMC: „Die Verwaltung der immer weiter ansteigenden Datenmengen stellt weiterhin eine große Herausforderung dar.“ (Quelle: EMC) - Storage-Trends 2010
Andreas Bechter, Symantec: „Siebzig Prozent aller Unternehmen setzen noch keine Deduplizierung ein. Dies wird sich dieses Jahr ändern, da die Firmen diese Funktion aktivieren wollen, sobald sie standardmäßig in den Speichersystemen integriert ist.“ (Quelle: Symantec) - Storage-Trends 2010
Bernd Gill, HP: „Das Thema Energieeffizienz ist mittlerweile Bestandteil der meisten Ausschreibungen.“ (Quelle: Hewlett Packard) - Storage-Trends 2010
Detlef Lieb, FTS: „Die Auswirkungen der Finanzkrise sind mit einiger Verzögerung deutlich spürbar. Allerdings gibt es bezüglich Speichersysteme wenig Alternativen, um dem gewaltigen Datenwachstum Herr zu werden.“ (Quelle: Fujitsu Technology Systems) - Storage-Trends 2010
Georgios Rimikis, HDS: „Konsolidierung und Virtualisierung sind bei Hitachi Data Systems kein Widerspruch, sie gehen Hand in Hand.“ (Quelle: Hitachi Data Systems) - Storage-Trends 2010
Mika Kotro, EMC: „Die Verwaltung der immer weiter ansteigenden Datenmengen stellt weiterhin eine große Herausforderung dar.“ (Quelle: EMC)
Komplizierter wird es, wenn mehrere unterschiedliche Speichersysteme zu einer virtualisierten Storage-Umgebung verschmolzen werden sollen. Doch das Vertrauen in die Technologie wächst: "Heute virtualisieren manche Kunden tatsächlich über Systemgrenzen hinweg", berichtet Siegfried Betke, Director Central Europe beim Virtualisierungsspezialisten Datacore. Das liegt an der voranschreitenden Standardisierung und daran, dass Virtualisierungslösungen immer leistungsfähiger werden.
Appliances, Controller oder Server für die Speichervirtualisierung haben zum Beispiel große Caches und leistungsfähige Prozessoren. Das beschleunigt Datenzugriffe und Migrationen beim Systemwechsel oder bei der Datenverlagerung in mehrschichtigen Speicherumgebungen (Tiered Storage). Letztere ist noch immer die wichtigste Anwendung der Technologie. Datacores Produkte SAN Symphony und SAN Melody unterstützen beispielsweise 1 TB Cache. Die Enterprise-Lösung SAN Symphony gibt es ab Frühjahr 2010 auch für 64-Bit-Systeme.
Nach wie vor umstritten ist die Frage, wo die systemübergreifende Virtualisierung stattfinden soll: Virtualisiert man direkt im Datenpfad, braucht man keine Agenten auf den Systemen, es besteht aber ein Engpassrisiko, weil Daten und Steuerinformationen die Virtualisierung passieren müssen. Virtualisiert man außerhalb des Datenpfades, brauchen die Systeme Agenten, und der Engpass ist jetzt die Appliance. Dazwischen liegen die Split-Path-Lösungen, die nur die Steuerinformationen durch das Virtualisierungssystem laufen lassen, die Daten aber an diesem vorbeischicken. Das verringert das Engpassrisiko.