Kosten, Management, Know-how

Die Grenzen der Virtualisierung

16.04.2011 von Joachim Hackmann
Weniger Kosten, leichtere Verwaltung - die Server-Virtualsierung weckt viele Hoffnungen, doch nicht alle sind berechtigt.

Seit rund fünf Jahren arbeiten Unternehmen weltweit daran, ihre physikalischen Server in eine virtuelle Umgebung zu migrieren. Die anfängliche Skepsis ist einer breiten Akzeptanz gewichen, nicht nur auf Seiten der IT-Experten, auch bei den IT-Nutzern. Mehr als die Hälfte aller Firmen betreibt nach Zählung der Marktforscher von IDC heute Applikationen auf virtuellen Maschinen. Bis 2014 sollen 70 Prozent aller Server-Workloads in virtuellen Umgebungen abgearbeitet werden.

Die Grenzen der Virtualisierung
Foto: Imageteam _Fotolia

Seit den Anfangstagen dieser Technik haben sich viele ungelöste Fragen geklärt, so dass auch die Nutzer aus den Fachabteilungen nicht mehr auf dedizierte physikalische Ressourcen für jede ihrer Fachanwendungen bestehen. Doch insbesondere in Unternehmen mit großen Virtualisierungs-Landschaften haben überzogene Erwartungen und falsche Annahmen Einzug gehalten, die das Verhältnis zwischen IT- und anderen Geschäftsbereichen trüben können.

Heterogene Installationen

Vielerorts gibt es die Sorgen, dass mit der Virtualisierung die Homogenität in der IT untergraben wird. Eine aktuelle IDC-Erhebung unter CIOs und IT-Managern stützt diese Annahme nicht. Sie zeigt deutlich, dass Firmen, die weite Teile ihrer Infrastruktur virtualisiert haben, in der Regel, nur selten mehr als einen Hypervisor-Lieferanten wählen. "Rund 70 Prozent der Befragten wollen an einer einzigen Hypervisor-Lösung festhalten", betont Gary Chen, Research Manager bei IDC. "Nur 15 Prozent können sich vorstellen, in den kommenden zwei Jahren mehr als einen Hypervisor-Typ zu installieren."

Allerdings sind die IDC-Daten nicht unumstritten. Dan Olds, Principal der Gabriel Consulting Group, hat andere Erfahrungen gemacht. Er wirft IDC vor, die falschen Leute befragt zu haben, denn CIOs und IT-Leiter entscheiden zwar über Anschaffungen, wüssten aber häufig nicht im Detail, was in den Rechenzentren tatsächlich installiert werde. "Über alle Firmengrößen hinweg haben 71 Prozent der Befragten mehr als einen Virtualisierungs-Typen im Einsatz", zitiert Olds aus seiner Umfrage unter Data-Center-Leitern. "Citrix und Hyper-V sind günstig und einfach anzuschaffen, in den Rechenzentren wird Vieles ausprobiert. Virtualisierung ist ebenso wie Linux eine Technik der IT-Basis. Solchen Verfahren werden oft ohne Wissen der CIOs in den Data Center genutzt."

Die Downtime-Falle – Wie Sie Ausfallzeiten minimieren und die Wartung besser planen

IT-Verantwortliche wissen: Wenn ihr System ausfällt, wird es teuer – mit Folgekosten bis zu siebenstelliger Höhe! Nur: Upgrades oder Erweiterungspakete, System-Umzüge oder –konsolidierung, Unicode-Konvertierungen, Datenbank-Migration und Mandantentransfers u.ä. umfangreichere Wartungsarbeiten erfordern immer wieder die Downtime des IT-Systems:

• Wie lässt sich gerade die technische Downtime minimieren?
• Lassen sich Upgrades besser inkrementell oder im „Big-Bang“ einspielen?
• Was bietet der Minimized Downtime Service von SAP für mein Unternehmen?
• Welche Planungsschritte müssen eingehalten werden, um das Zeitfenster der Downtime so klein wie möglich zu halten

Sehen Sie hierzu den COMPUTERWOCHE Webcast an.

Großer RoI, steigende Betriebskosten

Virtuelle Server arbeiten effizienter als physikalische Server, und sie nutzen bereits installierte Hardware besser aus. Der großen Return on Investment (RoI), den Unternehmen mit der ersten und jeder weiteren Migration erzielen, wiederholt sich in den folgenden Betriebsjahren jedoch nicht, warnt James Staten, Vice President und Principal Analyst bei Forrester Research. "Wenn sie viele Projekte zur Migration physikalischer Maschinen in virtuelle Umgebungen betrieben haben, erzielen sie zunächst einmal massive Einsparungen.

Haben die Unternehmen aber den Punkt der Server-Konsolidierung überschrittet, schrumpfen die Spareffekte", schildert Staten den üblichen Ablauf. In den Geschäftseinheiten wecken die enormen Einsparungen zum Start große Hoffnungen auf dauerhafte Entlastungen in vergleichbarer Höhe, doch oft steigt das Budget sogar an, das für den Betrieb virtueller Umgebungen erforderlich ist. "Die IT findet sich dann - hoffentlich vorbereitet - in der Situation wieder, dass sie den Fachbereichen erläutern muss, warum Support- und Betriebskosten gestiegen sind", räumt Staten ein.

Die Lizenzkosten können steigen

Virtuelle Server sind günstiger und leichter zu verlagern, doch sie sind nach wie vor Server, die jeweils Software, Betriebssystem und Verwaltungs-Tools benötigen. In einem solchen Umfeld können Lizenzkosten schnell aus dem Ruder laufen. "Wenn sie eine Softwarelizenz für 500 Server gekauft haben, jedoch 600 Maschinen nutzen und zudem absehbar ist, dass weitere hinzu kommen, dürfen sie sich auf eine dicke Rechnung gefasst machen", sagt Forrster-Analyst Staten. "Es gibt einigen Spielraum für unternehmensweite Lizenzabkommen."

Das IT-Management ändert sich

Ein wichtiges Argument für virtuelle Server ist das vereinfachte Management. Sie lassen sich im Vergleich zu physikalischen Rechnern besser remote aufsetzen, konfigurieren und kontrollieren, so dass sich der Personalaufwand für die Betreuung reduziert. "Das ist die Annahme", pflichtet Marktforscher Old zunächst bei. "Aber wenn wir die Daten unserer Erhebung analysieren, zeigt sich, dass die Zahl der Befragten, die das Management als Erleichterung empfinden, sich im Lauf der letzten drei Jahre halbiert hat."

52 Prozent der IT-Experten mit virtualisierten x86-Servern erachten das Server-Management als einfacher. Dem gegenüber stehen 25 Prozent der Befragten, denen das Management virtueller Installationen schwerer fällt. "Die Ursachen sind nicht ganz klar. Möglicherweise wird die Verwaltung aufwendiger, weil mehr und mehr Arbeitslast auf die virtuellen Maschinen verlagert wird. Vielleicht sind aber auch die verfügbaren Management-Tools unzureichend", spekuliert Old.

Grenzen im IT-Know-how

Das größte Problem der Virtualisierung ist das fehlende Know-how. Selbst mancher verantwortliche IT-Experte weiß nicht genau, wie er eine Umgebung einrichten muss, damit sich das Management vereinfacht, hat Patrick Kuo, Berater aus Washington D.C., in mehreren Projekte etwa für Dow Jones, dem US-amerikanischen Supreme Court sowie dem Verteidigungsministerium der USA beobachtet. Leistungsengpässe in physikalischen Installationen beheben Administratoren, indem sie Bandbreite erhöhen oder neue Server hinzufügen. Doch haben diese Lösungen logistische und finanzielle Grenzen.

Virtuelle Installationen kennen diese Beschränkungen nicht, wenn es die IT-Verantwortlichen verstehen, die Data-Center-Ressourcen richtig einzuteilen. Doch dazu ist Know-how erforderlich, das über das reine System-Management von Server-Infrastrukturen hinaus geht und sich unter anderem auf das Netz- und Applikations-Management erstreckt. Entscheidend sei es, so Kuo, die Leistungsdaten des gesamten Data Centers im Blick zu haben. "Insbesondere bei den Unternehmensanwendungen ist es wichtig, die Details zu beobachten. So lässt sich analysieren, wie sich Instanzen unter Arbeitslast verhalten, wenn etwa die Auslastung auf 90 Prozent steigt. So kann man virtuelle Ressourcen gezielt hinzufügen", rät Kuo.

Virtueller Multiplikator

Der übliche Weg für das Monitoring physikalischer Server sieht die Installation eines kleinen Softwareagenten auf jedem Rechner vor. Der sammelt Leistungsdaten oder Problemberichte und übermittelt sie der zentralen Konsole. Doch auch jeder virtuelle Server benötigt einen Agenten. Laut IDC sind auf jedem physikalischen Rechner im Durchschnitt 8,5 virtuelle Maschinen installiert. Das bedeutet, das für jeden Rechner, der einer Installation hinzugefügt wird, neun bis zehn zusätzliche Ressourcen entstehen, die jeweils eine eigenen Softwarelizenz benötigen. So multiplizieren sich nicht nur Kosten, sondern auch Verwaltungsaufgaben und -daten. (jha)