Die Client-Virtualisierung spielt erst seit 2008 in der allgemeinen Diskussion über die künftige Client-Infrastruktur eine nennenswerte Rolle. Die meisten Unternehmen verhielten sich zunächst noch abwartend, um zu eruieren, welche Vorteile sich daraus konkret ergeben und wo die Fallstricke sind. Entsprechend klein ist derzeit noch der Markt für derartige Lösungen, mit Ausnahme des seit Längerem etablierten Ansatzes der Presentation-Virtualisierung, den die meisten Anwender unter Server Based Computing beziehungsweise Terminal Services kennen. Inzwischen gibt es aber schon zahlreiche Projekte, die sehr erfolgreich umgesetzt wurden. Die mit der Client-Virtualisierung im Wesentlichen verfolgten Ziele werden nachfolgend erläutert:
Drei Ziele der Client-Virtualisierung
1. Administration der Clients vereinfachen
Reduktion des Wartungsaufwands auf der Client-Seite: Ein nicht unerheblicher Anteil der gesamten IT-Administrationstätigkeiten entfällt auf den Client-Bereich. Zwar lassen sich diese Aufwendungen durch geeignete System-Management-Werkzeuge reduzieren, jedoch verbleiben zwei wesentliche Bereiche, die durch Client-Virtualisierung adressiert werden können.
-
Zentrales Patchen: In einer üblichen Fat-Client-Infrastruktur müssen alle Clients einzeln gepatcht werden. Dies gilt einerseits für Updates des Betriebssystems und andererseits für alle Applikationen. Um die Anwender bei ihrer Arbeit nicht über Gebühr zu belasten, haben viele Unternehmen die Möglichkeit vorgesehen, dass die Anwender Updates verschieben können. Der Nachteil dabei ist, dass Updates zum Teil sehr spät eingespielt werden und damit die Infrastruktur tendenziell unsicher wird.
In einer virtuellen Client-Umgebung werden Updates in der Regel zentral eingespielt, zum Beispiel über Nacht, und sind somit völlig transparent für den Anwender. Ein weiterer Vorteil ist, dass ein zentrales Patchen weniger fehleranfällig ist und damit keine zusätzlichen Kosten in der IT und bei den Anwendern durch nicht oder nicht richtig funktionierende Endgeräte entstehen.
-
Weniger Einsätze vor Ort: In virtuellen Umgebungen sind in der Regel deutlich weniger Technikereinsätze beim Anwender dezentral nötig, da ein Großteil der Applikationslogik sowie teilweise auch das Betriebssystem zentral verwaltet werden. Entsprechend sind Einsätze vor Ort nur noch bei defekter Hardware vonnöten, was aber relativ selten vorkommt.
Integration und Datensicherheit
2. Integration aller Endgeräte durch Virtualisierung
Integration von neuen beziehungsweise nicht standardkonformen Endgeräten: Seit Mitte 2010 zeigen sich neue Trends auch in der Unternehmens-IT. Einerseits möchte eine steigende Zahl von Anwendern ihre eigene Hardware nutzen - "Bring your own PC" lautet der entsprechende Slogan. Andererseits wächst der Wunsch, auf Applikationen mittels Smartphone oder Tablet-PC zugreifen zu können, auch wenn dort kein Standard-Betriebssystem läuft und Anwendungen nativ nicht lauffähig sind. Eine Lösung dieser relativ neuen Herausforderung ist die Virtualisierung der Clients. Damit ist lediglich ein Browser auf dem jeweiligen Endgerät notwendig, um alle Anwendungen betreiben zu können.
3. Erhöhung der Datensicherheit
Daten, die nicht zentral gehalten werden, können kaum mit vertretbarem Aufwand gesichert werden. Gleichzeitig zeigt die Erfahrung, dass Vorgaben zur Speicherung von Daten im Netz sowie nicht lokal nur unzureichend befolgt werden. In einer virtuellen Client-Umgebung lässt sich die zentrale Speicherung wesentlich einfacher erzwingen, da es keine lokale Datenhaltung geben kann. Entsprechend kann ein Datenverlust durch geeignete Backup-Strategien weitestgehend ausgeschlossen werden.
Fünf Ansätze der Client-Virtualisierung
Bei der Client-Virtualisierung unterscheidet man im Wesentlichen die folgenden Ansätze:
-
Client-Virtualisierung,
-
Managed Desktop VM,
-
Application Streaming,
-
Presentation-Virtualisierung (auch Server Based Computing genannt),
-
Virtual Desktop Infrastructure (VDI).
Client-Virtualisierung
In seiner grundlegendsten Form funktioniert die Virtualisierung von Clients analog zur Server-Virtualisierung mit Hilfe eines Hypervisors. Dadurch ist es möglich, mehrere Betriebssysteme parallel auf einem Client ablaufen zu lassen. Insbesondere Softwareentwickler nutzen diese Möglichkeit, um Software in einem isolierten Bereich testen zu können, ohne den Betrieb des Clients insgesamt zu stören. Ein weiteres Beispiel ist die Nutzung auf Apple-Hardware, um dort Microsoft Windows und Windows-Anwendungen nutzen zu können. Ein zentrales Management ist in der Regel jedoch nicht möglich, was den Administrationsaufwand tendenziell erhöht. Ein breiter Einsatz in Unternehmen ist also eher nicht zu empfehlen und findet derzeit auch kaum statt.
Managed Desktop VM
Managed-Desktop-VM-Produkte ergänzen die Client-Virtualisierung durch eine zusätzliche Sicherheitsschicht. Eine Managed-Desktop-Lösung ermöglicht es Unternehmen, ein oder mehrere Standard Desktop Virtual Machine Templates zu erstellen sowie zentral zu managen. Diese Templates werden dann in Form einer virtuellen Maschine verteilt. Sicherheit ist dabei die größte Herausforderung, auf die mit Virtual Machine Authentication und eingeschränkten Zugriffen auf lokale Ressourcen reagiert wird. Zu den wichtigsten Einsatzszenarien gehören die Verteilung von Anwendungen, die mit dem Betriebssystem nicht kompatibel sind (zum Beispiel ältere Windows-2000-Anwendungen unter Windows 7) oder Anwendungen für Freiberufler, die nur auf einzelne Daten zugreifen können sollen, sowie die Absicherung von PCs von Mitarbeitern mit eigenem PC. Problematisch ist in der Regel der relativ umständliche Synchronisierungsprozess. Derzeit finden Managed-Desktop-VM-Lösungen insbesondere bei der Anbindung von Freiberuflern ihren Einsatzbereich, speziell dann, wenn die Presentation-Virtualisierung nicht implementiert oder nicht geeignet ist.
Application Streaming
Application Streaming umfasst paketierte Anwendungen, die auf einem Streaming Server gehostet werden. Von dem Streaming Server werden sie in kleinen Paketen auf den jeweiligen Client geladen und laufen dort lokal in einem isolierten Bereich - einer Sandbox - ab. Die Wartung derartiger Anwendungen ist einfacher, da sie zentral im Rechenzentrum gehostet werden. Ein Offline-Betrieb ist ebenfalls möglich, da die Anwendung lokal arbeitet. Darüber hinaus ist auch das Deployment einfacher, da die Anwendungen in der Sandbox laufen, also keine Probleme mit neuen Betriebssystemen oder anderen Anwendungen hervorrufen können. Applikationen mit sehr kurzem Update-Zyklus sind in diesem Zusammenhang eher als problematisch zu werten, weil nach Updates die Anwendungen neu paketiert werden müssen. Derzeit ist der Einsatz von Applikation-Streaming-Produkten noch sehr begrenzt, nicht zuletzt, weil viele Mittelständler und die großen Unternehmen weiterhin auf Presentation-Virtualisierung setzen.
Presentation-Virtualisierung
Bei dieser Form der Virtualisierung greifen Anwender von ihrem Client auf eine Applikation zu, die auf einem Server läuft. Ursprünglich wurde diese Technik eingeführt, um so genannte Task Workers zu unterstützen, die nur ein oder zwei Programme nutzen und keinerlei Anpassungen vornehmen müssen. Kernstück dieses Verfahrens ist das Remote Access Protocol, welches es dem Anwender erlaubt, vom Client auf die jeweilige Anwendung zuzugreifen. Diese Technik ist auch für Virtual Desktop Infrastructure (VDI) wichtig. Die entscheidenden Vorteile liegen in der Reduktion von Kompatibilitätsproblemen und in der Tatsache, dass alle Daten im Rechenzentrum verbleiben. Falls keine Offline-Arbeit nötig ist, ist diese Technologie ideal, um Tablet-PCs, Smartphones und anderen Gadgets Zugriff auf Unternehmensanwendungen zu ermöglichen. Das größte Manko dieses Ansatzes ist jedoch die fehlende Offline-Funktionalität. Wenn nicht einmal eine schmalbandige Verbindung zum Server besteht, ist ein Arbeiten nicht möglich.
Die Presentation-Virtualisierung ist noch immer die am häufigsten genutzte Client-Virtualisierungslösung. Das liegt einerseits an der Tatsache, dass entsprechende Produkte von Microsoft und Citrix seit über zehn Jahren auf dem Markt sind (Terminal Server, Meta-Frame etc.). Andererseits aber auch daran, dass die Ressourcenausnutzung im Rechenzentrum am besten gewährleistet werden kann, so dass im Vergleich beispielsweise zur VDI weniger Server benötigt werden. Ein weiterer Grund für die konstante Beliebtheit der Presentation-Virtualisierung liegt in der Administration der Applikationen, die zentral erfolgt und keinen zusätzlichen Aufwand wie etwa eine Neupaketierung beim Application Streaming nach sich zieht.
Virtual Desktop Infrastructure
Ähnlich wie beim traditionellen Thin Client Computing werden beim VDI-Verfahren Desktops auf virtualisierten Servern gehostet. Anwender greifen über ein Endgerät und ein Remote-Access-Protokoll zu. Da der eigentliche Desktop und die Daten im Rechenzentrum verbleiben, sind Wartung und Fehlersuche wesentlich einfacher und die Datensicherheit besser sicherzustellen als beim klassischen Fat-Client-Betrieb.
Problematisch ist der Umstand, dass VDI-Lösungen relativ komplex sind. Es wird neben einer Server-Virtualisierungslösung auch ein Remote-Access-Protokoll, ein Connection Broker und sinnvollerweise auch Image-Cloning und Netzwerk-Booting benötigt. Das größte Manko dieses Ansatzes ist die häufig fehlende Offline-Funktionalität. Wenn keine Verbindung zum Server besteht, ist ein Arbeiten nicht möglich. Es gibt inzwischen zwar sowohl von Citrix als auch von VMware zusätzliche Features, die ein Arbeiten offline mit VDI ermöglichen, jedoch sind sich die wesentlichen Anbieter von Managed Services im Client-Umfeld einig, dass eine unternehmensweite Nutzung dieser Optionen noch nicht empfehlenswert ist. Zusätzlich ist festzustellen, dass die Betriebskosten einer Virtual Desktop Infrastructure deutlich höher sind als bei der klassischen Presentation-Virtualisierung.
Wann gibt Client-Virtualisierung Sinn?
Client-Virtualisierung wird bei den meisten Unternehmen dann ein Thema, wenn Techniken Einzug halten, die mit klassischen Methoden nicht oder nicht effizient unterstützt werden können.
Zurzeit sind viele Unternehmen damit beschäftigt, die anstehende Windows-7-Migration zu planen. Einige haben das Testing der Applikationen bereits abgeschlossen, wenige bereits mit dem Rollout begonnen.
Das Thema Client-Virtualisierung ist im Allgemeinen relativ komplex und bindet deutlich Ressourcen in den IT-Abteilungen, das Gleiche gilt für die Windows-7-Migration. Deshalb ist es nicht ratsam, beides parallel zu versuchen. Insbesondere mittelständische Unternehmen mit begrenzten IT-Ressourcen sind also gut beraten, sich an folgendes Vorgehen zu halten:
-
Entscheidung für oder gegen VDI treffen.
-
Applikations- und Integrationstest von Windows 7 ausführen.
-
Problematische Applikationen auf Virtualisierbarkeit (Application Streaming, Presentation-Virtualisierung) testen.
-
Virtualisierungslösung gegebenenfalls implementieren.
-
Rollout von Windows 7 umsetzen.
Mit diesem Vorgehen ist sichergestellt, dass einerseits die notwendige Infrastruktur bereitsteht und andererseits die Ressourcen nicht überlastet werden.