Wandel des Arbeitsplatzrechners

Desktop als Service statt setup.exe

16.12.2008 von Wolfgang Sommergut
Der schon etwas angestaubte Desktop hat dank Virtualisierung neue Perspektiven. Besonders die Trennung von Windows, Anwendungen und Benutzerprofilen eröffnet zahlreiche Optionen. Der Preis dafür ist zunehmende Komplexität.

Das etablierte Desktop-Modell gilt als monolithisch, weil seine wesentlichen Komponenten eng miteinander verzahnt sind. Das Betriebssystem wird in einer hardwarespezifischen Konfiguration auf einen lokalen Datenträger aufgespielt, und die Anwendungen legen bei der Installation dort nicht nur ihre Dateien ab, sondern modifizieren das System zusätzlich mit ihren Konfigurationsinformationen. Schließlich sind auch noch individuelle Einstellungen der Benutzer Teil des Gesamtpakets.

Die Nachteile dieses Modells sind bekannt:

Der monolithische Charakter des herkömmlichen Arbeitsplatzrechners verlangt daher eine weitgehende Kontrolle des Desktops durch die IT-Abteilung. Die Bedürfnisse der Benutzer nach Flexibilität und eigenen Gestaltungsmöglichkeiten enden dort, wo die Installation individueller Anwendungen das gesamte System außer Gefecht setzen kann. Deshalb schlägt in der dauernden Spannung zwischen zentraler IT und den Freiheitsbestrebungen der Endanwender das Pendel in den meisten Unternehmen zugunsten der Systemverwaltung aus.

Das Versprechen virtueller Desktops

Als wichtigster Trend gilt die Verlagerung des Desktops in virtuelle Maschinen auf dem Server. Eine solche Virtual Desktop Infrastructure (VDI) kann durch die Entkoppelung von Windows und der PC-Hardware die Kosten senken: Billigere Endgeräte kommen zum Einsatz, außerdem lassen sich vorhandene Arbeitsplatzrechner länger verwenden, da sich Betriebssystem-Upgrades nicht mehr auf den Client auswirken. Als weiteren Vorteil versprechen alle Hersteller aus diesem Segment, dass die im Rechenzentrum zusammengefassten virtuellen Desktops sicherer seien und sich einfacher verwalten ließen.

Tatsächlich steckt der zentralistische Ansatz aber noch in den Kinderschuhen und leidet unter einigen ungelösten Problemen. Dazu zählen:

Ein Windows für alle

Bei der Verlagerung der Clients in das Rechenzentrum verbietet es sich, das traditionelle Modell auf virtueller Hardware fortzuführen. Alleine das Speichern und Verwalten individueller Systemabbilder für jeden Benutzer inklusive aller lokaler Anwendungen und persönlicher Einstellungen würden sämtliche potenziellen Vorteile von VDIs zunichte machen. Der Platzbedarf Hunderter oder Tausender Images wäre astronomisch hoch, und das Einspielen von Fehlerkorrekturen erwiese sich als mindestens so aufwändig wie bei herkömmlichen PCs.

Das Ziel praktisch aller Anbieter besteht deswegen darin, möglichst viele Anwender mit einem einzigen Systemabbild zu bedienen. Dieses darf idealerweise keine benutzerspezifischen Anpassungen oder Anwendungen enthalten und muss sich auf ein generisches Basissystem beschränken. Alle weiteren Bestandteile eines Desktops werden dann während der Laufzeit eingespielt, seien es Anwendungen oder Benutzerprofile.

Einen dritten Weg zwischen individuellem Image für jeden Benutzer und vollständiger Auftrennung des Desktops möchte VMware mit "Scalable Virtual Image" beschreiten. Dabei teilen sich viele Nutzer ein gemeinsames Systemabbild, und ihre individuellen Änderungen werden separat gespeichert.

Programme und Windows trennen

Beim Trennen der Anwendungen vom Betriebssystem kommen Techniken zum Zug, die teilweise schon länger existieren. Zu den etablierten Möglichkeiten, Anwendungen auf einen PC zu bringen, ohne sie dort zu installieren, zählen die Terminaldienste im Windows-Server und die dafür von Citrix angebotenen Erweiterungen ("Presentation Server", mittlerweile umbenannt in "XenApp").

Beim Terminal-Server läuft die Anwendung auf dem Server, nur die Bildschirmausgabe und Benutzereingaben gehen über das Netz.

Dieses Modell wurde als "Server Based Computing" bekannt und heißt mittlerweile bei den meisten Anbietern "Presentation Virtualization". Es ist weit verbreitet und eignet sich auch dazu, Anwendungen in virtuellen Desktops bereitzustellen. Die Software läuft dabei vollständig auf dem Server, und die Bildschirmausgabe wird auf den (virtuellen) Arbeitsplatz übertragen. Allerdings stößt dieser Ansatz bei grafikintensiven Anwendungen und Audioprogrammen wie Softphones an seine Grenzen.

RDP und ICA als Flaschenhals

Diese Beschränkungen gehen vor allem auf das Konto der eingesetzten Zugriffsprotokolle, allen voran Microsofts Remote Desktop Protocol (RDP). Die Citrix-Alternative ICA leistet zwar mehr, de facto nutzen Unternehmen diese Lösung aber vornehmlich auf aufgabenorientierten Arbeitsplätzen, etwa für Beratersoftware in Banken oder für Eingabemasken betriebswirtschaftlicher Anwendungen. Wenn auf Terminal-Anwendungen herkömmlich über physikalische PCs zugegriffen wird, kann der Administrator aufwändige Programme lokal installieren und so den Defiziten dieser Technik ausweichen.

In VDI-Umgebungen lassen sich die Schwächen der Remote-Display-Protokolle nicht auf diese Weise umgehen, weil der Anwender damit auf sämtliche Software seines virtuellen Desktops zugreifen muss. Die Hersteller bemühen sich daher verstärkt, diese Mechanismen zu verbessern und das Benutzererlebnis jenem der lokalen PCs anzunähern. Microsoft plant eine Reihe von Fortschritten für RDP 7, das allerdings Windows 7 vorbehalten bleiben soll. Die mit der Übernahme von Calista Technologies erworbene Technik zur flüssigeren Darstellung von 3D-Anwendungen verzögert sich jedoch auf die nächste Version.

Anwendungen in der Sandbox ausführen

Produkte zur Anwendungsvirtualisierung waren eine Domäne kleinerer Anbieter, bevor die Branchengrößen diese Technik als ideale Ergänzung für ihre VDI-Strategie erkannten. Die Übernahme von Softricity durch Microsoft, von Thinstall durch VMware und von Altiris sowie Appstream durch Symantec wertet die Bedeutung der Applikationsvirtualisierung auf. Besonders die Integration von "App-V 4.5" (ehemals "Softgrid") in das "Microsoft Desktop Optimization Pack" (MDOP) könnte dazu beitragen, dass sich diese Form der Ausführung von Programmen durchsetzt.

Tools wie ThinApp ziehen eine Schicht zwischen Betriebssystem und Anwendung ein, die Änderungen am System verhindert.

Das wesentliche Ziel von Applikationsvirtualisierung besteht darin, Anwendungen von ihrer Umgebung zu isolieren, so dass Konflikte mit anderen Programmen oder dem Betriebssystem vermieden werden. Der Unterschied zur Desktop- und Server-Virtualisierung besteht darin, dass die Abstraktionsschicht nicht zwischen Hardware und Betriebssystem, sondern zwischen einzelnen Anwendungen und dem Betriebssystem eingezogen wird. Die Ablaufumgebung gaukelt den Applikationen wesentliche Systemkomponenten wie Registrierdatenbank oder Dateisystem vor und fängt entsprechende Zugriffe ab. Im Gegensatz zum klassischen Desktop entfällt die Installation von Software.

Keine Systemveränderungen durch Programme

Dieser Ansatz erleichtert das Management von Systemabbildern für virtuelle Desktops, weil Anwendungen lokal ausgeführt werden können, ohne dass das Image durch eine Setup-Routine modifiziert werden muss. Microsoft propagiert dieses Modell auch deshalb, weil es auf physischen PCs die Migration auf neue Windows-Versionen beschleunigen kann. Gerade die Kompatibilitätsprobleme von Vista ließen sich damit besser in den Griff bekommen. Die Anwendungsvirtualisierung eignet sich schließlich auch für Terminal-Server.

Besonders die Kombination aus Terminaldiensten und Anwendungsvirtualisierung könnte sich in vielen Fällen als veritable Alternative zu virtuellen Desktops entpuppen. Die Schwierigkeiten, die schlecht programmierte Software in Multiuser-Umgebungen verursacht, gelten als Hauptargument für VDI-Lösungen. Die Virtualisierung der Programme könnte solche Inkompatibilitäten beseitigen. Microsoft bietet daher einen eigenen App-V-Client für den Terminal-Server an.

Virtualisierung auf dem Client

Unter VDI versteht man nach gängigem Sprachgebrauch die Einrichtung von virtuellen Desktops auf dem Server. Genau genommen müssen dazu aber alle Lösungen gezählt werden, die Client-Installationen von der Hardware ablösen. Das gilt etwa auch für etablierte Tools wie "VMware Workstation".

Die Bedeutung Client-seitiger Virtualisierungssoftware nimmt mit dem Bestreben der Hersteller zu, ihre VDI-Lösungen offline verfügbar zu machen. VMware zeigte bereits im Frühjahr auf seiner Hausmesse in Cannes eine Vorabversion seiner "Offline Virtual Desktop Infrastructure". Dabei kann ein Benutzer den im Rechenzentrum laufenden Desktop in eine virtuelle Maschine auf dem lokalen Rechner übertragen und unterwegs nutzen wie einen lokalen Desktop. Nach Rückkehr in die Firma spielt das System die zwischenzeitlich vorgenommenen Änderungen zurück auf den Server.

Firmen-Desktop auf fremden PCs

Auch ein gelegentlich als veraltet gehandelter Typ-2-Hypervisor wie VMware Workstation und "Virtual PC" kann in einem umfassenden Virtualisierungskonzept wichtige Aufgaben übernehmen. Da er auf Basis eines vollständigen Host-Betriebssystems läuft, schafft er die Möglichkeit, einen Unternehmens-Desktop auch auf Geräten anzubieten, die einem Angestellten oder einem freien Mitarbeiter gehören. Dafür eignen sich besonders virtuelle Desktops, die sich über zentrale Richtlinien so steuern lassen, dass etwa der Datenaustausch zwischen Gast und Host unterbunden werden kann.

VMware bietet mit ACE schon länger eine derartige Lösung an, die ein Paket aus Virtualisierungssoftware, Betriebssystem und Anwendungen schnüren kann. Ein externer Projektbeteiligter kann beispielsweise einen solchen Desktop auf einem USB-Stick mitnehmen und auf jedem beliebigen PC starten. Nach dem Ende des Projekts wird der virtuelle Unternehmens-PC gemäß dem zuvor eingegebenen Ablaufdatum automatisch deaktiviert.

Microsoft erweitert seinen Virtual PC mit der von Kidaro zugekauften Technik um ähnliche Features. Das auf Microsoft "Enterprise Desktop Virtualization" (Med-V) umgetaufte Produkt ist zusätzlich in der Lage, nur einzelne Anwendungsfenster des Gastsystems auf dem Host einzublenden, so dass der Benutzer eine einheitliche Umgebung aus physischem und virtuellem System erhält. Med-V soll im nächsten Jahr ebenfalls Bestandteil von MDOP werden.

Fazit

Den IT-Abteilungen steht schon heute eine ganze Palette von Virtualisierungsoptionen für den Desktop zur Verfügung, im Lauf der nächsten Jahre wird sich das Angebot noch ausweiten. Obwohl die Produkte für große VDI-Lösungen noch Defizite aufweisen, stehen bereits einige bewährte Techniken zur Verfügung, die den monolithischen Desktop aufbrechen können und für viele Benutzerszenarien neue Optionen bieten.

Die zunehmende Ablösung der Client-Funktionen von der Hardware des Arbeitsplatzrechners stellt Systemverwalter vor neue Herausforderungen, weil sie eine gesteigerte Komplexität bewältigen müssen. Allerdings eröffnet die Überwindung alter Zwänge neue Chancen, etwa bei der Integration externer Mitarbeiter. Die Isolierung von bisher fest miteinander verklebten Schichten einer PC-Installation kann dazu führen, dass sich das Desktop-Management auf seine Hauptaufgabe konzentrieren kann. Diese besteht darin, die Benutzer überall und jederzeit mit den benötigten Anwendungen zu versorgen, und nicht in der Kontrolle über einen monolithischen Desktop.

Optionen zur Desktop-Virtualisierung

Die Ansätze zur Auftrennung des monolithischen Desktops ergänzen sich nicht nur, vielmehr stehen in bestimmten Szenarien verschiedene Wege zur Verfügung:

  • Virtualisierung der Präsentationsschicht: etabliertes Verfahren mit Terminal-Server und Citrix Xenapp;

  • Virtualisierung von Anwendungen: Ausführung der Programme ohne Installation und abgeschottet vom Betriebssystem;

  • Virtualisierung des gesamten Desktops: Verlagerung der Client-Installation auf den Server;

  • Virtualisierung der Benutzerprofile: Trennung der individuellen Daten und Einstellungen vom Desktop, entweder durch Microsofts Server-basierende Profile oder Tools wie den "Citrix User Profile Manager" oder durch das von Quest Software gekaufte Scriptlogic.