Systeme von Investment-Banken oder Automobilherstellern, die weniger mit dem Endkunden zu tun haben als mehr mit aufwändigen Berechnungen wie "Monte-Carlo"-Risikoanalysen beziehungsweise Crash-Simulationen, arbeiten nur dann, wenn die Analysten oder die Ingenieure sie genau für diese Aufgaben brauchen. Doch kontinuierlich wird nie gerechnet, schon gar nicht mit hoher Auslastung. Die teuren Rechner sind während eines Großteils der Zeit weitgehend inaktiv. Im selben Unternehmen gibt es jedoch andere Abteilungen, die genau zu der Zeit, in der diese Server nicht arbeiten, ihre eigenen Systeme beispielsweise für Monatsabschlüsse bis zum Anschlag auslasten und gerne mehr Rechenkapazität hätten. Allerdings fehlt diesen Abteilungen meist das nötige Budget, um sich entsprechend mehr IT-Leistung zu besorgen. Und zu anderen Zeiten nutzen auch sie ihre Rechnerkapazitäten nicht aus.
Dies hat zur Folge, dass Unternehmensabteilungen 100 Prozent einer Rechnerumgebung bezahlen, obwohl sie das System über den Tag verteilt nur zu 20 bis 30 Prozent nutzen. Je höher die Betriebskosten eines einzelnen Servers sind, desto unwirtschaftlicher ist das Gesamtsystem. Aus diesem Grund ist es vorteilhafter, wenn ein Server während der Zeit, in der ihn eine Abteilung nicht in Anspruch nimmt, anderen Abteilungen für andere Applikationen zur Verfügung gestellt wird. Ein Rechner ist eine Ressource und sollte sich von der Abteilung, die momentan einen erhöhten Ressourcenbedarf hat, "ausborgen" lassen. Sobald derjenige, der seine Ressource verliehen hat, sie wieder braucht, muss das Ausleihen rückgängig gemacht werden.
In sehr vielen Unternehmen, insbesondere aber in der Finanzdienstleistungsinformatik, sind die IT-Systeme auf "Peak"-Nutzung ausgelegt. Doch Peaks treten nur innerhalb eines kurzen, manchmal nur sehr kurzen Zeitfensters auf (siehe Grafik "Lastprofile"). Die Lastprofile der verschiedenen Applikationen zeigen, dass der Anteil der nicht genutzten CPU-Ressourcen deutlich höher ist als die in Anspruch genommene Rechnerkapazität. Es ist eine berechtigte Frage, wie sich zum einen die gewünschten Peak-Anforderungen bewältigen lassen und zum anderen die Kosten für die Anschaffung von Hardware auf ein Minimum reduzieren werden.
Grenzen der Virtualisierung
Lösungen für dieses Optimierungsproblem bieten sich mit On-demand Computing oder mit Virtualisierung an. Ersteres bedeutet, dass eine Rechnerkapazität im Moment der Anforderung sehr zeitnah bereitgestellt wird. On-demand-Systeme müssen flexibel sein, häufig Echtzeitforderungen erfüllen und vollen Zugriff auf die zur Leistungserbringung nötigen Ressourcen bieten. Sie werden in der Regel bei speziellen Dienstleistern gemietet und sind nicht unbedingt mehr physischer Bestandteil des eigenen Rechenzentrums. Wie viel Dienstleistung in Anspruch genommen wird, entscheidet in der Regel jede Unternehmensabteilung nach dem eigenen Budgetrahmen selbst.
Virtualisierung hingegen teilt eine einzelne, physische Ressource in mehrere virtuelle, nicht-physische ein. Jedoch ist die Zuteilung der virtuellen Ressourcen eine aufwändige manuelle Tätigkeit. Je größer die virtuellen Umgebungen werden, desto schneller nimmt die Administrationsarbeit zu, weil es erforderlich ist, jeden einzelnen virtuellen Server zu steuern. Daran ändern auch die heute verfügbaren Administrations-Tools für virtuelle Umgebungen letztlich nicht viel. In der Folge ist die Mehrheit der heute im produktiven Bereich existenten virtuellen Ressour- cen wieder fix konfiguriert. Die Wirkung der Virtualisierung schmilzt in großen Umgebungen dahin, und sie endet üblicherweise an den Grenzen der IT einer Unternehmensabteilung.