Die Top 100 IT-Unternehmen

Was den Server-Markt verändert

04.12.2010 von Jan-Bernd Meyer
Es tut sich etwas im Server-Geschäft. Analysten glauben, dass ein wirtschaftlich-technischer Wandlungsprozess eingesetzt hat, der nichts mehr so lässt, wie es einmal war.
Der Kampf im Servermarkt wird sich im Data-Center entscheiden. Quelle: Rittal
Foto: Rittal

Zunächst einmal lässt sich festhalten, das Unternehmen nach Jahren der Ausgabenzurückhaltung jetzt auch wieder in Server investieren. Dabei hat dieses Marktsegment eine bittere Zeit hinter sich. Die wirtschaftliche Depression der vergangenen zwei bis drei Jahre wirkte sich je nach geografischer Region mehr oder weniger deutlich auf den Markt für Server aus.

In Großbritannien etwa, so beobachtet IDC-Analyst Thomas Meyer, war der Server-Markt zwischenzeitlich nahezu komplett zusammengebrochen. In Deutschland dagegen bewegten sich die Verkaufszahlen in der Krisenzeit auf dem internationalen Niveau. Adrian O'Connell, Principal Research Analyst bei Gartner, sagt: "Deutschland hat sich nicht wesentlich vom Rest Europas und auch der Welt unterschieden. Die wirtschaftlichen Schwierigkeiten haben sich überall im gleichen Maß bemerkbar gemacht."

Business as usual?

Und jetzt, nach dem wirtschaftlichen Niedergang, wieder Business as usual? Keinesfalls: "Die wirtschaftliche Abkühlung hat Unternehmen zu einem Umdenken geführt: Anwender haben sich vermehrt Gedanken über ihre IT-Infrastruktur gemacht und darüber, ob sie für die gleichen Plattformen und Technik auch die gleichen Investitionen tätigen wollen wie bisher", sagt O'Connell. Dabei würden sie mittlerweile auch vor dem Wechsel auf andere Plattformen nicht zurückschrecken.

Sonderfall Deutschland

In Sachen Plattformen ist Deutschland übrigens ein Sonderfall: Hierzulande sei, so der Gartner-Mann, die Vorliebe für die Unix- und Mainframe-Welten größer als in anderen Ländern. Entsprechend viele Anwender kommen für einen Wechsel auf andere Systemumgebungen in Frage. Besonders IBM, Hewlett-Packard (HP) und Dell, die sich allein 80 Prozent des weltweiten Server-Marktes teilen, bemühen sich darum, Migrationsinteressierte für die jeweils eigenen Plattformen zu begeistern.

Top 5 - Servermarkt 4. Quartal 2009 nach Umsatz
Platz 5: Fujitsu
Platz 4: Sun / Oracle
Platz 3: Dell
Platz 2: HP

Ein anderes deutsches Sonderphänomen ist die starke Präsenz von Fujitsu. Über die Fujitsu-Siemens- und die Siemens-Nixdorf-Vergangenheit haben die Japaner im deutschen Server-Markt immer noch eine starke Bastion - anders als in anderen Ländern. Die lokale Stärke in Deutschland auf andere europäische Länder auszudehnen "wäre nun eine Aufgabe von Fujitsu", sagt O'Connell. Mit britischer Höflichkeit merkt er an, dies sei für Fujitsu bislang stets eine "Herausforderung" gewesen.

Servermarkt weltweit nach Gartner
Servermarkt weltweit 2009 nach Gartner
Servermarkt weltweit nach Umsatz im ersten Quartal 2009 nach Gartner
Servermarkt weltweit 2009 nach Gartner
Servermarkt weltweit nach Umsatz im zweiten Quartal 2009 nach Gartner
Servermarkt weltweit 2009 nach Gartner
Servermarkt weltweit nach Umsatz im dritten Quartal 2009 nach Gartner
Servermarkt weltweit 2009 nach Gartner
Servermarkt weltweit nach Umsatz im vierten Quartal 2009 nach Gartner
Servermarkt weltweit 2009 nach Gartner
Servermarkt weltweit nach Stückzahlen im zweiten Quartal 2009 nach Gartner
Servermarkt weltweit 2009 nach Gartner
Servermarkt weltweit nach Stückzahlen im dritten Quartal 2009 nach Gartner
Servermarkt weltweit 2009 nach Gartner
Servermarkt weltweit nach Stückzahlen im vierten Quartal 2009 nach Gartner
Servermarkt weltweit 2010 nach Gartner
Servermarkt weltweit nach Umsatz im zweiten Quartal 2010 nach Gartner
Servermarkt weltweit 2010 nach Gartner
Servermarkt weltweit nach Stückzahlen im zweiten Quartal 2010 nach Gartner

Nichts bleibt, wie es ist

Doch mit großen Herausforderungen werden sich alle Anbieter - und Anwender - konfrontiert sehen. "2009 hat es eine Reihe von Ereignissen gegeben, die den Server-Markt in den kommenden Jahren verändern werden - unwiderruflich, für immer." Andrew Butler, Vice President und Distinguished Analyst bei Gartner, der dies formuliert, beugt Einwänden gleich vor: "Ich weiß, das hört sich jetzt vielleicht etwas dramatisch an. Aber es hat 2009/2010 eine Entwicklung begonnen, von der wir alle noch nicht genau wissen, wohin sie gehen wird."

Sein Kollege O'Connell sieht es genauso: Die heftigen wirtschaftlichen Turbulenzen in Verbindung mit diversen technischen Weiterentwicklungen werden wesentliche Umbrüche im Server-Markt bewirken. Zu den viel diskutierten Konzepten, die den Weg in die Zukunft aufzeigen sollen, zählen Private und Public Cloud Computing, Converged Infrastructure, Utility Computing und Fabric based Computing.

Wann kommt die schöne neue IT-Welt?

Alle diese Begriffe zielen im Prinzip auf das Versprechen, künftig werde es eine schöne neue Welt der effizienteren, konsolidierten, automatisierten Data Center geben. Deren wesentliches Charakteristikum wird sein, dass Anwender die diversen Komponenten eines Rechenzentrums (Speicher, Prozessoren, I/O-Karten, Blades etc.) unter anderem auch mit Hilfe von Virtualisierungstechniken als einen großen Fundus von Ressourcen sehen und je nach Bedarf kombinieren und nutzen können.

Doch so weit ist es noch lange nicht, wie Butler zu verstehen gibt: "Wir reden hier über technische Entwicklungen, die erst zu einem späteren Zeitpunkt realisiert werden."

Heute ist in den Rechenzentren immer noch mehr oder weniger Normalität angesagt. Und die heißt: "Unternehmen müssen ihr Rechenzentrum konsolidieren", so Butler. Je weniger komplex das Ergebnis, desto besser. Bei der Lösung solcher Probleme müssen CIOs das kaufen, was es heute auf dem Markt gibt und in ihre Infrastruktur passt.

Die Zukunft beginnt heute

Trotzdem beginnt die Zukunft schon heute: "Bei der Lösung ihrer jetzigen Probleme müssen die IT-Verantwortlichen immer mit einem Auge darauf schauen, was sich demnächst, was sich in wenigen Jahren ergeben wird", so Butler.

IDC-Mann Meyer stellt in diesem Sinn die Fragen, die Weichen für die Zukunft sind: Werden preiswerte x86-Server das Rechenzentrum erobern? Was passiert dann mit Unix? Was mit den Legacy-Systemen? Wohin mit proprietären Betriebssystem- und Hardware-Plattformen? Welche IT-Technikkonzepte helfen einem Unternehmen, seine Geschäftsprozesse effizient und sicher abzubilden?

Cloud Computing etwa wird laut IDC in den kommenden Jahren in IT-Organisationen abheben wie eine Rakete. Katherine Broderick, Research Analyst Enterprise Platforms and Datacenter Trends bei IDC, sagt, vor allem Anbieter mit einer Public-Cloud-Infrastruktur würden in den kommenden vier Jahren drastisch erhöhte Ausgaben haben. Die mit Servern erwirtschafteten Umsätze im Public-Cloud-Umfeld werden sich demnach von 582 Millionen Dollar im Jahr 2009 auf 718 Millionen Dollar in 2014 erhöhen. Im Private-Cloud-Segment geht erst recht die Post ab: IDC rechnet vor, dass Server-Anbieter die Umsätze bis 2014 auf 5,7 Milliarden Dollar mehr als verdoppeln können (2009: 2,6 Milliarden Dollar).

Ciscos Markteintritt zeigt Wirkung

Veränderungen deuten sich allerdings nicht nur in technischer Hinsicht an. Auch auf Anbieterseite erlebte der Markt im vergangenen Jahr und bis heute Umwälzungen.

Das erste nachhaltige Ereignis war Ciscos Eintritt in den Server-Markt. Zwar kann man heute noch nicht von nennenswerten Marktanteilen sprechen. Diese sind winzig. Cisco verfügt aber " über einen enormen Data-Center-Einfluss", sagt Gartner-Analyst Butler. Cisco habe sehr starke Partner im Hardwareumfeld. Hierzu ist beispielsweise ein veritabler Speicheranbieter wie EMC zu nennen. Zudem hat sich der Netzwerkanbieter einen "sehr guten Vertriebskanal" aufgebaut. Durch seine Netzlösungen in vielen Rechenzentren ist das Unternehmen darüber hinaus heute längst ein strategischer Partner. Butlers Fazit zu Ciscos Eintritt in den Server-Markt: "Das hat einen erheblichen Eindruck hinterlassen. Andere Anbieter müssen jetzt ihre Strategien überdenken und ihre Geschäftsbeziehungen möglicherweise neu gestalten."

Server-Virtualisierung
Ratgeber
Diese Schritte haben sich in der Praxis bewährt.
Schritt 1
Ziele und Strategien festlegen: Nicht immer stehen eine bessere Auslastung der IT und niedrigere Kosten ganz oben auf der Agenda. Vielen Unternehmen geht es schlicht darum, den IT-Wildwuchs einzudämmen.
Schritt 2
Quick-Wins mit einem schnellen Return on Investment (RoI) zuerst angehen. (Bild: Fotolia)
Schritt 3
Betriebsprozesse anpassen: Dieser Aspekt wird oft unterschätzt. Die Virtualisierung verändert etwa das Aufgabenfeld der Administratoren. (Bild: Messer Industriegase)
Schritt 4
Schulungen organisieren, Disziplin einfordern: Ohne ausreichendes Know-how und klare Regeln entsteht schnell ein Wildwuchs virtueller Maschinen.
Schritt 5
IST-Zustand analysieren: Eine genaue Bestandsaufnahme der vorhandenen IT-Komponenten sollte Grundlage jeder Server-Virtualisierung sein. (Bild: Fotolia)
Schritt 6
Workload Assesment und Sizing: Nicht nur die Server-Kapazität ist maßgeblich. IT-Manager müssen auch die Storage- und Netzwerk-Anforderungen im Auge behalten.
Schritt 7
Scale-up oder Scale-out? - Soll die Rechenlast auf einen großen oder viele kleine Server-Systeme verteilt werden ?
Schritt 9
Lizenzfragen klären: Das Management unterschiedlicher Lizenzmodelle kann in vitrualisierten Umgebungen sehr komplex werden.
Schritt 10
Altsysteme abschalten: Die Sparpotenziale der Virtualisierung lassen sich nur dann voll ausschöpfen, wenn alte IT-Systeme nach dem Projekt auch tatsächlich ausrangiert werden.

Dass Cisco im Server-Markt bisher keine nennenswerten Marktanteile besetzt hat, sei nicht von Bedeutung. Butler: "Cisco ist ein geduldiges Unternehmen. Die überstürzen nichts." Das erste Ziel des Herstellers sei es gewesen, zuverlässige Systeme anbieten zu können: "Sie wollten gar keinen schnellen Erfolg." Am Beispiel VoIP könne man Ciscos Strategie aufzeigen: Zehn Jahre habe es gedauert, um diesen Markt anzugehen. "Heute sind sie in diesem Produktsegment Marktführer."

Zugegebenermaßen habe es Cisco im VoIP-Markt mit "eher selbstzufriedenen Anbietern" zu tun gehabt, sagt der Gartner-Mann. Sich hier in die Führungsposition zu manövrieren sei nicht so schwer gewesen. Im Server-Markt sei das durch die Vorherrschaft von IBM, HP und Dell ganz anders. "Wenn Cisco hier auch nur unter die großen Drei kommen will, muss es einen sehr langen Weg zurücklegen."

Aber für Cisco ging es beim Einstieg in den Server-Markt 2009 auch nicht um eine Strategie für 2010. Ausrichtung und Produkte zielen darauf, wie sich der Markt im Jahr 2015 entwickelt haben wird. "Cisco wird Produkte entwickeln, von denen die Anwender heute noch gar keine Ahnung haben, dass sie sie einmal brauchen werden", so Butler.

Um mit seinen Servern in den Marktanteilsstatistiken sofort sichtbar zu werden, könnte Cisco den Weg des chinesischen Anbieters Lenovo wählen. Der katapultierte sich mit der Akquisition der PC-Sparte von IBM 2004 sofort in die Gartner- und IDC-Hitlisten. Welchen Server-Anbieter aber könnte Cisco kaufen? Einen kleineren Anbieter, der sich in vertikalen Märkten einen Namen gemacht hat? Das bringt nichts.

Wenn die Company unter Firmenchef John Chambers aus dem Stand ein weltweit führender Server-Anbieter werden wollte, blieben nur drei Hersteller übrig, die man kaufen könnte. Gartner-Mann Butler denkt laut nach: "Bei zweien darf man getrost davon ausgehen, dass dies absolut ausgeschlossen ist. Was den dritten betrifft, nun ja, wilde Spekulation." Nachdem allerdings die Margen im Standard-Server-Geschäft (also der x86-basierenden Maschinen) wie im PC-Segment nur sehr gering sind, könnte man sich fragen, ob etwa eine IBM interessiert daran sein könnte, sich auf die profitträchtigere Großrechner- und Unix-Boliden-Sparte zu konzentrieren. Doch wie sagte schon Butler: Wilde Spekulation.

Oracle/Sun

Ein ganz anderer Fall war die Akquisition von Sun durch Oracle. Auch sie hat den Server-Markt stark beeinflusst - und dass, obwohl der Kauf formal erst im Januar 2010 abgeschlossen wurde. Im gesamten Jahr 2009 habe die Branche auf Sun gesehen, als wäre das Unternehmen ein Todeskandidat, meint Butler. Hinzu kam ein unglaublich langes Akquisitionsprozedere. "Allein das war für Sun, für Sun-Kunden und für die Partner von Sun sehr schlecht."

Jetzt könne das fusionierte Unternehmen ein Komplettangebot aus Hard- und (Betriebssystem-)Software anbieten, was ohne Zweifel "den Markt verändern wird".

Allerdings gibt es ein großes Aber: Die eigentliche Herausforderung für das fusionierte Unternehmen komme erst noch. Jetzt würden die Anwender wieder zu investieren beginnen. Jetzt überlegten sie auch, wie sie ihre Data Center neu aufsetzen, neu strukturieren können. "Und da könnte schon die Frage aufkommen, ob die Oracle/Sun-Hardware noch die richtige ist."

Problem Unix: S-Klasse oder C-Klasse

Die Analysten von Gartner und IDC kommen bei solchen Reflexionen zu noch grundsätzlicheren Themen, die den Server-Markt über kurz oder lang bewegen werden. Noch vor der Frage, was aus Sparc und Solaris wird, müsse man sich generell überlegen: "Was ist die Zukunft von Unix? Und folgerichtig: Was wird aus Risc? Was aus Itanium?"

Die Server des Jahres 2020 dürften nach Ansicht von Gartner vielleicht nur noch zwei oder vier Prozessoren besitzen. Da erhebe sich schon die Frage, wer dann noch ein Unix-Betriebssystem brauche? Ein Betriebssystem, das darauf getrimmt worden ist, 128 Prozessoren zu unterstützen, wird an Bedeutung verlieren. Die Strategie von VMware sei geradezu eine Herausforderung bezüglich der Frage, "was ein Betriebssystem überhaupt ist und wie viel Betriebssystem Anwender noch brauchen".

Ähnliches lässt sich über Prozessorarchitekturen sagen: Je mehr Anwender sich in einer so genannten Scale-out-Welt wiederfinden, die gekennzeichnet ist durch eine Vielzahl von Lego-Bausteinen mit Compute-, Storage- oder Networking-Intelligenz, desto irrelevanter wird eine Prozessorarchitektur, so phantastisch sie auch skalieren kann.

Letztlich machen die Gartner-Analysten eine einfache Rechnung auf: IT-Verantwortliche würden sich bei neuen Projekten immer häufiger fragen: "Brauchen wir eigentlich noch all diese Befähigungen, Charakteristika, Features? Wieso müssen wir eine S-Klasse kaufen, wenn es ein C-Modell auch tut?"

Denn Tatsache sei, dass die x86-Plattform für fast alle Aufgaben gut genug ist. Und da stelle sich allen Anbietern von Unix-Systemen sehr wohl die Frage, wie sie sich mit ihrem Hard- und Softwareangebot künftig aufstellen wollen. Dies immer gesehen vor dem Hintergrund einer Planung für die Jahre 2015 bis 2020. In dieser nicht so fernen Zukunft "werden Anwender nämlich von der x86-Plattform im Prinzip alles bekommen, was sie für ihre Hausaufgaben benötigen", sagt Butler.

Kaum Vertrauen in Solaris/Sparc

Genau hier beginnen aber die Probleme - nicht nur - für Oracle/Sun: Wenn er mit Sun-Kunden spreche, stelle er fest, "dass das Vertrauen in Solaris und Sparc einen erheblichen Schlag erhalten hat", so Butler. Kurzfristig müsse das Hardware-Software-Unternehmen den Kunden wieder Vertrauen in die Solaris/Sparc-Plattform als echte Alternative zu AIX und HP-UX einimpfen.

Mittel- und langfristig muss Oracle/Sun den Anwendern vermitteln, welchen Stellenwert Solaris im Unternehmen überhaupt noch besitzt.

Oracle nämlich ist stark auf Linux fokussiert. Anwender fragen sich heute, wieso Oracle noch in Solaris investieren sollte, wenn das ganze New Business von Oracle in den vergangenen Jahren stark auf Linux ausgerichtet wurde, wie Gartner betont. Bestes Beispiel sei, dass die Exadata Database Machine ausschließlich für Linux geschrieben wurde. Hierbei handelt es sich um ein vorkonfiguriertes Paket aus Hardware von Sun und Oracle-Software, das sich vor allem für Data-Warehouse-Anwendungen und Online Transaction Processing (OLTP) eignen soll.

Gartner meint, man müsse einfach sehen, dass sich "Linux und Solaris gegenseitig im Weg stehen". Zwar seien IBM und HP in Sachen Unix mit ähnlichen Fragen konfrontiert. Auch sie müssen Entscheidungen für ihr jeweiliges Unix-Portfolio treffen. "Aber im Moment schaut eben jeder auf Oracle und beobachtet, was dort passiert."

Globale Präsenz nicht honoriert

Fujitsu wiederum hat ein ganz anderes Problem. Dem Unternehmen, so Butler, wird es "dummerweise nicht gelohnt, dass es eine so hohe globale Präsenz und so viel Know-how besitzt". Ähnliches könne man auch über Hitachi und NEC sagen. Die japanischen Anbieter bekämen generell zu wenig Anerkennung für die Breite ihres Angebots, ihre Kompetenz.

Definitiv brauche der Markt Fujitsu. Zum einen bietet das Unternehmen für die Anwender eine historisch bedingte, bedeutsame Präsenz in Deutschland. Zum anderen hat es vielfältige Erfahrungen im Mainframe-Markt ebenso wie im Unix-, Linux- und Windows-Umfeld. Fujitsu ist darüber hinaus durch die Übernahmen von ICL und Amdahl ein gewichtiger Anbieter von Services.

Was ist der Fokus von Fujitsu?

Den Analysten ist allerdings nicht klar, worauf Fujitsu sich fokussieren wird. "Sie zeigen beispielsweise wenig Enthusiasmus, ein großer Unix-Anbieter zu sein." Auf Fujitsus Hausmesse im November 2009 in München habe man sich schwergetan, irgendein Unix-System zu finden. Augenscheinlich verwenden die Japaner einen Großteil ihrer Energie auf die x86-Plattform: auf Blade-, Linux-, Windows-Systeme. Hinzu kommt die Konzentration auf Appliance- und Packetlösungen wie etwa "Flexframe".

Fujitsu versuche, die bestehende Unix- und Mainframe-Klientel bei Laune zu halten, ihr Loyalität zu zeigen. Geht es aber um Wachstumspotenziale im Server-Markt, dann schenkt Fujitsu seine ganze Aufmerksamkeit der x86-Plattform und starken Serviceangeboten, die auf vertikale Industriekompetenz ausgerichtet ist. Außerdem baut Fujitsu seine Cloud-Kompetenz stark aus. Hierzu kooperiert das Unternehmen beispielsweise mit Microsoft und dessen Cloud-Plattform-Angebot "Azure". (jm)