Streit zwischen HP und Oracle

7 Dinge, die Sie über Itanium wissen sollten

02.08.2011
HP will seinen früheren Partner Oracle per Klage zwingen, Intels Itanium-CPUs weiter zu unterstützen. Warum ist Itanium für HP so wichtig und was sollen VMS-Kunden jetzt tun?

Der Streit zwischen Hewlett-Packard und Oracle über die Server-Prozessor-Plattform Itanium eskaliert. Käme das Aus für Itanium, wären davon besonders Anwender des einst von Digital Equipment (DEC) entwickelten Betriebssystems VMS betroffen, das heute unter dem Projektnamen OpenVMS gepflegt wird. Es läuft heute noch in etlichen Großunternehmen auf HPs Integrity-Servern, die mit Itanium-Chips ausgerüstet sind. Dogan Baser, EMEA Manager beim Virtualisierungsanbieter Stromasys, beantwortet die wichtigsten Fragen zum Thema.

1. In welchen Servern steckt Itanium?

Intel entwickelt die Itanium-Chips fast ausschließlich für Enterprise-Server von HP. Die 64-Bit-Prozessoren bilden das Herzstück der Integrity-Server. Itanium steckt aber auch in Servern von SGI, Hitachi und Fujitsu. Meistens entscheiden sich IT-Verantwortliche für einen Integrity-Server, weil darauf das besonders stabile Betriebssystem OpenVMS laufen kann, auf das viele nicht verzichten wollen.

2. Was wirft HP Oracle vor?

Der genaue Wortlaut der Anklageschrift ist uns nicht bekannt. Laut Pressemeldungen wirft HP seinem ehemaligen Partner Oracle Wettbewerbsverzerrung vor. Im vergangenen Jahr hatte Oracle den Serverspezialisten Sun Microsystems übernommen, doch die Verkaufszahlen der Sparc-Server befinden sich derzeit in freiem Fall. Sie sind neben IBM der Hauptkonkurrent für HPs Integrity-Server. HP beschuldigt Oracle also, die Kunden zum Kauf von Sun-Servern statt Integrity zu zwingen, indem man die Softwareentwicklung für Itanium einstellt.

3. Warum ist Itanium für HP so wichtig?

HP führt derzeit die Hitliste der Server-Produzenten an. Mit einem Marktanteil von 31,5 Prozent liegt der Konzern derzeit vor seinen Konkurrenten IBM, Dell und Oracle. Eine besonders wichtige Rolle spielen dabei laut IDC ProLiant- und Integrity-Server.

Vier Trends im Bereich Rechenzentrum

Folgende Entwicklungen werden nach Einschätzung von Emerson Network Power, einem Hersteller von Komponenten für Rechenzentren, die Entwicklung im Data-Center in den kommenden Jahren prägen:
Eine deutliche höhere Dichte von Systemen:
Die Wärmeleistung pro Rack steigt demnach im Schnitt von etwa 11 Kilowatt im laufenden Jahr und bis auf 17 kW im Jahr 2019. Durch die höhere Packungsdichte benötigen solche Rechenzentren etwa 35 Prozent weniger Energie. Hinzu kommen Einsparungen durch den geringeren Platzbedarf. Ein Data Center mit etwa 800 Quadratmetern und einer Wärmeleistung von 20 kW pro Rack wird in wenigen Jahren dieselben Leistungswerte erreichen wie heute ein Rechenzentrum mit 3000 Quadratmetern. Die Einsparungen, bezogen auf die Baukosten, betragen in diesem Fall etwa zwischen 700.000 Euro und rund 2 Millionen Euro. <br /><br /> Allerdings erfordert die wachsende Rechenleistung pro Rack spezielle Kühlungs- und Stromversorgungssysteme. Notwendig ist eine Kombination von Kalt-/Warmgang-Konzepten in Verbindung mit Wasserkühlung und mit modularen "Power Distribution Units" (PDUs) im Rack. Dadurch lässt sich der Energiebedarf der Systeme pro Rack um etwa ein Drittel senken.
Verfügbarkeit gewinnt an Bedeutung:
Die Anforderungen an die Verfügbarkeit von Rechenzentren und den IT-Services, die über sie bereitgestellt werden, nimmt drastisch zu. Amazon beispielsweise garantiert für seinen Cloud-Computing-Service "Elastic Compute Cloud" (EC2) eine Verfügbarkeit von 99,95 Prozent. Das heißt, die Ausfallzeit pro Jahr darf 4,5 Stunden nicht überschreiten. <br /><br /> Ein Großteil der Systemausfälle in Data Centern geht laut Emerson Network Power auf Ausfälle der Stromversorgung oder Probleme mit der Kühlung zurück. Deshalb gewinnen unterbrechungsfreie Stromversorgungen an Bedeutung – auch deshalb, weil sie Spannungsspitzen ausfiltern und von Servern, Switches und Storage-Systemen fernhalten. <br /><br /> Ein weiterer Faktor, der die Anfälligkeit von Rechenzentren senkt, ist eine Verringerung der Zahl aktiver Komponenten in Kühlsystemen. Dies lässt sich beispielsweise durch eine verstärkte Kühlung mithilfe von Außenluft erzielen. Sie macht zumindest einen Teil der Lüfter, Gebläse und Pumpen innerhalb eines Data-Centers überflüssig.
Flexibilität ist ein zentraler Faktor:
Rechenzentren müssen stärker denn je mit Lastspitzen zurechtkommen. Auch diese Entwicklung wird durch Cloud-Computing forciert: Handelshäuser werden beispielsweise in der Vorweihnachtszeit Rechenkapazitäten hinzubuchen, in den Sommermonaten dagegen die Nachfrage reduzieren. Das heißt für Server, Stromversorgungssysteme und Klimaanlagen: Sie müssen ihre Leistung an die Nachfrage anpassen. Das war bislang nicht der Fall, speziell bei der Kühlung und Stromversorgung. Diese Systeme laufen in vielen Rechenzentren stets unter Volllast, was sich negativ auf die Kosten auswirkt. Modulare Stromversorgungen und Kühlsysteme, die sich automatisch an Veränderungen der Umgebungstemperatur anpassen, können dieses Problem lösen.
Managebarkeit gewinnt an Bedeutung:
Die Komplexität von Rechenzentren nimmt weiter zu, bedingt durch Virtualisierung, immer leistungsfähigere Server mit Mehrkernprozessoren und die angesprochene höhere Systemdichte. Die Konsequenz: IT-Verwalter benötigen Management-Tools, mit denen sie die Komponenten überwachen und steuern können. Das gilt nicht nur für aktive Komponenten, sondern auch für die Verkabelung und die Akkus von unterbrechungsfreien Stromversorgungen. Ein Infrastruktur-Management-System muss in Echtzeit Statusmeldungen übermitteln und dem Systemverwalter dabei helfen, bereits im Vorfeld Ausfälle von Geräten zu erkennen. <br /><br /> Ein weiterer Punkt, der häufig übersehen wird: Management heißt im Data Center auch das Verwalten des Raums, der für Racks und andere Komponenten zur Verfügung steht. Planungstools wie etwa Nlyte 6.0 von Nlyte helfen dabei, das Platzangebot optimal auszuschöpfen.

4. Warum stellt Oracle die Softwareentwicklung für Itanium ein?

In einer Pressemitteilung vom 23. März teilte Oracle mit, Intel habe in einem Gespräch angedeutet, den Itanium-Chip selbst auslaufen zu lassen. Deshalb habe Oracle beschlossen, keine neue Software für Itanium zu entwickeln. Intel-CEO Paul Otellini widersprach dieser Behauptung allerdings sofort und erklärte, Intel werde auch in Zukunft Itanium-Chips herstellen.

5. Wird Itanium von allen fallen gelassen?

Noch ist nicht voraussagbar, ob Itanium von allen fallengelassen wird. Oracle ist aber nicht der einzige Softwareentwickler, der die Itanium-Prozessoren nicht mehr unterstützen will. Im letzten Jahr stoppten bereits Microsoft und Red Hat die Softwareentwicklung für Itanium. Intel hält jedoch nach eigenen Angaben an den CPUs fest.

6. Was tun, wenn man einen VAX- oder AlphaServer der ehemaligen Digital Equipment Corp. (DEC) besitzt?

Bislang gibt es keinen Grund, nicht von einem VAX- oder AlphaServer auf Integrity zu migrieren. In bestimmten Fällen können Applikationen auch auf andere Betriebsysteme migriert werden oder Hardwarekomponenten ersetzt werden. Eine Alternative bieten außerdem die Charon-Emulatoren von Stromasys, die PDP-11- VAX- und AlphaServer virtualisieren.

7. Was sollten Besitzer eines Integrity-Server von HP jetzt tun?

Die brodelnde Gerüchteküche hat vor allem Integrity-Nutzer verunsichert, doch für sie heißt es erst einmal Ruhe bewahren. Im schlimmsten Fall müssten sie in den sauren Apfel beißen und VMS als Betriebssystem aufgeben. Eine andere Alternative kann es sein, auf einen physischen oder virtuellen AlphaServer zurück zu migrieren. Doch bislang gibt es noch keinen Anlass für Aktionismus. (wh)