HPE und Nvidia stellen Private Cloud für KI vor

18.06.2024
Von 


Manfred Bremmer beschäftigt sich mit (fast) allem, was in die Bereiche Mobile Computing und Communications hineinfällt. Bevorzugt nimmt er dabei mobile Lösungen, Betriebssysteme, Apps und Endgeräte unter die Lupe und überprüft sie auf ihre Business-Tauglichkeit. Bremmer interessiert sich für Gadgets aller Art und testet diese auch.
Mit einem gemeinsamen Lösungsportfolio wollen HPE und Nvidia Unternehmen helfen, die Einführung von eigenen GenAI-Lösungen zu beschleunigen. Erstes Resultat: Private Cloud AI.
Die HPE Discover 2024 ist nicht nur von den Inhalten interessant, auch die Location ist mit The Sphere in Las Vegas gut gewählt.
Die HPE Discover 2024 ist nicht nur von den Inhalten interessant, auch die Location ist mit The Sphere in Las Vegas gut gewählt.
Foto: HPE

Ähnlich wie Nvidia hat auch Hewlett Packard Enterprise (HPE) ein nicht ganz uneigennütziges Interesse daran, dass Unternehmen die Produktivitätsvorteile von generativer künstlicher Intelligenz (GenAI) einfach und schnell nutzen können - im Fall von HPE idealerweise On-Premises oder zumindest hybrid.

Um dies zu bewerkstelligen, kündigte der IT-Konzern auf der Hausmesse HPE Discover in Las Vegas zusammen mit Nvidia ein Portfolio gemeinsam entwickelter KI-Lösungen und Services an. "NVIDIA AI Computing by HPE", so hieß es, soll die Einführung von generativer KI bei Unternehmen beschleunigen und bei ihnen die nächste industrielle Revolution einleiten.

"Generative KI besitzt ein enormes Potenzial für die Transformation von Unternehmen", erklärte HPE-CEO Antonio Neri in seiner Keynote auf der HPE Discover, "doch die Komplexität der fragmentierten KI-Technologie birgt zu viele Risiken und Hindernisse, welche die großflächige Einführung in Unternehmen erschweren und das wertvollste Kapital eines Unternehmens - seine proprietären Daten - gefährden können."

Um hier Abhilfe zu schaffen, hätten HPE und Nvidia in einem ersten Schritt gemeinsam eine schlüsselfertige Private Cloud für KI entwickelt, erklärte Neri. Diese ermögliche es Unternehmen, ihre Ressourcen auf die Entwicklung neuer KI-Anwendungsfälle zu konzentrieren.

Schlüsselfertige Private Cloud für KI

Private Cloud AI integriert Nvidia-GPUs, -Netzwerke und -Software mit dem KI-Speicher, der KI-Rechenleistung und der GreenLake-Cloud von HPE und soll so Unternehmen jeder Größe einen energieeffizienten, schnellen und flexiblen Weg für die nachhaltige Entwicklung und Bereitstellung generativer KI-Anwendungen bieten, heißt es. So beschleunige Nvidias AI-Enterprise-Software Data-Science-Pipelines und optimiere die Entwicklung und Bereitstellung von serienreifen Copiloten und anderen GenAI-Anwendungen. Gleichzeitig sollen die in Nvidia AI Enterprise enthaltenen Nvidia Inference Micrososervices (NIM) für eine optimierte KI-Modell-Inferenz sorgen und so einen reibungslosen Übergang vom Prototyp zur sicheren Bereitstellung von KI-Modellen ermöglichen.

HPE wiederum steuert als Ergänzung mit seiner Software AI Essentials eine Reihe von vorkonfigurierten KI- und Data-Foundation-Tools bei. Diese stellen über eine einheitliche Steuerungsebene anpassbare Lösungen, fortlaufenden Unternehmens-Support und zuverlässige KI-Services wie Daten- und Modellkonformität sowie erweiterbare Funktionen bereit. Auf diese Weise soll laut HPE gewährleistet werden, dass die KI-Pipelines während des gesamten KI-Lebenszyklus konform, erklärbar und reproduzierbar sind. Außerdem wird HPE Private Cloud AI vom neuen OpsRamp AI Copilot angetrieben, der IT-Abläufe bei der Verbesserung der Workload und IT-Effizienz unterstützt.

In einem Vorgespräch mit Pressevertretern hob Fidelma Russo, CTO und Leiterin der Hybrid Cloud Business Unit von HPE, die schnelle Inbetriebnahme der Lösung hervor: "Sie schließen das Gerät an, verbinden es mit der Greenlake-Cloud, und drei Klicks später, bumm sind Ihre Data-Science- und IT-Operations-Teams startklar und können die Nvidia-Software nutzen", erklärte sie. "Außerdem bieten wir eine Evergreen-Erfahrung, sodass Sie immer die neueste Version der HPE-Software, von Nvidias AI-Enterprise-Software und NIM-Software nur einen Klick entfernt haben."

Vier Konfigurationen erhältlich

Um eine breite Palette von KI-Workloads und Anwendungsfällen zu unterstützen, wird Private Cloud AI in vier Konfigurationen angeboten. Jede davon ist modular aufgebaut und kann im Laufe der Zeit erweitert oder mit zusätzlichen Kapazitäten ausgestattet werden. Gleichzeitig soll HPEs Greenlake Cloud eine konsistente, Cloud-verwaltete Erfahrung ermöglichen.

Um verschiedene Anwendungsszenarien zu unterstützen, wird Private Cloud AI in vier Konfigurationen angeboten
Um verschiedene Anwendungsszenarien zu unterstützen, wird Private Cloud AI in vier Konfigurationen angeboten
Foto: HPE

Sie können mit ein paar kleinen Modell-Inferenz-Piles anfangen und dann auf mehrere Anwendungsfälle mit höheren Durchsätzen skalieren", erklärte Russo. "Und Sie können Retrieval Augmented Generation (RAG) oder LLM-Feinabstimmung innerhalb einer Lösung betreiben."

Was die GPUs angeht, bietet HPE die Möglichkeit, mit einem L40S-basierten System zu beginnen und es auf ein GH200 zu skalieren. "Wir haben uns mit unserem Partner Nvidia verpflichtet, die neuesten Modelle einzuführen, die für diese Anwendungsfälle geeignet sind", so die HPE-CTO.

HPE Private Cloud AI wird voraussichtlich im Herbst allgemein verfügbar sein.

Sie suchen weitere interessante Beiträge zu diversen Themen aus der IT-Welt? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten, direkt in Ihre Inbox.

Jetzt CW-Newsletter sichern