Vom Speicher bis zur Analyse

Wie NetApp zum Cloud-Integrator werden will

13.12.2018 von Karin Quack
Während die meisten Infrastrukturanbieter massiv unter dem Trend zur Cloud leiden, will der Speicher- und Daten-Management-Konzern NetApp genau davon profitieren. Auf seinen diesjährigen Anwenderkonferenzen Insight 2018 in Las Vegas und Barcelona präsentierte das Unternehmen ein vierstufiges Modell sowie die passenden Tools für die Cloud-übergreifende Systemintegration.

Wer seine Anwendungen und seinen Speicherbedarf aus der Cloud bezieht, braucht keine Infrastruktur? Im Gegenteil! Vor allem die Unternehmen, die Services von unterschiedlichen „As-a-Service“-Anbietern mit hauseigenen Systemen kombinieren, sollten ihre IT-Systeme ordentlich aufgeräumt haben, um den Überblick nicht zu verlieren. Für eine nahtlose Integration der unterschiedlichen Services müssen sie diese auf mehreren Levels integrieren: von der Speicher- und der Datenebene her sowie bezüglich der Services, über die Orchestrierung, Integration und Kontrolle und auch hinsichtlich der Systemanalyse.

Auf der NetApp Insight 2018 in Barcelona konnten sich mehr als 8.800 Besucher über Neuigkeiten rund um Cloud, Storage und IT-Infrastruktur aus dem Hause NetApp informieren.
Foto: NetApp

Der 1992 gegründete Infrastrukturspezialist NetApp (bis 2008 „Network Appliance“) aus Sunnyvale, Kalifornien, hat das offenbar erkannt und sein Geschäft darauf eingerichtet. Das Unternehmen, das sich lange Zeit vor allem auf Anwendungsintegration und Datensicherung konzentriert hatte, positioniert sich seit kurzem als Integrator von hybriden Multi-Cloud-Architekturen. Das hat dem Umsatz sowie dem Aktienkurs gutgetan. Die Einnahmen betrugen im vergangenen Jahr fast sechs Milliarden Dollar – Tendenz steigend. Der Wert der NetApp-Aktie lag 2016 noch bei 20 Dollar, heute bewegt er sich um die 60 Dollar.

Kunden bauen eigene Integrationsumgebung

Ende 2015 hatte NetApp zunächst den Flash-Speicher-Anbieter SolidFire gekauft, der beispielsweise innerhalb der „FlexPod“-Infrastruktur von Cisco und NetApp Verwendung findet. Ein Jahr später brachte der Daten-Management-Konzern sein Betriebssystem Ontap in einer für den Flash-Speicher maßgeschneiderten Ausführung (Version 9) auf den Markt. Laut Anbieter laufen heute alle Komponenten der hauseigenen „Hyper-Converged Infrastructure“ (HCI) mit demselben Betriebssystem. Mit Hilfe dieses Private-Cloud-Gerüsts könnten sich die Kunden relativ schmerzfrei eine eigene Integrationsumgebung bauen. Eine Flash-optimierte Datenanalyse-Software folgte im Herbst 2016.

„Wir sind mehr ein Software- als ein Hardwareunternehmen“, kontert Jörg Hesske, Vice President Germany, Austria and Switzerland, die Versuche, NetApp immer noch in die Speicherecke zu stellen. Die Top-Themen der diesjährigen Kunden- und Partnerkonferenz „NetApp Insight Europe“ lauteten denn auch Datenintegration, Künstliche Intelligenz und digitale Transformation.

NetApp-CEO George Kurian erörtert die Auswirkungen der digitalen Transformation auf die IT.
Foto: NetApp

Digitale Transformation fordert die IT heraus

Wie NetApp-CEO George Kurian in Bacelona betonte, erfordert digitale Transformation definitiv eine Anpassung der IT-Umgebung. Aus seiner Sicht gibt es dabei drei wichtige Aspekte:

• Geschwindigkeit ist der Schlüssel zum Erfolg. Die IT-Transformation ist demzufolge unbedingt auch auf mehr Effizienz auszurichten. Silos müssen eingerissen werden; Virtualisierung ist Pflicht; um die Cloud führt kein Weg herum.

• Hybride Multi-Cloud-Umgebungen bilden die neue De-facto-Architektur. Auf diese Weise lässt sich auch das gefürchtete Vendor-Lockin vermeiden. Zudem haben die unterschiedlichen Provider, so Kurian, jeweils individuelle Stärken, die es auszunutzen gelte.

• Das Data Center ist tot, es lebe das Data-Fabric-Konzept. Bei diesem „Datengewebe“ handelt es sich um eine Architektur für ein durchgängiges Daten-Management, die Teil des NetApp-Portfolios ist. Es spielt darin keine Rolle mehr, wo sich die Daten befinden, sie müssen nur überall dort verfügbar sein, wo sie benötigt werden: im traditionellen IT-Center, in der Cloud oder auch on the edge, also direkt beim Anwender.

Laut Kurian ist das „datengetriebene“ Unternehmen der Status, den es zu erreichen gilt. Denn „digital“ bedeute in erster Linie gesteuert: „Ihre Daten sind außerdem das einzige Asset, das Sie Ihrem digitalen Disruptor voraushaben,“ konstatierte der NetApp-Chef.

Mit dem Konzept der Data Fabric beschäftige sich NetApp seit mittlerweile vier Jahren, so Kurian weiter: „Aber in diesem Jahr sind wir auch tatsächlich n der Lage, die drei Marktführer im Cloud-Geschäft – und damit die in ihren Umgebungen gespeicherten Daten – über die HCI zu verbinden.“

Einige Unternehmen proben den Clexit

Ein Indiz dafür, dass die Marktführer AWS, Google und Microsoft die neue NetApp-Strategie zu schätzen wissen, liefert ein Blick auf die Sponsoren-Liste der Insight Europe: Alle drei haben die Veranstaltung unterstützt. Offenbar sind die „Hyperscaler“ bislang nicht willens oder in der Lage, selbst systemübergreifende Speicher- und File-Management-Systeme zu entwickeln. Gut für NetApp, das sich vermutlich deshalb so schwertut, öffentlich über die jeweiligen Stärken und Schwächen der Anbieter zu sprechen. Schließlich will man es sich mit keinem verderben.

Wie DACH-Chef Hesske festgestellt hat, nutzen aber fast alle Kunden mindestens zwei unterschiedliche Provider – aus Gründen der Funktionalität und der Entscheidungsfreiheit. Einige hätten ihre IT – zumindest in Teilbereichen – aber auch wieder ins Haus geholt. „Wir nennen das – in Analogie zum britischen EU-Ausstieg – den Clexit.“

NetApp-DACH-Chef Jörg Hesske betont, dass die neue NetApp-Strategie kunden bei der digitalen Transformation unterstützen soll.
Foto: NetApp

In einem Unternehmen, das seine Hausaufgaben gemacht habe, stelle sich eben oft heraus, dass manche Services vor Ort preisgünstiger erbracht werden könnten, so Hesskes Begründung: „Die Idee, dass IT aus der Cloud per se billiger wäre, ist nicht richtig“, insistiert er. Deshalb sei die häufig propagierte „Cloud-First“-Strategie eigentlich schon wieder überholt: „Korrekt ist aber, dass die Cloud ein Unternehmen agiler und flexibler macht.“

Einmal Cloud und wieder zurück

Um die Cloud auch im sicherheitsbewussten Europa salonfähig zu machen, bietet NetApp den Kunden sein „Private-Storage“-Modell an. Dabei werden die Daten von einem separat installierten Speicher in die Infrastruktur des Service-Anbieters übertragen, dort verarbeitet, also analysiert und anschließend direkt wieder zurückgespielt.

Trotzdem wollen viele Kunden auch On-Premises-Service – parallel zu den Diensten unterschiedlicher Cloud-Anbieter. Und NetApp betrachtet diesen Wunsch als legitim. Zumal es einige Softwareprodukte hat, die beim gleichzeitigen Management unterschiedlicher Software-Deployments helfen können. Dazu gehören unter anderen die Lösungen "AWS Cloud Volumes", "Google Cloud Volumes" und "Azure NetApp Files“ sowie das On-Premises-Pendant "Cloud Volumes Ontap", das als ein Teil von HCI gehandhabt wird.

Multi-Cloud-Kontrollebene mit Kubernetes

Noch ganz frisch, nämlich vom September 2018, ist die Übernahme des Kubernetes-Spezialisten StackPointClouddurch NetApp. Der brachte das Know-how mit, um eine Multi-Cloud-Kontrollebene zu entwickeln, mit der sich Anwendungs-Container zwischen unterschiedlichen Umgebungen hin- und herschieben lassen. Mit dem "Kubernetes-Service" will NetApp auch das Zusammenspiel von Entwicklung und Betrieb (DevOps) unterstützen. Dank einer Verlängerung des Service in die Datenschicht hinein bleiben die Daten auch dann erhalten, wenn der Microservice selbst nicht mehr existiert.

Diese Softwareprodukte wurden bereits vor einigen Wochen auf der "NetApp Insight 2018" in Las Vegas vorgestellt. Für die Veranstaltung in Barcelona hatte sich NetApp unter anderem einen Backup-Service für Salesforce.com-Anwendungen (NetApp SaaS Backup) aufgehoben.

Selbstverständlich müsse der Anwender selbst dafür sorgen, dass die Daten seiner SaaS-Anwendungen revisionssicher abgelegt würden und im Falle eines Falles verfügbar blieben, erinnerte NetApp seine Kunden. Mit dem neuen Service ließen sich sensible Daten kontrollieren, automatisierte Backups erstellen und Granular-on-Demand-Restrukturierungen vornehmen. Auf diese Weise seien Salesforce-Daten gegen versehentliches Löschen sowie gegen Korruption oder böswillige Veränderung geschützt.

Einfache Migration von File-basierenden Workloads

Azure NetApp Files ist ein neuer Service, der unternehmensweite Storage- und Management-Fähigkeiten bereitstellt. Damit lassen sich File-basierende Workloads nach Azure migrieren und dort „ausliefern“. Entwickelt von NetApp, wird der Service direkt von Microsoft vermarktet und supportet. Derzeit befindet er sich im Preview-Status, er soll aber in den kommenden Monaten von Amsterdam, Dublin und den USA aus angeboten werden.

Einen ähnlichen Service hat NetApp für die Google-Plattform gebaut. "NetApp Cloud Volumes for Google Cloud Platform" soll die Kunden dabei unterstützen,

• datengetriebene Entscheidungen schneller zu treffen, indem sie die Analytics-Anwendungen in die Cloud verlagern,

• High-Speed-Tests und -Iterationen über Anwendungs- und Workload-Grenzen hinweg zu fahren (einschließlich Wiederherstellung-Services),

• die „Time to value“ spürbar zu verringern; dank Automatisierung lassen sich angeblich Hunderte von Entwicklungs- und Test-Umgebungen innerhalb weniger Minuten clonen.

Mit den neuen Produkten hofft NetApp, auch den Verkauf konventioneller Angebote ankurbeln zu können. Schließlich hätten etwa 60 Prozent der eigenen Kunden immer noch keine modernen Flash-Speicher. „Wir bieten den Anwendern Sicherheit“, erläutert Anthony Lye, Senior Vice President und General Manager der Geschäftseinheit Cloud Data Services bei NetApp: „Sie wissen, dass sie alles, was sie on-premises kaufen, später in der Cloud weiternutzen können.“ NetApp verfahre nach dem Byol-Prinzip: Bring your own licence!

Daten zähmen leicht gemacht

Wie auf den meisten Herstellerkonferenzen spielten auch auf der Insight Europe Kundenvorträge eine große Rolle. Star der Veranstaltung war dieses Mal der Trickfilm-ProduzentDreamworks, der ausgiebig Gelegenheit hatte, den dritten Teil von „Drachen zähmen leicht gemacht“ zu promoten.

So zauberhaft der Film auch sein mag – so richtig würdigen kann man ihn vermutlich nur, wenn man die Fakten kennt, die Kate Swanborg, Senior Vice President of Technology Communications and Strategic Alliances bei Dreamworks, in ihrer Präsentation verriet: Jeder Dreamworks-Film dauert etwa 90 Minuten. Die Bilder laufen mit 24 Frames pro Sekunde ab, wobei jedes Detail – von der Landschaft im Hintergrund bis zum einzelnen Haar des Hauptdarstellers – eigens entworfen wird. Das summiert sich auf insgesamt 500 Millionen Dateien pro Film.

„Man kennt uns für unsere Filme, aber was wir eigentlich herstellen, sind Daten“, so Swanborg: „Und wenn die Daten das Produkt sind, dann ist der File-Server die Fabrik.“ Gemeinsam mit NetApp entwickelt Dreamworks derzeit eine Data Fabric für Echtzeit-Umgebungen, in dem sich die Daten sowohl teilen als auch persistent speichern lassen.

Künstliche Intelligenz und Machine Learning in Deutschland 2018
Studien-Methodik
Künstliche Intelligenz und Machine Learning
Attribute von KI-Software
Unternehmen fokussieren auf Effizienz. Innovation nicht unter den Top Antriebsfaktoren
Die fünf größten Hürden für KI
Ist künstliche Intelligenz in Deutschland angekommen?
Vielfältige KI-Technologien im Einsatz – Wissensextraktion und Spracherkennung am häufigsten sichtbar
Intelligente Assistenten klar im Fokus der Unternehmen
Cloudbasierte KI-Services und Open Source Frameworks dominieren
Fehlende Spezialisten bremsen KI-Projekte ab und aus
Hoher KI-Fachkräftebedarf in Business und IT
Hoher Informationsbedarf – Unternehmen nutzen breite Informationsbasis
Ambitionierte Umsetzungspläne in allen Branchen
Highlights aus der Studie

Die nächste Stufe der Künstlichen Intelligenz

Ein anderer Kunde und gleichzeitig Partner von NetApp ist Cambridge Consultants. Die Beratungs- und Engineering-Firma hat ein Forschungsprojekt unternommen, das vor allem im Zusammenhang mit autonomen Fahrzeugen wichtig sein dürfte. Sie nennt es „Deep Ray“.

Viele werden sich noch an den heftig diskutierten Unfall erinnern, bei dem ein selbstfahrendes Auto ein großes weißes Fahrzeug nicht richtig erkannt hat. Fehlwahrnehmungen, also quasi beschädigte oder unvollständige Daten, können auch durch Regen oder andere Licht brechende Phänomene auftreten. Hier soll Deep Ray Abhilfe schaffen, indem es die mangelhafte Datenqualität deutlich verbessert.

Es handelt sich um eine selbstlernende (Deep-Learning-) Anwendung, die mit Hilfe von Kunstgemälden oder unscharfen Fotografien so trainiert wird, dass sie aus zerstörten oder fehlehaften Aufnahmen das Original zu etwa 70 Prozent wiederherstellen kann – und das quasi in Echtzeit. „Hundert Prozent wäre vielleicht möglich, aber das ginge zu Lasten der Performance“, sagt Tim Ensor, Commercial Director Artificial Intelligence bei Cambridge Consultants. Das Prinzip hinter diesem Projekt nenne sich Generative Adversarial Network oder kurz: GAN.

„Heute sind die meisten AI-Anwendungen entweder nicht besonders intelligent oder aber unerheblich“, so der KI-Experte weiter. Deep Ray, dass in Indien bereits getestet wird, soll hingegen beides sein. Und was für Bilder gilt, lässt sich grundsätzlich auch auf Ton- und Streaming-Aufnahmen übertragen. (hal)