Potenziale für MSPs

Machine Learning verändert IT-Services

04.04.2016 von Alistair Forbes
Analyse-Lösungen und Machine Learning-Technologien helfen MSPs Situationen und Entwicklungen vorherzusehen und optimale Handlungsempfehlungen zu geben.

Die Entwicklung zum anerkannten Managed Service Provider (MSP) war für IT-Dienstleister in der Vergangenheit recht mühsam. Zunächst mussten sie den Wechsel vom Break/Fix-Modell hin zu einer vorausschauenden Überwachung der IT sowie einer auf die individuellen Kundenwünsche und -anforderungen abgestimmten Beratung bewältigen. Im nächsten Schritt galt es für die MSPs, die Herausforderungen, denen sich Unternehmen angesichts zunehmender Mobilitätsbestrebungen und Cloud-Infrastruktur ausgesetzt sahen, anzunehmen und die IT-Abteilungen der Unternehmen entsprechend zu unterstützen - vor allem bei der Bewältigung neuer Unternehmensrisiken, wie beispielsweise der Schatten-IT. Doch wie geht es für die MSPs nun weiter, was ist der nächste Schritt?

Das Geschäftspotenzial im Bereich Machine Learning ist phänomenal.
Foto: Sarah Holmlund - shutterstock.com

Kollektive Intelligenz

Ambitionierte Managed-Services-Anbieter suchen ständig nach neuen Wegen, ihren Einfluss auf die IT-Strategie ihrer Kunden zu vergrößern und damit letztlich zur Verbesserung der Geschäftsergebnisse beizutragen. Denn ein solches Vorgehen gilt allgemein als der Königsweg zum Verkauf höherwertiger IT-Dienstleistungen und zum Aufbau einer langandauernden Kundenbeziehung. Doch diese neuen Verkaufschancen sind von einer Sache abhängig: der Fähigkeit, Wissen aufzudecken und nutzbar zu machen, das dem Kunden bisher nicht zugänglich war - und Daten spielen hierbei die wichtigste Rolle.

5 Tipps zum Vermeiden von Schatten-IT
Tipps gegen Schatten-IT
Die Berater von Accenture haben fünf Ratschläge gegen Schatten-IT parat.
Tipp 1: Aufklären statt Verbieten
Sinnvoller als Verbote ist die Aufklärung über die Vorteile einer geregelten Beschaffung. Zum Beispiel können Skaleneffekte IT-Kosten senken, Schatten-IT nicht. Außerdem sollten alle Mitarbeiter über Service-Level-Agreements informiert werden.
Tipp 2: Bevorzugte Hersteller auflisten
CIOs sollten kommunizieren, welche ihre bevorzugten Hersteller sind. Dabei muss Raum für Ausnahmen bleiben. Können Vertreter einer Fachabteilung gut begründen, warum sie diese oder jene Lösung eines anderen Anbieters wünschen, darf darüber verhandelt werden.
Tipp3: Beziehungspflege
Gute Geschäftsbeziehungen zu innovativen Herstellen nützen dem gesamten Unternehmen. Das funktioniert nur über eine geregelte IT-Beschaffung.
Tipp 4: Zusatzwert bieten
Der IT-Entscheider kann nicht nur Preise besser verhandeln als die Fachabteilung. Er spricht mit dem Hersteller auch über Garantieleistungen oder Hardware-Spezifikationen.
Tipp 5: Vertrauen aufbauen
Das Aufklären über die negativen Seiten von Schatten-IT ist wichtig. Im Zuge dessen kann sich die IT-Abteilung unternehmensintern als vertrauenswürdiger Partner etablieren.

Ein Großteil der Diskussion, wie die Geschäftswelt von Machine Learning profitieren kann, kommt aus den Bereichen eCommerce, Einzelhandel, Telekommunikation und Tourismus - also Branchen mit einer großen Kundenbasis und entsprechend großen Datenmengen, die man analysieren, als Entscheidungsrundlage heranziehen und aus denen man vor allem lernen kann. Auch wenn viele es gar nicht realisieren, so befinden sich MSPs doch in einer ganz ähnlichen Position wie die zuvor genannten Branchen. Genauso wie die erwähnten Branchen haben sie Zugriff auf riesige Datenmengen. So haben MSPs Zugang zu Milliarden von Datenpunkten über Millionen von Geräten hinweg, die sie auswerten und nutzen können, um aus diesen Daten mehr darüber zu erfahren, wie sie die Unternehmen ihrer Kunden besser betreuen, beschützen und unterstützen können.

Diese Daten stammen aus den IT-Strukturen, die sie betreuen, der Kundenbasis der Technologieanbieter und weiteren Quellen. Sie können Informationen über Sicherheitsrisiken, Softwarepatches, Geräteausfälle oder sogar umfangreichere Erkenntnisse über die IT-Infrastrukturen, wie beispielsweise über ISP-Bandbreite oder Datenzentrumskapazitäten, beinhalten. All diese Daten lassen sich miteinander kombinieren, um eine Übersicht oder granulare Brancheninformationen aufzuzeigen. Dadurch können MSPs auf einmal Ereignisse wie Hardwaredefizite, Bedarf an Softwareupdates oder Schwachstellen in der IT-Sicherheit aktiv vorhersagen, statt lediglich auf sie zu reagieren. Diese Zentralisierung des vorhandenen Wissens wird gerne unter dem Ausdruck "Kollektive Intelligenz" zusammengefasst und bietet MSPs enorme zusätzliche Möglichkeiten.

Prescreptive Analytics

Entscheidend für die Entwicklungs- und Umsatzschancen von MSPs ist nicht das reine Sammeln der großen Datenmengen, sondern vor allem, wie diese Daten genutzt werden. Am einfachsten wäre es, zu berichten, was passiert ist - die sogenannte beschreibende Analyse oder "Descriptive Analytics". Doch dabei wird das Potenzial für eine proaktive Handlungsweise übersehen. Sogar die sogenannten "Predictive Analytics", bei denen Daten genutzt werden, um Trends festzustellen und aus ihnen mögliche zukünftige Vorgänge abzuleiten, haben nur eine begrenzte Reichweite.

Big-Data-Glossar
Die Begriffe rund um Big Data
Big Data - was ist das eigentlich? Jeder spricht drüber, jeder versteht etwas anderes darunter. Klicken Sie sich durch unser Glossar mit den wichtigsten und meistgenutzten Begriffen (manche sagen auch "Buzzwords") und verstehen Sie, was damit genau gemeint ist. <br /><br /> <em>zusammengestellt von <a href="http://www.kommunikation-in-sendling.com/" target="_blank">Kriemhilde Klippstätter</a>, freie Autorin und Coach (SE) in München</em>
Ad Targeting
Der Versuch, die Aufmerksamkeit des potenziellen Kunden zu gewinnen, meist durch "passgenaue" Werbung.
Algorithmus
Eine in Software gegossene mathematische Formel mit der ein Datensatz analysiert wird.
Analytics
Mit Hilfe von Software-basierenden Algorithmen und statistischen Methoden werden Daten interpretiert. Dazu benötigt man eine analytische Plattform, die aus Software oder Software plus Hardware besteht und die die Werkzeuge und Rechenpower bereitstellt, um unterschiedliche analytische Abfragen durchführen zu können. Es gibt eine Reihe unterschiedlicher Formen und Einsatzzwecke, die in diesem Glossar näher beschrieben sind.
Automatic Identification and Capture (AIDC)
Jede Methode der automatischen Identifizierung und Datensammlung über eine Gegebenheit und die nachfolgende Speicherung in ein Computersystem. Etwa die Informationen aus einem RFID-Chip, die ein Scanner ausliest.
Behavioral Analytics
Behavioral Analytics nutzt Informationen über das menschliche Verhalten, um die Absichten zu verstehen und zukünftiges Verhalten vorhersehen zu können.
Business Intelligence (BI)
Der generelle Ausdruck für die Identifizierung, Herkunft und Analyse der Daten.
Call Detail Record (CDR) Analyse
Diese enthält Daten, die die Telekommunikationsunternehmen über die Nutzung von Mobilfunkgesprächen – etwa Zeitpunkt und Dauer der Gespräche – sammeln.
Cassandra
Ein verteiltes Datenbank-Verwaltungssystem für sehr große strukturierte Datenbanken („NoSQL“-Datenbanksystem) auf Open-Source-Basis (Apache).
Clickstream Analytics
Bezeichnet die Analyse der Web-Aktivitäten eines Benutzers per Auswertung seiner Klicks auf einer Website.
Competitive Monitoring
Tabellen, in denen die Aktivitäten der Konkurrenz im Web automatisch gespeichert werden.
Complex Event Processing (CEP)
Ein Prozess, bei dem alle Aktivitäten in den Systemen einer Organisation überwacht und analysiert werden. Bei Bedarf kann sofort in Echtzeit reagiert werden.
Data Aggregation
Das Sammeln von Daten aus unterschiedlichen Quellen für die Erstellung eines Berichts oder für eine Analyse.
Data Analytics
Ein Stück Software, mit dem Informationen aus einem Datensatz gezogen werden. Das Ergebnis kann ein Report, ein Status oder eine Aktion sein, die automatisch gestartet wird.
Data Architecture and Design
Legt dar, wie Unternehmensdaten strukturiert sind. Meist erfolgt das in drei Prozessschritten: Begriffliche Abbildung der Geschäftseinheiten, logische Abbildung der Beziehungen innerhalb der Geschäftseinheit sowie die physikalische Konstruktion eines Systems, das die Tätigkeiten unterstützt.
Data Exhaust
Die Daten, die eine Person bei ihrer Internet-Aktivität "nebenbei" erzeugt.
Data Virtualization
Der Prozess der Abstraktion verschiedener Datenquellen durch eine einzige Zugriffsschicht auf die Daten.
Distributed Object
Ein Stück Software, das es erlaubt, mit verteilten Objekten auf einem anderen Computer zusammenzuarbeiten.
De-Identification
Das Entfernen aller Daten, die eine Person mit einer bestimmten Information verbindet.
Distributed Processing
Die Ausführung eines Prozesses über verschiedene per Netzwerk verbundene Computer hinweg.
Drill
Apache Drill ist eine Open-Source-SQL-Suchmaschine für Hadoop- und NoSQL-Datenmanagement-Systeme.
Hadoop
Ein freies, in Java geschriebenes Framework der Apache Foundation für skalierbare, verteilt arbeitende Software in einem Cluster. Es basiert auf dem bekannten MapReduce-Algorithmus der Google Inc. sowie auf Vorschlägen des Google-Dateisystems.
HANA
SAPs Software-und Hardware-Plattform mit In-Memory-Computing für Echtzeitanalysen und große Transaktionsvolumen.
In-Database Analytics
In-Database Analytics bezeichnet die Integration der Analysemethoden in die Datenbank. Der Vorteil ist, dass die Daten für die Auswertung nicht bewegt werden müssen.
In-Memory Database
Jedes Datenbanksystem, das den Hauptspeicher für die Datenspeicherung benutzt.
In-Memory Data Grid (IMDG)
Die verteilte Datenspeicherung im Hauptspeicher vieler Server für schnellen Zugriff und bessere Skalierbarkeit.
Machine-generated Data
Alle Daten, die automatisch von einem Rechenprozess, einer Applikation oder einer nicht-menschlichen Quelle erzeugt werden.
Map/reduce
Ein Verfahren, bei dem ein großes Problem in kleinere aufgeteilt und an verschiedene Rechner im Netz oder Cluster oder an ein Grid aus unterschiedlichen Computern an verschiedenen Standorten ("map") zur Bearbeitung verteilt wird. Die Ergebnisse werden dann gesammelt und in einem (reduzierten) Report dargestellt. Google hat sein Verfahren unter der Marke "MapReduce" schützen lassen.
Mashup
Dabei werden unterschiedliche Datensätze innerhalb einer Applikation so kombiniert, dass das Ergebnis verbessert wird.
NoSQL
Datenbanken, die nicht relational aufgebaut sind und mit denen sich große Datenvolumina handhaben lassen. Sie benötigen keine festgelegten Tabellenschemata und skalieren horizontal. Beispielsweise ist Apache Cassandra eine NoSQL.
Operational Data Store (ODS)
Darin werden Daten aus unterschiedlichen Quellen gesammelt damit noch weitere Operationen ausgeführt werden können, bevor die Daten in ein Data Warehouse exportiert werden.
Pattern Recognition
Die Klassifizierung von automatisch erkannten Mustern.
Predictive Analytics
Diese Form der Analytics nutzt statistische Funktionen in einem oder mehreren Datensätzen, um Trends oder zukünftige Ereignisse vorherzusagen.
Recommendation Engine
Per Algorithmus werden die Kundenbestellungen einer Website analysiert und sofort passende Zusatzprodukte ausgesucht und angeboten.
Risk Analysis
Die Anwendung statistischer Methoden auf einen oder mehrere Datensätze, um das Risiko eines Projekts, einer Handlung oder Entscheidung abschätzen zu können.
Sentiment Analysis
Dabei werden Einträge von Leuten in sozialen Netzwerken über ein Produkt oder ein Unternehmen statisch ausgewertet.
Variable Pricing
Dabei folgt der Kaufpreis eines Produkts dem Angebot und der Nachfrage. Das erfordert die Echtzeit-Überwachung von Konsum und Lagerbestand.
Parallel Data Analysis
Ein analytisches Problem wird in Teilaufgaben aufgebrochen und die Algorithmen werden auf jede Problemkomponente zeitgleich und parallel angewendet.
Query Anal
In diesem Prozess wird eine Suchanfrage optimiert, um das bestmögliche Ergebnis zu erhalten.
Reference Data
Daten, die ein physikalisch oder virtuell vorhandenes Objekt und seine Eigenschaften beschreiben.

Dank der Nutzung von Analyse-Lösungen und Machine-Learning-Technologien ist es möglich, noch einen Schritt weiter zu gehen, nämlich die verfügbaren Daten zu erfassen sowie auszuwerten. Damit lassen sich nicht nur zukünftige Entwicklungen vorhersagen, sondern auf Grundlage der bekannten Parameter die optimale Lösung oder die beste Vorgehensweise unter verschiedenen zur Auswahl stehenden Möglichkeiten ermitteln. Und das ist noch nicht alles: Die Machine-Learning-Funktionen, die dieser Methode zugrunde liegen, können sicherstellen, dass das System aus den Abfrageergebnissen lernt und somit seine Handlungsempfehlungen ständig verfeinert. An dieser Stelle kommen "Prescriptive Analytics" ins Spiel.

Hindernisse für eine breite Verfügbarkeit

Das Geschäftspotenzial im Bereich Machine Learning ist phänomenal, doch müssen MSPs zwei wichtige Herausforderungen meistern, wenn sich zu einem solch revolutionären Schritt entschließen. Da sind zunächst die damit verbundenen Kosten. Denn die MSPs werden neue, spezielle Fachkenntnisse, eine erhebliche Rechenleistung und natürlich die Algorithmus-basierte Technologie benötigen, von der das Leistungsvermögen abhängt. Alleine deshalb geht man wohl allgemein davon aus, dass Machine Learning nur sehr großen Unternehmen vorbehalten sei. Die zweite Herausforderung sind die Daten. Denn damit die "Machines" sinnvolle, präzise Trends erkennen und konstant dazulernen können, sind große Datenmengen erforderlich - sehr viel größere Datensätze, als die meisten einzelnen IT-Anbieter haben.

Aus diesem Grund ist die "Kollektive Intelligenz" ein so wichtiger Teilbereich, und die Lösung beruht nicht nur auf der Nutzung von Machine Learning allein. Der Schlüssel zum erfolgreichen Einsatz des maschinellen Lernens ist eine große, aktive Gemeinschaft von MSPs, die allen Mitgliedern mittels einer einzigen Plattform einen aggregierten Datenbestand zugänglich macht. Alle Nutzer derselben cloud-basierten RMM-Plattform können ihre Daten sowie die ihrer Anbieter zum Datenpool beisteuern, während die Plattform selbst angepasst werden kann, damit sie auch Arbeitsabläufe mit einbezieht, die durch die aus den Daten gewonnenen Schlussfolgerungen ausgelöst werden.

MSPs sollten Machine Learning nutzen, um nicht "abgehängt" zu werden.
Foto: MyImages - Micha - www.shutterstock.com

Vorbauen für die Zukunft

MSPs befinden sich in einer erstklassigen Position, Nutzen aus dem Machine Learning zu ziehen. Tatsächlich gibt es bereits einige Anbieter, die von ihrer Vorreiterrolle profitieren und dadurch neue, lukrative Dienste anbieten können. Während Machine Learning dafür sorgt, dass die Grundfunktionen für die Netzwerke ihrer Kunden abgedeckt sind, können MSPs ihren Kunden in einer mehr beratenden Position zur Seite zu stehen und so ihr Angebot ausbauen.

MSPs, die die Vorteile von Machine Learning gar nicht in Betracht ziehen, könnten in Zukunft schnell ins Hintertreffen geraten und Einnahmen verlieren, während ihre Kunden zu IT-Dienstleistern wechseln, die Machine Learning genutzt haben, um so über mehr Zeit und Ressourcen verfügen und dadurch strategischere und wertvollere Dienstleistungen anbieten zu können. (sh)

Entwickler-Frameworks für Machine Learning
Apache Spark MLlib
Früher als Teil des Hadoop-Universums bekannt, ist Apache Spark mittlerweile ein bekanntes Machine-Learning-Framework. Sein umfangreiches Angebot an Algorithmen wird ständig überarbeitet und erweitert.
Apache Singa
Singa, seit kurzem Teil des Apache Incubator, ist ein Open-Source-Framework, das Deep-Learning-Mechanismen auf große Datenvolumen hin „trainieren“ soll. Singa stellt ein simples Programmierungsmodell für Deep-Learning-Netzwerke bereit und unterstützt dabei diverse Entwicklungsroutinen.
Caffe
Caffe umfasst ein ganzes Set von frei verfügbaren Referenzmodellen für gängige Klassifizierungsroutinen; die gewachsene Caffe-Community steuert weitere Modelle bei. Caffe unterstützt die Nvidia-Programmiertechnik CUDA, mit der Programmteile wahlweise auch durch den Grafikprozessor (GPU) abgearbeitet werden können.
Microsoft Azure ML Studio
Weil die Cloud also die ideale Umgebung für ML-Anwendungen darstellt, hat Microsoft seine Azure-Cloud mit einem eigenen ML-Service auf der Basis von „pay as you go“ ausgestattet: Mit Azure ML Studio können Nutzer KI-Modelle entwickeln und trainieren und anschließend in APIs umwandeln, um diese wiederum Anderen zur Verfügung zur stellen.
Amazon Machine Learning
Amazon Machine Learning arbeitet mit Daten, die in einer Amazon-Cloud wie S3, Redshift oder RDS liegen und kann mithilfe binärer Klassifizierungen und Multiklassen-Kategorisierung von vorgegebenen Daten neue KI-Modelle bauen.
Microsoft DMTK
Das DMTK (Distributed Machine Learning Toolkit) von Microsoft soll ML-Anwendungen über mehrere Maschinen hinweg skalieren. Es ist eher als "Out of the Box"-Lösung gedacht und weniger als Framework - entsprechend gering ist die Anzahl der unterstützten Algorithmen.
Google TensorFlow
TensorFlow basiert auf sogenannten Data-Flow-Graphen, in denen Bündel von Daten („Tensors“) durch eine Reihe von Algorithmen verarbeitet werden, die durch einen Graph beschrieben sind. Die Bewegungsmuster der Daten innerhalb des Systems heißen „Flows“. Die Graphen lassen sich mittels C++ und Python zusammenbauen und via CPU oder GPU verarbeiten.
Microsoft CNTK
Das Microsoft Computational Network Toolkit funktioniert ähnlich wie Google TensorFlow: Neuronale Netze lassen sich durch gerichtete Graphen erzeugen. Microsofts eigener Beschreibung zufolge lässt sich CNTK außerdem mit Projekten wie Caffe, Theano und Torch vergleichen – sei aber schneller und könne im Gegensatz zu den genannten gar parallel auf Prozessor- und Grafikprozessorleistung zugreifen.
Samsung Veles
Das Samsung-Framework ist dazu gedacht, Datensätze zu analysieren und automatisch zu normalisieren, bevor sie in den Produktivbetrieb übergehen – was wiederum durch eine eigene API namens REST sofort möglich ist – vorausgesetzt, die eingesetzte Hardware hat genügend Power. Der Python-Einsatz in Veles umfasst auch ein eigenes Analyse- und Visualisierungstool namens Jupyter (früher IPython) für die Darstellung einzelner Anwendungs-Cluster.
Brainstorm
Brainstorm setzt auf Python, um zwei Data-Management-APIs („Handers“ genannt) bereitzustellen – eine für CPU-Prozessing durch die Bibliothek „Numpy“ und eine für GPU-Verarbeitung via CUDA. Eine benutzerfreundliche GUI ist in Arbeit.
mlpack 2
Die neue Version der in C++ geschriebenen Machine-Learning-Bibliothek mlpack, die erstmals im Jahr 2011 erschien, bringt eine Menge Neuerungen mit – darunter neue Algorithmen und überarbeitete alte.
Marvin
Der Quellcode von Marvin ist sehr übersichtlich - die enthaltenen vortrainierten Modelle (siehe Bild) ermöglichen aber bereits eine umfangreiche Weiterentwicklung.
Neon
Neon von NervanaSystems ist ein Open-Source-Framework, das auf ein- und abschaltbaren Modulen basiert und KI-Prozesse via CPU, GPU oder Nervanas eigener Hardware ermöglicht.