Crisp Perspective

Die Disruption kommt nicht über Nacht

22.11.2017 von Martin Bayer
Auch wenn der digitale Wandel nicht von heute auf morgen über die Unternehmen hereinbricht, braucht es eine wache und lernbereite Organisation, um alle IT-technischen Entwicklungen im Auge zu behalten und richtig einordnen zu können.

Die Disruption ist gar nicht so disruptiv, wie das so mancher Experte glauben machen mag. Mit dieser Botschaft stimmte Carlo Velten, Gründer und CEO von Crisp Research, die rund 200 Besucher auf die Konferenz Crisp Perspective Mitte November in Frankfurt ein. Die Zeit sei zwar durch Veränderung und Beschleunigung geprägt, doch der technische Wandel komme nicht über Nacht, konstatierte der Analyst. Als Beleg führte Velten mit den Elektroautos von Tesla, der Cloud-Plattform Amazon Web Services sowie Bitcoin verschiedene Technologien an, die von ihren ersten Entwicklungsphasen bis hin zu einer gewissen Marktpräsenz durchaus ein knappes Jahrzehnt benötigt hätten.

Die Disruption wirft manches über den Haufen, kommt aber meist nicht so plötzlich.
Foto: Zastolskiy Victor - www.shutterstock.com

Wohlfühlkurve für die IT-Entscheider

Neue Technologien entwickelten sich zu Beginn langsam, sagte Velten. Erst wenn sie sich als gut und tauglich erwiesen, würde sich die weitere Entwicklungskurve exponentiell nach oben schwingen. Die Hype-Cycle-Kurve, mit deren Hilfe die Analystenkollegen von Gartner verschiedene auf- und abschwingende Entwicklungsphasen von Technologien beschreiben, charakterisierte er als "Wohlfühlkurve für Enterprise-IT-Entscheider". Sie verleite dazu, sich zurückzulehnen und erst einmal abzuwarten, wie sich neue Techniken entwickelten und sich möglicherweise irgendwann ganz in Wohlgefallen auflösten.

Gartner Hype Cycle for Emerging Technologies - 2005 bis 2017
2005
Bereits 2005 sieht Gartner das Thema "Augmented Reality" als ein mittelfristig wichtiges an und sagt voraus, dass es binnen fünf bis zehn Jahren - also spätestens 2015 - seinen Höhepunkt in der öffentlichen Wahrnehmung erreichen werde.
2006
Der Tablet-PC macht sich 2006 auf seinen Weg durch den Trend-Zyklus und verschwindet erst 2010, nachdem Apple das erste iPad vorstellt und ihn damit zu einem Massenprodukt macht.
2007
In diesem Hype Cycle taucht erstmals der 3D-Druck auf, der sich heute langsam auf dem Weg in die breite Anerkennung befindet.
2008
Es beginnt die Zeit des Cloud Computing - kaum ein anderer Begriff wird die IT-Branche in den folgenden Jahren so prägen. Heute - sechs Jahre später - ist die Wolke im "Tal der Desillusionierung" angekommen, wie auch der unten verlinkte Beitrag zeigt.
2009
Seit Jahren schon befindet sich das "Quantencomputing" im Bereich "Technology Trigger" mit der Aussicht, erst in ferner Zukunft wirklich relevant zu werden. Das war schon 2005 so und ist es bis heute.
2010
Das Internet-Fernsehen sollte diesem Hype Cycle nach bis spätestens 2020 ganz groß rauskommen. Mediatheken, Youtube und Streaming-Platformen befeuern diesen Trend, der sich derzeit auf dem Weg in die Massentauglichkeit befindet.
2011
Das Thema "Virtuelle Welten" beschäftigt Gartner seit dem Trend um Second Lífe in den Jahren 2007 und 2008. Ab 2012 hält es als "Virtual Reality" Einzug ins "Tal der Desillusionierung", wo es bis heute verharrt.
2012
Nachdem es viele Jahre lang eher ein nicht greifbarer Trend gewesen ist, sind die "Predictive Analytics" spätestens 2012 auf dem "Plateau der Produktivität" angekommen.
2013
In-Memory-Computing hat sich nach seinem Peak im Jahr 2011 aufgemacht, die überzogenen Erwartungen an die Datenverarbeitung direkt im Hauptspeicher ein wenig zu dämpfen - der produktive Einsatz kommt näher.
2015
Der Hype Cycle 2015 nimmt 37 Technologietrends unter die Lupe. Im Internet of Things bekommen CIOs nun künftig eine neue Kundengruppe: Dinge wie Roboter und smarte Maschinen. Big Data und In-Memory findet man allerdings nicht mehr in der Kurve, diese Technologien hält Gartner inzwischen für etabliert.
2016
Während sich Augmented und Virtual Reality im Jahr 2016 langsam in den Produktivbereich entwickeln, erlebt die Blockchain-Technologie einen rasanten Aufstieg. Machine Learning und Software-defined Security befinden sich auf dem Höhepunkt der übertriebenen Erwartungen.
2017
Die Blockchain spielt auch 2017 eine Rolle - allerdings geht es jetzt um die überzogenen Erwartungen an die neuartige Datenbank. Während es vor zehn Jahren (2007) noch um 3D-Druck ging, schreibt Gartner jetzt über 4D-Druck.
2018
2018 sieht Gartner den Hype Cycle im Mega-Trend Mensch und Maschine. Die Grenzen zwischen beiden verschwimmen, so die Analysten. Daher geht es etwa um Neuromorphic Hardware und Brain-Computer Interfaces.
2019
Das Zusammenspiel von Mensch und Maschine sowie die Einbindung Künstlicher Intelligenz stehen im Fokus von Gartners Hype Cycle for emerging Technologies 2019. Die US-Marktforscher geben für die kommenden zehn Jahre Prognosen für 29 Technologie-Trends ab.
2020
Im Hype Cycle for Emerging Technologies 2020 hat Gartner aus über 1.700 Technologien jene 30 herausgefiltert, die aus Sicht der Analysten das größte Transformationspotenzial für Gesellschaft und Wirtschaft bieten und einen hohen Nutzen versprechen. Dazu zählen in diesem Jahr unter anderem Technologien, die es Unternehmen erlauben, ihren Betrieb zu modularisieren, die das Vertrauen der Gesellschaft in Technologie wiederherstellen sollen und die den Zustand des menschlichen Gehirns verändern können.
2021
KI, Blockchain, digitale Menschen: Die Marktforscher von Gartner sagen, welche Technologien Gesellschaft und Wirtschaft in ein paar Jahren auf den Kopf stellen könnten.
2022
Zum Auftakt ihres IT Symposiums/Xpo in den USA haben die Analysten von Gartner die aus ihrer Sicht wichtigsten Technologietrends veröffentlicht, mit denen sich Unternehmen beschäftigen sollten.
2023
Dass KI ein Trendthema ist, ist uns allen bewusst. Für Gartner hat KI zudem das Potenzial in den nächsten zwei bis fünf Jahren einen transformativen Mehrwert zu erzielen.

Diese Haltung sei jedoch gefährlich, mahnte Velten. IT-Entscheider liefen Gefahr, wichtige technische Entwicklungen, die entscheidende Impulse für das eigene Geschäft geben könnten, zu verpassen. Wichtig sei daher, eine Art Innovation Management beziehungsweise Technology Lifecycle Management innerhalb der eigenen Organisation zu verankern.

Lernende Organisationen haben die Technik im Griff

Damit dies gelingt, plädiert der Crisp-Research-CEO für eine lernende Organisation als Startpunkt. Dafür brauche es jedoch auch ein Umdenken bei den Verantwortlichen in den Unternehmen. Velten spricht in diesem Zusammenhang von Offenheit, Kollaboration und Kreativität. Es gelte Freiräume zu schaffen, um sich mit neuer Technik beschäftigen zu können. Mitarbeiter müssten lernen und ausprobieren dürfen. Die Voraussetzungen dafür seien nie besser gewesen als heute, behauptet der Analyst. Schließlich müssten heute nicht erst aufwendig und teuer Infrastrukturen aufgebaut werden, um sich mit Technik zu beschäftigen. Entsprechende Ressourcen ließen sich schnell, einfach und vergleichsweise günstig aus der Cloud beziehen. "Es gibt praktisch kaum mehr Einstiegsbarrieren", lautet sein Fazit.

Aus Sicht von Carlo Velten, Gründer und CEO von Crisp Research, gibt es heute kaum noch Einstiegsbarrieren, um sich mit neuen Techniken zu beschäftigen.
Foto: Crisp Research

Vor diesem Hintergrund erwartet Crisp Research in den kommenden Jahren massive Veränderungen in den Unternehmen durch IT. Allerdings sei es teilweise nicht trivial, diesen Wandel im Griff zu haben und in die richtigen Bahnen zu lenken. Velten führt als Beispiel das Thema Cloud Computing an. Das Bezugsmodell etabliere sich mehr und mehr im Gravitationszentrum der Unternehmens-IT. Für das Jahr 2030 rechnet der Analyst mit einem weltweiten Cloud-Marktvolumen von etwa 250 Milliarden Dollar.

Die Komplexität nimmt zu

Gleichzeitig wachse aber auch die Komplexität. Auf den verschiedenen Plattformen gebe es immer mehr neue Dienste und Updates. Allein auf der Cloud-Plattform von AWS zählt Velten im laufenden Jahr rund 1500 Updates. Das bedeute in der Konsequenz eine hohe Komplexität für die Cloud-Kunden. Es erfordere eine kontinuierliche Beobachtung sowie ein Cloud-Innovation Management, um an dieser Stelle den Durchblick zu behalten. "Anwender müssen verstehen, was auf den Cloud-Plattformen passiert."

Public-Cloud-Plattformen im Vergleich
Amazon Web Services
Forrester attestiert AWS ein marktführendes Portfolio an Cloud-Services. Hybrid-Cloud-Szenarien aber deckten die Konkurrenten zum Teil besser ab.
Microsoft Azure
Im Azure-Portfolio loben die Forrester-Experten besonders die Services für Softwareentwickler.
IBM Bluemix
IBM kann die Vorteile seines Cloud-Angebots vor allem in Unternehmen mit etablierten IT-Strukturen ausspielen.
Google Cloud
Googles Cloud-Portfolio punktet vor allem mit Machine-Learning- und Data-Services.
Oracle Cloud
Die Oracle-Cloud ist in erster Linie für Bestandskunden des IT-Konzerns interessant, urteilt Forrester.
Interoute Virtual Data Center
Der britische Anbieter Interoute profitiert im Forrester-Vergleich von seiner starken lokalen Präsenz in Europa.
Salesforce App Cloud
Vor allem die Entwickler-Services der App Cloud von Salesforce finden das Lob der Forrester-Analysten.
CenturyLink
Die Stärken des Cloud-Portfolios von CenturyLink liegen in den ausgefeilten Konfigurations- und Automation-Features.
CloudSigma
Cloud-Services aus der Schweiz offeriert CloudSigma. Kunden profitieren von besonders flexiblen und feingranularen Konifgurationsoptionen, kommentiert Forrester.

Während sich die Cloud bereits in vielen IT-Strategien etabliert hat, zeichnet sich am Horizont eine Reihe weiterer Techniken ab, die eine gehörige Portion disruptives Potenzial mit sich bringen. Velten nennt an dieser Stelle beispielsweise das Thema Machine Learning und führt als Beleg Googles "AlphaGo" ins Feld. Das System hatte zuletzt für Aufsehen gesorgt, als es den Weltmeister im Go-Spiel in nur wenigen Partien vom Brett fegte. Mittlerweile gibt es eine neue Version von AlphaGo. Dieses System hat das Spiel ohne menschliche Hilfe nur durch eigenes Beobachten und Ausprobieren innerhalb von 72 Stunden gelernt - und das so gut, dass AlphaGo Zero seinen Vorgänger vom Start weg mit 100 zu 0 besiegte.

Lesen Sie mehr zum Thema Machine Learning:

Machine Learning: Darum geht es

Machine Learning: Das haben deutsche Unternehmen vor

Machine Learning: Die Technik

Velten geht davon aus, dass sich Machine Learning zu einem integralen Bestandteil digitaler Produkte entwickeln wird. Bis 2020 könnte sich die Technik zum Mainstream entwickeln. Der Analyst prognostiziert, dass Algorithmen und Künstliche Intelligenz (KI) in Zukunft 50 Prozent der digitalen Wertschöpfung ausmachen werden.

Quantenrechner und Computer-Gehirne

Auch im Umfeld der Compute-Architekturen sieht Velten grundlegende Veränderungen aufziehen. "Die heutigen Computer funktionierten nicht wirklich gut und effizient", bilanziert der Crisp-Chef. Mit neuen Konzepten wie Quanten-Computern und dem Neuromorphic Computing stünden jedoch bereits neue Ideen in den Startlöchern - mit teilweise weitreichenden Auswirkungen auf andere IT-Bereiche. Beispielsweise ließen sich mit einem funktionierenden Quanten-Computer sämtliche derzeit existierenden Security-Werkzeuge problemlos aushebeln. Dass es sich dabei nicht um reine Science Fiction handelt, zeigt die Tatsache, dass sich etliche große Unternehmen bereits ernsthaft mit der Technik beschäftigen, beispielsweise Volkswagen.

Velten verweist jedoch auch darauf, dass es derzeit durchaus noch gewisse Probleme bereitet, die physikalischen Voraussetzungen zu schaffen, um mit unterschiedlichen Quantenzuständen rechnen zu können. Der Analyst hält daher auch große Stücke auf ein anderes neues Compute-Konzept, das Neuromorphic Computing. Dabei geht es darum, mit Hilfe von IT die Strukturen des menschlichen Gehirns nachzubilden. Es gibt keine Trennung von Speicher und CPU. Das Projekt "The Machine" von Hewlett Packard, an dem die Entwickler bereits seit Jahren basteln, zielt in diese Richtung. Der Vorteil dieses Compute-Konzepts liegt Velten zufolge darin, dass die Technik eine gewisse Fehlertoleranz mitbringt und auch in der Lage ist, mit unpräzisen Informationen umzugehen.

Unternehmens-IT muss Stackology lernen

Die Herausforderung für die IT-Verantwortlichen in den Unternehmen werde in Zukunft vor allem darin liegen, sich aus all diesen Techniken die passenden Bausteine für die eigene Infrastruktur herauszusuchen. Stackology sei das Zauberwort an diese Stelle, sagt Velten, die richtige Orchestrierung beim Digital Platform Design. Eine wichtige Rolle spielten dabei auch die Schnittstellen sowie die Application Programming Interfaces (APIs). Deren Zahl wachse auch immer schneller, beobachtet der Analyst und verweist auf die rund 18.000 derzeit öffentlich verfügbaren APIs. Das mache die Sache allerdings auch immer komplexer und unübersichtlicher.

Um den Überblick zu behalten, brauchen die Unternehmen aus Sicht von Crisp Research eigenes Know-how und die entsprechenden Ressourcen. "Developer werden zum Erfolgsfaktor", sagt Velten. Es gehe darum, die eigene Plattform mit einer eigenen Mannschaft weiterzuentwickeln, während die grundlegenden Infrastruktur-Dienste weitestgehend automatisiert betrieben würden.

Gute Zeit, um nach Geld zu fragen

Im Aufbau der internen Ressourcen liegt aus Veltens Sicht auch der Schlüssel, neue Techniken gewinnbringend einzusetzen. Hier schließt sich für den Analysten zudem der Kreis zum Startpunkt der lernenden Organisation inklusive der notwendigen Freiräume, sich mit Technik zu beschäftigen. Wer eigene Fähigkeiten aufbaue, schaffe Vertrauen, was wiederum die Basis für Kreativität bilde, so die Rechnung des Crisp-Chefs. Und die könnte aufgehen, auch wenn es durchaus gewisser Investitionen bedürfe, um so eine Organisation aufzubauen. "Die Zeit war noch nie so gut, beim Management nach mehr Geld zu fragen."