Die Disruption ist gar nicht so disruptiv, wie das so mancher Experte glauben machen mag. Mit dieser Botschaft stimmte Carlo Velten, Gründer und CEO von Crisp Research, die rund 200 Besucher auf die Konferenz Crisp Perspective Mitte November in Frankfurt ein. Die Zeit sei zwar durch Veränderung und Beschleunigung geprägt, doch der technische Wandel komme nicht über Nacht, konstatierte der Analyst. Als Beleg führte Velten mit den Elektroautos von Tesla, der Cloud-Plattform Amazon Web Services sowie Bitcoin verschiedene Technologien an, die von ihren ersten Entwicklungsphasen bis hin zu einer gewissen Marktpräsenz durchaus ein knappes Jahrzehnt benötigt hätten.
Foto: Zastolskiy Victor - www.shutterstock.com
Wohlfühlkurve für die IT-Entscheider
Neue Technologien entwickelten sich zu Beginn langsam, sagte Velten. Erst wenn sie sich als gut und tauglich erwiesen, würde sich die weitere Entwicklungskurve exponentiell nach oben schwingen. Die Hype-Cycle-Kurve, mit deren Hilfe die Analystenkollegen von Gartner verschiedene auf- und abschwingende Entwicklungsphasen von Technologien beschreiben, charakterisierte er als "Wohlfühlkurve für Enterprise-IT-Entscheider". Sie verleite dazu, sich zurückzulehnen und erst einmal abzuwarten, wie sich neue Techniken entwickelten und sich möglicherweise irgendwann ganz in Wohlgefallen auflösten.
Diese Haltung sei jedoch gefährlich, mahnte Velten. IT-Entscheider liefen Gefahr, wichtige technische Entwicklungen, die entscheidende Impulse für das eigene Geschäft geben könnten, zu verpassen. Wichtig sei daher, eine Art Innovation Management beziehungsweise Technology Lifecycle Management innerhalb der eigenen Organisation zu verankern.
Lernende Organisationen haben die Technik im Griff
Damit dies gelingt, plädiert der Crisp-Research-CEO für eine lernende Organisation als Startpunkt. Dafür brauche es jedoch auch ein Umdenken bei den Verantwortlichen in den Unternehmen. Velten spricht in diesem Zusammenhang von Offenheit, Kollaboration und Kreativität. Es gelte Freiräume zu schaffen, um sich mit neuer Technik beschäftigen zu können. Mitarbeiter müssten lernen und ausprobieren dürfen. Die Voraussetzungen dafür seien nie besser gewesen als heute, behauptet der Analyst. Schließlich müssten heute nicht erst aufwendig und teuer Infrastrukturen aufgebaut werden, um sich mit Technik zu beschäftigen. Entsprechende Ressourcen ließen sich schnell, einfach und vergleichsweise günstig aus der Cloud beziehen. "Es gibt praktisch kaum mehr Einstiegsbarrieren", lautet sein Fazit.
Foto: Crisp Research
Vor diesem Hintergrund erwartet Crisp Research in den kommenden Jahren massive Veränderungen in den Unternehmen durch IT. Allerdings sei es teilweise nicht trivial, diesen Wandel im Griff zu haben und in die richtigen Bahnen zu lenken. Velten führt als Beispiel das Thema Cloud Computing an. Das Bezugsmodell etabliere sich mehr und mehr im Gravitationszentrum der Unternehmens-IT. Für das Jahr 2030 rechnet der Analyst mit einem weltweiten Cloud-Marktvolumen von etwa 250 Milliarden Dollar.
Die Komplexität nimmt zu
Gleichzeitig wachse aber auch die Komplexität. Auf den verschiedenen Plattformen gebe es immer mehr neue Dienste und Updates. Allein auf der Cloud-Plattform von AWS zählt Velten im laufenden Jahr rund 1500 Updates. Das bedeute in der Konsequenz eine hohe Komplexität für die Cloud-Kunden. Es erfordere eine kontinuierliche Beobachtung sowie ein Cloud-Innovation Management, um an dieser Stelle den Durchblick zu behalten. "Anwender müssen verstehen, was auf den Cloud-Plattformen passiert."
Während sich die Cloud bereits in vielen IT-Strategien etabliert hat, zeichnet sich am Horizont eine Reihe weiterer Techniken ab, die eine gehörige Portion disruptives Potenzial mit sich bringen. Velten nennt an dieser Stelle beispielsweise das Thema Machine Learning und führt als Beleg Googles "AlphaGo" ins Feld. Das System hatte zuletzt für Aufsehen gesorgt, als es den Weltmeister im Go-Spiel in nur wenigen Partien vom Brett fegte. Mittlerweile gibt es eine neue Version von AlphaGo. Dieses System hat das Spiel ohne menschliche Hilfe nur durch eigenes Beobachten und Ausprobieren innerhalb von 72 Stunden gelernt - und das so gut, dass AlphaGo Zero seinen Vorgänger vom Start weg mit 100 zu 0 besiegte.
Lesen Sie mehr zum Thema Machine Learning:
Machine Learning: Darum geht es
Machine Learning: Das haben deutsche Unternehmen vor
Velten geht davon aus, dass sich Machine Learning zu einem integralen Bestandteil digitaler Produkte entwickeln wird. Bis 2020 könnte sich die Technik zum Mainstream entwickeln. Der Analyst prognostiziert, dass Algorithmen und Künstliche Intelligenz (KI) in Zukunft 50 Prozent der digitalen Wertschöpfung ausmachen werden.
Quantenrechner und Computer-Gehirne
Auch im Umfeld der Compute-Architekturen sieht Velten grundlegende Veränderungen aufziehen. "Die heutigen Computer funktionierten nicht wirklich gut und effizient", bilanziert der Crisp-Chef. Mit neuen Konzepten wie Quanten-Computern und dem Neuromorphic Computing stünden jedoch bereits neue Ideen in den Startlöchern - mit teilweise weitreichenden Auswirkungen auf andere IT-Bereiche. Beispielsweise ließen sich mit einem funktionierenden Quanten-Computer sämtliche derzeit existierenden Security-Werkzeuge problemlos aushebeln. Dass es sich dabei nicht um reine Science Fiction handelt, zeigt die Tatsache, dass sich etliche große Unternehmen bereits ernsthaft mit der Technik beschäftigen, beispielsweise Volkswagen.
Velten verweist jedoch auch darauf, dass es derzeit durchaus noch gewisse Probleme bereitet, die physikalischen Voraussetzungen zu schaffen, um mit unterschiedlichen Quantenzuständen rechnen zu können. Der Analyst hält daher auch große Stücke auf ein anderes neues Compute-Konzept, das Neuromorphic Computing. Dabei geht es darum, mit Hilfe von IT die Strukturen des menschlichen Gehirns nachzubilden. Es gibt keine Trennung von Speicher und CPU. Das Projekt "The Machine" von Hewlett Packard, an dem die Entwickler bereits seit Jahren basteln, zielt in diese Richtung. Der Vorteil dieses Compute-Konzepts liegt Velten zufolge darin, dass die Technik eine gewisse Fehlertoleranz mitbringt und auch in der Lage ist, mit unpräzisen Informationen umzugehen.
Unternehmens-IT muss Stackology lernen
Die Herausforderung für die IT-Verantwortlichen in den Unternehmen werde in Zukunft vor allem darin liegen, sich aus all diesen Techniken die passenden Bausteine für die eigene Infrastruktur herauszusuchen. Stackology sei das Zauberwort an diese Stelle, sagt Velten, die richtige Orchestrierung beim Digital Platform Design. Eine wichtige Rolle spielten dabei auch die Schnittstellen sowie die Application Programming Interfaces (APIs). Deren Zahl wachse auch immer schneller, beobachtet der Analyst und verweist auf die rund 18.000 derzeit öffentlich verfügbaren APIs. Das mache die Sache allerdings auch immer komplexer und unübersichtlicher.
Um den Überblick zu behalten, brauchen die Unternehmen aus Sicht von Crisp Research eigenes Know-how und die entsprechenden Ressourcen. "Developer werden zum Erfolgsfaktor", sagt Velten. Es gehe darum, die eigene Plattform mit einer eigenen Mannschaft weiterzuentwickeln, während die grundlegenden Infrastruktur-Dienste weitestgehend automatisiert betrieben würden.
Gute Zeit, um nach Geld zu fragen
Im Aufbau der internen Ressourcen liegt aus Veltens Sicht auch der Schlüssel, neue Techniken gewinnbringend einzusetzen. Hier schließt sich für den Analysten zudem der Kreis zum Startpunkt der lernenden Organisation inklusive der notwendigen Freiräume, sich mit Technik zu beschäftigen. Wer eigene Fähigkeiten aufbaue, schaffe Vertrauen, was wiederum die Basis für Kreativität bilde, so die Rechnung des Crisp-Chefs. Und die könnte aufgehen, auch wenn es durchaus gewisser Investitionen bedürfe, um so eine Organisation aufzubauen. "Die Zeit war noch nie so gut, beim Management nach mehr Geld zu fragen."