GitHub-COO im Interview

"Wir brauchen keine KI, um kreativ zu sein"

13.03.2024 von Lucas Mearian und Florian Maier
GitHub entwickelt seit mehr als zwei Jahren eine eigene Generative-AI-Plattform, die nicht nur Entwickler, sondern auch die IT unterstützt. COO Kyle Daigle gibt Einblicke.
GitHub zählt zu den Generative-AI-Pionieren. Lesen Sie, wie das Geheimnis für KI-Erfolg bei der Dev-Plattform aussieht.
Foto: MeshCube | shutterstock.com

Bei der Entwicklerplattform GitHub beschäftigte man sich mit dem Thema generative künstliche Intelligenz (Generative AI; GenAI) schon lange bevor ChatGPT oder Microsoft Copilot öffentlich verfügbar wurden. Bereits vor zweieinhalb Jahren adaptierte GitHub im Rahmen einer frühen Partnerschaft mit Microsoft das Copilot-Tool und baute es zu seiner eigenen Lösung aus: GitHub Copilot. Heute kommt das GenAI-basierte Chat Interface sowohl bei den Benutzern als auch intern bei GitHub selbst zum Einsatz. Einerseits um die Entwicklungsabteilung zu unterstützen, andererseits als automatisiertes Helpdesk-Tool.

"Bislang hat GenAI die Produktivität der Entwickler um 55 Prozent gesteigert", berichtet Kyle Daigle, seit elf Jahren bei GitHub und seit einem Jahr COO des Unternehmens, stolz. Er ist maßgeblich in die GenAI-Development-Strategie des Unternehmen involviert und fokussiert sich dabei darauf, herauszufinden, wie die Technologie den rund 3.000 Beschäftigten - und der externen Entwickler-Community respektive der User-Basis - zugutekommen kann.

Im Interview mit unseren US-Kollegen der Computerworld sprach der GitHub-COO unter anderem darüber, welche Effizienzgewinne sein Arbeitgeber mit GenAI ganz allgemein (nicht nur im Dev-Bereich) bereits realisiert hat. Zudem hat der Manager auch noch einige Tipps für Unternehmen auf Lager, die künftig mit generativer KI erfolgreich sein wollen.

"Copilot bleibt Co-Pilot"

Seit wann arbeiten Sie mit und an Copilot - und warum? In welchen Bereichen ist das Tool für GitHub zum Enabler geworden?

Kyle Daigle: Wir arbeiten inzwischen seit etwa zweieinhalb Jahren an Copilot. Dank unserer Kooperation mit Microsoft hatten wir damals bereits Zugang zu den OpenAI-Modellen. Ähnlich wie bei vielen anderen Unternehmen stand auch bei uns die wesentliche Frage im Raum, wie wir diese Large Language Models sinnvoll und gewinnbringend einsetzen können.

Es hat zwar eine Weile gedauert, aber inzwischen haben wir die Geheimzutaten identifiziert, die Copilot heute ausmachen. Ursprünglich wollten wir die LLMs eigentlich dazu einsetzen, um Tools zu entwickeln, die Code dokumentieren. In der Experimentierphase stellte sich jedoch heraus, dass das auf der Idee vom 'Ghost Text' fußende Vervollständigungsmodell ein Durchbruch war. Inzwischen zählen wir mehr als eine Million GitHub-User, die Copilot jeden Tag nutzen. Dabei zeigen unsere Zahlen, dass 55 Prozent der Benutzer produktiver sind und circa 60 Prozent ihres Codes mit dem Tool schreiben. Dieser Anteil dürfte sich unserer Überzeugung nach mit der Zeit auf circa 80 Prozent steigern.

Der wichtigste Aspekt ist jedoch meiner Meinung nach, dass sich Entwickler in ihrem Job erfüllter fühlen: Das Tool erlaubt ihnen, sich auf die kreativen Aspekte des Developer-Jobs zu fokussieren. Der Mensch bleibt in unserer Vision auf dem Pilotensitz. Was die interne Nutzung von Copilot angeht, haben wir uns vor allem darauf konzentriert, Learnings aus diesem Projekt auf andere Bereiche anzuwenden, in denen wir dieses und andere, zweckgebundene KI-Tools einsetzen - auch außerhalb der Softwareentwicklung.

Kyle Daigle bekleidet seit April 2023 das Amt des Chief Operating Officer bei GitHub.
Foto: GitHub

Support im Bereich der Softwareentwicklung ist eine 'low hanging fruit' Ihrer GenAI-Plattform. Seit wann setzen Sie das Tool zu diesem Zweck ein - und bei welchen Programmiersprachen ist es besonders hilfreich?

Daigle: In der Frühphase haben wir viel mit Python, JavaScript und ähnlichen Sprachen experimentiert. Wir sind im Wesentlichen ein Ruby-Unternehmen - schreiben aber auch Code in Go, C und FirGit. Für Copilot haben wir unsere Use Cases erweitert und das Tool mit verschiedenen Sprachen getestet. Im Ergebnis kann Copilot mit so gut wie allen bekannteren Programmiersprachen verwendet werden, für die es ausreichend Open-Source- respektive Online-Quellen gibt. Selbst proprietäre Programmiersprachen kann Copilot emulieren, weil es den Code im Repository analysiert.

Wie schlägt sich Copilot, wenn es darum geht, Code zu vervollständigen?

Daigle: Das hängt im Wesentlichen von der jeweiligen Programmiersprache ab. Mit Copilot Chat können Sie dem Tool auch ihr Problem schildern und ihm mitteilen, dass die Lösung spezifische Aspekte beinhalten sollte - etwa die Nutzung einer bestimmten API.

Wenn es um die Menge des mit Copilot erzeugten Programmcodes geht, stellen wir fest, dass das Gros des so erzeugten Codes von den Entwicklern übernommen wird. Das beschleunigt auch die nächsten Prozessschritte - beispielsweise Code Reviews. Das liegt vor allem daran, dass Code, den Entwickler mit der Unterstützung von Copilot schreiben, im Regelfall weniger Fehler aufweist. Das beschleunigt letztlich auch die Continuous Integration. Copilot als Softwareentwickler zu nutzen, kann sich also mehrfach positiv auswirken.

Haben Sie bei Copilot in der Praxis auch Probleme irgendeiner Art festgestellt - beispielsweise Ungenauigkeiten?

Daigle: Wenn Sie Copilot auf Ihr Repository loslassen, wird es sich am dort vorhandenen Code orientieren. Wenn diese Codebasis schon etwas in die Jahre gekommen ist, könnte das Tool unter Umständen nicht mehr ganz zeitgemäße Praktiken anwenden. Dieses Problem lässt sich allerdings ebenfalls mit Hilfe einer entsprechenden Anweisung über Copilot Chat umgehen.

Um Sicherheitsprobleme im Code zielgerichtet zu beheben, bevor Schaden entstehen kann, haben wir Ende letzten Jahres auf unserem Universe-Event außerdem das Tool 'Security Autofix' vorgestellt. Das nutzt eine ähnliche Technologie wie Copilot: Wenn Sie ihm mitteilen, dass Sie sich einer Vulnerability im Code bewusst sind, wird es diese nicht nur finden, sondern auch direkt beheben. Wir arbeiten daran, künstliche Intelligenz in den gesamten Lebenszyklus der Softwareentwicklung auf GitHub zu integrieren, um Entwickler bestmöglich zu unterstützen. Dennoch bleibt Copilot ein Co-Pilot und macht Best Practices nicht überflüssig. Security- und Secret-Scanning bleiben Ihnen nicht erspart.

"Man soll nicht erst lernen müssen, wie man das benutzt"

Nicht wenige Technologie- und IT-Experten befürchten, dass KI, die automatisch Code generiert, Entwickler irgendwann komplett verdrängen könnte. Ihre Einschätzung?

Daigle: Wenn man auf die moderne Geschichte zurückblickt, gab es einige historische Momente, die unter den Menschen die Angst vor dem Verlust des Arbeitsplatzes befeuert haben - etwa die Erfindung des Buchdrucks. Was sich im Fall von Copilot tatsächlich abspielt: Dinge, die nicht mehr wirtschaftlich waren, sind es plötzlich wieder, weil die Entwickler dank Copilot nicht mehr 60 bis 70 Prozent ihrer wertvollen Zeit damit verbringen, Probleme zu lösen, die schon tausendfach gelöst wurden. Bei GitHub stellen wir jedenfalls immer noch Entwickler ein - auch aktuell. Und auch wir stellen fest, dass wir mehr Zeit auf die Diskussion mit Kunden im Vorfeld oder die Architektur und das Problem, das wir lösen wollen, verwenden. Je schneller die Programmierung abläuft, desto wichtiger wird es, seine Zeit in kreative Problemlösung zu investieren.

KI versetzt uns bei GitHub in die Lage, mehr Code zu schreiben als bisher und größere Probleme anzugehen, die zuvor aus Zeitgründen liegenbleiben mussten. Das kann beispielsweise auch eine grundlegende Überarbeitung einer App sein - ein Task, den viele unserer Kunden regelmäßig vor sich herschieben, insbesondere aus Kostengründen. Wird dieses Unterfangen durch Technologie um die Hälfte billiger, eröffnen sich völlig neue Möglichkeiten.

Um auf die Eingangsfrage zurückzukommen: Ich denke es gibt noch eine ganze Menge Arbeit für die menschlichen Entwickler dieser Welt. Das wird sich auch so schnell nicht ändern.

Welche Vorteile können Nicht-Entwickler-Teams aus der Arbeit mit GenAI ziehen?

Daigle: Ein entscheidender Aspekt von Copilot, der meiner Meinung nach nicht ausreichend gewürdigt wird, ist die Möglichkeit, 'on the job' zu lernen und sich weiterzuentwickeln. Beschäftigte, die gerade neu an Bord sind, finden mit Copilot sofort einen Sparringspartner, der sie dabei unterstützt, Code zu schreiben und eine direkte Feedbackschleife etabliert. Dieser Anwendungsfall betrifft jedoch nicht nur neue Leute im Unternehmen. Unsere erfahrensten Developer müssen manchmal in eher unangenehme Legacy-Projekte abtauchen, die extrem wichtig sind. Wenn Sie in diesen Projekten Aktualisierungen vornehmen müssen, kann die KI ebenfalls mit Rat und Tat zur Seite stehen.

Bei Copilot liegt der Fokus auf der Benutzererfahrung: Man soll nicht erst lernen müssen, wie man das Tool benutzt, sondern es einfach intuitiv tun. Auf dieser Grundlage haben wir intern nach weiteren Möglichkeiten gesucht, künstliche Intelligenz zu implementieren. Das ist das eigentliche Erfolgsgeheimnis: Wenn man den Menschen erst beibringen muss, wie man ein Tool benutzt, ist es nicht viel besser als jede andere Technologie, die man dafür nutzen könnte.

Können Sie weitere Erfolge in Zusammenhang mit KI bei GitHub zu vermelden?

Daigle: Einer der ersten großen Erfolge, die wir bei GitHub erzielt haben, ist die Einführung von KI in die IT. Wir beschäftigen etwas mehr als 3.000 Mitarbeiter, die sich lange mit einem alten Heldesk-Ticketing-System herumschlagen mussten, um Hilfe bei streikenden Laptops und VPN-Zugängen zu bekommen. Dazu muss man wissen: GitHub läuft im Wesentlichen auf Slack und ist ein Remote-First-Unternehmen. Also haben wir uns gesagt: 'Wenn wir alle auf Slack sind, warum sollte die Interaktion mit der IT-Abteilung über Slack nicht auch KI-basiert ablaufen?'

Statt also ein Portal aufzurufen und ein Ticket einzureichen, haben wir in Kooperation mit unserem Automatisierungsdienstleister einen Slack-Kanal mit einem Chatbot aufgesetzt, den wir Octobot getauft haben. Wenn Sie ihm eine Frage stellen, teilt er postwendend die nötigen Schritte zur Problemlösung mit. In vielen Fällen lassen sich solche Workflows auch mit Automatisierungen verknüpfen. Weil wir für die Lösung weder ein neues System erstellen, noch ein neues Portal aufsetzen und darüber kommunizieren mussten, konnten wir eine enorme Verbesserung feststellen: Inzwischen sind wir so weit, dass Octobot 30 Prozent unserer Helpdesk-Tickets auf Anhieb lösen kann. So sparen wir unseren IT-Experten jeden Tag mehrere Stunden wertvolle Zeit ein, die in andere KI-Initiativen fließen können. Was dabei am interessantesten ist: Die Kundenzufriedenheit ist von 86 auf 98 Prozent gestiegen.

Ein Beispiel für eine User-Interaktion mit dem Support-Chatbot "Octobot".
Foto: GitHub

Auf der Grundlage dieses Prozesses testen wir derzeit den internen Einsatz mehrerer KI-Tools. Ungefähr zehn Prozent unserer Beschäftigten ist an dieser Testphase beteiligt, bei der es immer um die gleichen Grundsatzfragen geht: 'Wir können wir KI etablieren, ohne die Mitarbeiter enablen zu müssen?' und 'Lässt sich die Lösung sinnvoll in den Workflow integrieren?' Anschließend messen wir die eingesparte Zeit und analysieren, ob sich ein Einsatz lohnt.

"Natürliche Sprache ist manchmal der bessere Code"

Ziehen Sie in Betracht, weitere GenAI-Tools auf den Markt zu bringen?

Daigle: Bezogen auf GitHub haben wir viel von der zugrundeliegenden Copilot-Technologie übernommen und sie auf unsere Support-Anwendungsfälle angewandt. Wenn Entwickler auf GitHub ein Problem haben und ein Ticket stellen müssen, ist diese Erfahrung unserer internen sehr ähnlich - auch hier kommt ein Chatbot auf Copilot-Basis zum Einsatz, der 'Support Copilot'. Auch dieses Tool ist in der Lage, ein Problem im Kontext der jeweiligen Frage zu verstehen und zu lösen.

Inzwischen erkunden wir auch weitere Möglichkeiten mit Copilot, die über Code-Generierung und Pull Requests hinausgehen. Dabei beschäftigen wir uns insbesondere mit der Frage, was passiert, wenn man das Modell "umdreht" und Copilot nicht mit Code füttert, sondern stattdessen beschreibt, welches Problem man zu lösen versucht. Copilot kann aus dem resultierenden Prompt Code erzeugen, der anschließend über den Prompt bearbeitet werden kann. Am Ende kann das Tool das Ergebnis testen, ausführen und bereitstellen - alles auf der Basis natürlicher Sprache. Derzeit versuchen wir herauszufinden, wie man auf diese Weise schneller mehr akkuraten Code generieren kann. Natürliche Sprache ist manchmal der bessere Code.

Wie ermitteln Sie den Return on Investment bei KI-Projekten?

Daigle: Man kann intern eine Million Dinge messen. Auch, wenn es um die Softwareentwicklung geht - DORA- oder Space-Metriken sind nur zwei Beispiele. Als wir intern an den IT-Anwendungsfällen gearbeitet haben, ging es um diesselben Fragen: 'Wie viele Tickets werden umgeleitet?', 'Wie viele Tickets wurden geschlossen?' - am Ende des Tages geht es eigentlich darum, die erzielte Zeitersparnis zu messen. Das ist entscheidend.

Für mich ist bei all diesen Maßnahmen der ROI schon mit eingerechnet, weil wir Zeit zurückgewinnen, die die Mitarbeiter zuvor für die Bearbeitung von Tickets und andere manuelle Tasks aufgewendet haben. Diese Zeit investieren wir wiederum in strategisch wichtigere Dinge. Der ROI beim OctoBot-Projekt ist an dieser Stelle ziemlich aussagekräftig: Die gesteigerte Produktivität der Entwickler wird automatisch reinvestiert, weil sie schneller mit ihrer Arbeit vorankommen - und dann Zeit haben, mit anderen Tools zu arbeiten, die ebenfalls eine Zeitersparnis realisieren.

Am Beispiel von GitHub erkennt man gut, dass wir in der Lage sind, mehr zu leisten als früher. Das liegt allerdings nicht daran, dass wir im letzten Jahr um 50 Prozent gewachsen sind, sondern an der gewonnenen und reinvestierten Zeit.

Was raten Sie Unternehmen, die den Einsatz generativer KI erwägen oder ihn skalieren wollen?

Daigle: Ihre Teams müssen das Rad nicht neu erfinden. Es ist einfacher, KI-Funktionen zu nutzen, die im Fluss halten und nicht erfordern, sich neue Verhaltensweisen anzutrainieren. Holen Sie Ihre Mitarbeiter dort ab, wo sie sind und geben Sie ihnen die KI-Tools, die sie brauchen. Dann wird sich die Technologie von alleine verbreiten.

Außerdem wichtig: Entwickeln sie eine wiederholbare Strategie. Jahrzehnte der Softwareentwicklung haben bewiesen, dass sinnvolle und bewährte Iterationen oft zielführender sind als große Umwälzungsprojekte, die maximal möglicherweise funktionieren. Außerdem wichtig: Testen Sie früh und mit kleinen Gruppen und machen Sie Experimentierfreude zu einem zentralen Bestandteil Ihrer Unternehmenskultur.

Und last but not least: Lassen Sie die KI arbeiten. Die besten Tools im Bereich der künstlichen Intelligenz sind die, die menschliche Qualitäten zur Geltung bringen. Wir brauchen keine KI, um kreativ zu sein - vielmehr sollte sie uns von den repetitiven Tasks befreien, die uns daran hindern, unsere Kreativität zu entfalten.

Weitere Expertenstimmen "Applied AI"
Michael Burkhardt, Omdena
"Bei Innovationsprojekten ist es wichtig, ein diverses Team zu haben, um mögliche Bias schon im Vorfeld zu eliminieren. Neben den Fachexperten sollten idealerweise auch Linguisten, Social Scientists und andere Disziplinen mit an Bord sein. <br /><br /> Während wir in Deutschland in ein paar Pilotprojekten unterwegs sind, haben wir in den USA über 80. Dort herrscht viel mehr der Ansatz, erstmal mit einem Projekt zu beginnen, Erfahrungen aufzubauen und auch aus Misserfolgen zu lernen. Dieses Wissen hilft uns auch dabei, das deutsche Ökosystem besser zu verstehen."
Jens Duhme, ATOS
"KI ist vieles, aber nicht intelligent. Das gilt es zu kommunizieren und immer wieder auf die Grenzen hinzuweisen. Nur so können wir ein gesundes Verständnis der Technologie in den Köpfen verankern. <br /><br /> Gefahren gibt es genug, aber dass die Maschinen uns irgendwann unterjochen, gehört nicht dazu. Es dauert auch in anderen Bereichen Jahre, bis vernünftige Use Cases entstehen. So ähnlich wird das auch bei künstlicher Intelligenz ablaufen. <br /><br /> In der Cloud liegt die Verantwortung zum Beispiel primär beim Anbieter, den ich im Zweifelsfall haftbar machen kann. Das ist für Unternehmen ein großer Vorteil. Wenn so ein rechtlicher Rahmen auch bei der KI gelingt, dann senkt das viele Hürden für Anwender und schafft die Basis für mehr Ethik und Verantwortung auf Herstellerseite."
Andreas Gödde, SAS
"Nach ChatGPT hat sich die Diskussion definitiv verändert. Unternehmen diskutieren jetzt auch intern intensiver, nach dem Motto “wir müssen jetzt was machen”. Bei unseren Kunden nehmen wir eine deutlich erhöhte Kreativität zu möglichen Einsatzszenarien wahr. <br /><br /> Klar gibt es Risiken, aber die Chancen überwiegen aus meiner Sicht. Wir haben jetzt als Gesellschaft die Aufgabe, bereits im Bildungssystem die richtigen Weichen zu stellen, um die Chancen der Digitalisierung, die sich in wichtigen Bereichen des öffentlichen Lebens und in den Unternehmen bieten, auch tatsächlich auf die Straße zu bringen. <br /><br /> In Kombination mit dem Menschen sehen wir jetzt schon sinnvolle Anwendungsbereiche in den Unternehmen. Wir bezeichnen das als „augmented AI“. Das alles ist aber noch weit weg von einer “generellen” KI, die aktuell noch weit in der Zukunft liegt und die wir vielleicht auch nie erleben werden. <br /><br /> Viele Use Cases kann ich schon heute mit KI-Werkzeugen umsetzen. Teilweise werden sie – beispielsweise im Bereich Betrugsbekämpfung – vom Regulator sogar gefordert. Es muss ja nicht gleich die Kreditvergabe mit sensiblen personenbezogenen Daten sein."
Harald Huber, USU
"Die Diskussion ist heute eine andere, weil es jetzt konkrete Vorstellungen und Assoziationen in den Köpfen gibt. Jetzt geht es darum, zu schauen, welche KPI man aktiv definieren und gestalten kann. Die Kernfrage sollte immer die nach dem individuellen Nutzen sein – und dann sieht man, dass es gar nicht so einfach ist, mit der Übersetzung in den Alltag. Beim autonomen Fahren standen wir gefühlt auch schon kurz vor dem Durchbruch, doch heute ist die Revolution auf der Straße wieder in weite Ferne gerückt."
Michael Niederée, KPMG
"Es bestehen diverse ungelöste Fragestellungen: Wer hat die Urheberrechte eines Textes? Wie gelingt eine ethisch einwandfreie Umsetzung? Welche sonstigen Risiken muss man managen? Mein Vorschlag wäre, insbesondere zu Beginn eine gute Strategie als Fundament zu entwickeln, die einem anschließend erlaubt, auf die richtigen Dinge zu fokussieren. <br /><br /> Die eigentliche Revolution findet doch jetzt im Fachbereich statt. Komplexe Tätigkeiten, die bis dato viele Ressourcen gebunden haben und komplex bis unmöglich zu lösen in der Softwareentwicklung waren, können jetzt im Fachbereich durch Prompt Engineering von „Fachentwicklern“ agil und iterativ umgesetzt werden."
Ricardo Ullbrich, SS&C Blue Prism
"Am schnellsten schaffe ich Veränderung, wenn ich den branchenspezifischen Nutzen kommuniziere. Unternehmen müssen sich aktiv Gedanken machen, welche Bereiche ihres Geschäfts sie automatisieren wollen und können. Man vergleiche nur mal einen Konzern wie Amazon mit einer Versicherung: Da liegen Welten dazwischen und entsprechend unterschiedlich sind auch die Use Cases.<br /><br /> Innovationsschübe können oft auch eine gesellschaftliche Chance sein, das hat auch die Coronakrise gezeigt. Ich würde soweit gehen und sagen, dass uns die Pandemie eine bessere Arbeitswelt gebracht hat.<br /><br /> Der Mensch will nicht ausschließlich mit Bots kommunizieren, sondern auch einen gewissen Grad an Small Talk und Abschweifung in einem Gespräch haben. Das ist ein ganz entscheidender Punkt bei der Gestaltung von Services und Prozessen. <br /><br /> Einen Prozess zu optimieren ist relativ einfach. Aber darüber hinaus die weiteren Möglichkeiten zu ergründen und die “höchste Stufe” zu erreichen, das können die wenigsten."
Christoph Windheuser, Databricks
"Das Thema KI wird sowohl die Produktebene, als auch die Erwartung auf Kundenseite verändern. Doch die daraus abgeleiteten Fragestellungen gehen weit über die Technologie und deren Anwendung hinaus. Das hat gesellschaftlich-transformativen Charakter und tangiert die Substanz der gesamten Gesellschaft, zuerst vor allem über den Arbeitsmarkt. <br /><br /> Es ist eine grundsätzliche Frage: Werden wir künftig weniger arbeiten oder wird der Output höher sein? Dabei gilt auch: Wir dürfen Erfahrungen der Vergangenheit nicht in die Zukunft projizieren. Gerade haben wir es mit einem exponenziellen Wachstum zu tun, das gab es auch in der Automatisierungswelle der 1980er Jahre nicht. Die Situation ist also völlig neu."

Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Computerworld.