KI-Sicherheit gefährdet?

Altman-Rauswurf löst Erdbeben im Valley aus

21.11.2023
Von 
Lucas Mearian ist Senior Reporter bei der Schwesterpublikation Computerworld  und schreibt unter anderem über Themen rund um  Windows, Future of Work, Apple und Gesundheits-IT.
Die unerwartete Entlassung von Sam Altman und Greg Brockman, den Mitbegründern des ChatGPT-Erfinders OpenAI, hat große Unruhe in die IT-Branche gebracht.
Der Rauswurf von Sam Altman, CEO OpenAI, hat in der IT-Branche Unruhe ausgelöst.
Der Rauswurf von Sam Altman, CEO OpenAI, hat in der IT-Branche Unruhe ausgelöst.
Foto: MeSSrro - shutterstock.com

Mehr als 700 der insgesamt 770 OpenAI-Mitarbeiter haben am Montag (20. November 2023) einen offenen Brief unterzeichnet, in dem sie damit drohen zu kündigen und - wie voraussichtlich Altman und Brockman - zu Microsoft zu wechseln, wenn das Spitzenduo nicht sofort wieder zurückgeholt werde. Sie fordern nicht nur die Wiedereinsetzung von Altman und Brockman in ihre Ämter als CEO beziehungsweise President, sondern auch den Rücktritt des Verwaltungsrats (siehe auch: Microsoft heuert Sam Altman an).

"Ihre Handlungen haben deutlich gemacht, dass Sie nicht in der Lage sind, OpenAI zu leiten", rechnen die Beschäftigten in ihrem offenen Brief mit ihrem Board ab. "Wir wollen nicht für oder mit Leuten arbeiten, denen es an Kompetenz, Urteilsvermögen und Leidenschaft für unsere Mission und unser Team mangelt. Microsoft hat uns versichert, dass es bei ihnen Positionen für alle OpenAI-Mitarbeitenden gibt."

Interims-CEO von OpenAI will Untersuchung einleiten

Offenbar hofft Microsoft darauf, die Abtrünnigen in seinem neuen KI-Labor einzusetzen, das künftig von Altman und Brockman geleitet werden soll - sofern sich die beiden denn wirklich dafür entscheiden. Als Altman geschasst wurde, hatte Board-Mitglied und Mitgründer Brockman ebenfalls gekündigt. Mittlerweile hat der neue Interims-CEO Emmett Shear eine unabhängige Untersuchung der Vorgänge bei OpenAI in Aussicht gestellt. Altmans Entlassung sei schlecht gehandhabt worden, das Vertrauen auf allen Seiten sei beschädigt worden, so der Mitgründer von Twitch.

OpenAI - eine ungewöhnliche Konstruktion

Das KI-Unternehmen wurde vor acht Jahren als Non-profit-Organisation mit dem Ziel gegründet, die besten Köpfe zusammenzubringen, um Deep Learning und Reinforcement Learning so voranzutreiben, dass die Utopie einer Artificial General Intelligence (AGI) Wirklichkeit werden sollte. Hinter AGI verbirgt sich die Idee eines "hochgradig autonomen Systems, das in den meisten wirtschaftlich relevanten Arbeiten besser ist als der Mensch" (OpenAI-Definition). Auf verantwortliches Handeln und Sicherheit sollte dabei allerhöchsten Wert gelegt werden. Neben Sam Altman, Ilya Sutskever und Greg Brockman gehörte auch Elon Musk zum Gründungsteam.

Unter dem Dach der Organisation wurde dann 2019 die OpenAI LP gegründet, eine sogenannte Capped-Profit-Organisation, in die Investoren ihr Geld stecken konnten. Allein Microsoft investierte hier Anfang 2023 rund zehn Milliarden Dollar. Altman wählte dieses neuartige Governance-Konstrukt, um das Unternehmen vor den Risiken der Kapitalmärkte zu schützen. Die gemeinnützige Organisation sollte die untergeordnete profitorientierte Company kontrollieren und steuern, so der Gedanke des CEO. OpenAI musste seinen Investoren damit keinen Platz im Verwaltungsrat einräumen.

In der Folge setzt sich das Board von OpenAI dann allerdings aus Verwaltungsräten zusammen, die der Aufgabe möglicherweise nicht gewachsen waren - so sehen es zumindest viele Kritiker. Neben den Mitgründern Greg Brockman und Ilya Sutskever gehörten zuletzt Quora-CEO Adam D'Angelo, die Tech-Entrepreneurin Tasha McCauley von der Rand Corp. sowie Helen Toner, Strategische Direktorin im Center for Security and Emerging Technology in Georgetown, zum Aufsichtsgremium. Die prominenten Mitglieder aus der Anfangszeit, Elon Musk (Tesla) und Reid Hoffman (LinkedIn-Gründer), sind schon lange nicht mehr dabei.

Sollte OpenAI nach den jüngsten Vorgängen zusammenbrechen, würde das nach Ansicht von Branchenexperten die Entwicklungsfortschritte bei generativer KI (GenAI) nicht nennenswert bremsen. "Die Katze ist längst aus dem Sack, die Leute wissen, was diese Modelle können und wie man sie einsetzt", sagt Braden Hancock, Technologiechef und Mitbegründer von Snorkel. Sein Startup unterstützt Unternehmen beim Entwickeln großer Sprachmodelle (LLMs) für domänenspezifische Anwendungen.

"Open AI hat die Produktvermarktung und -bereitstellung gemeistert," so Hancock, "aber die Kerntechnologie wird nun von mindestens einem Dutzend gut finanzierter und personell bestens ausgestatteter Technologiekonzerne vorangetrieben. Hinzu kommen etliche Forschungslabors und Hunderte von KI-Startups." OpenAI habe sich als First Mover hervorragend bewährt, aber die GenAI-Technologie sei nun verfügbar und werde sich so oder so durchsetzen - ganz egal, wer gerade an der Spitze des Marathons laufe.

Hancock rät Unternehmen, sich beim GenAI-Einsatz nicht zu sehr auf einen einzelnen Anbieter zu verlassen. "Genauso wie Unternehmen seit Jahren ihre Cloud-Risiken durch eine Multi-Cloud-Strategie senken, sollten sie auch mit Multi-LLMs verfahren", rät der KI-Experte.

Wildwest im KI-Markt

Von einer "Wildwest-Show im KI-Markt" spricht derweil Jack Gold, Chefanalyst von J. Gold Associates. Mit dem Führungswechsel bei OpenAI sei alles noch ein bisschen verrückter geworden. "Die beiden Gründer sind nun bei Microsoft, dem Unternehmen, das in diesem Markt bislang eher wie ein Investor agierte", so Gold. Das werde sich nun ändern: Mit Altman und Brockman an der Spitze seines neuen KI-Labors könne Microsoft die Entwicklungen von OpenAI nachbilden und schließlich übertreffen. "Microsoft verfügt über eine enorme Menge an Ressourcen, die es jederzeit einsetzen kann", sagt der Analyst.

Fraglich ist, was nun aus OpenAI wird, nachdem das Quartett im Board das Unternehmen gesprengt hat. Vor allem Ilya Sutskever, Chefwissenschaftler und einer der drei Gründer des Unternehmens, steht mit seinem widersprüchlichen Verhalten in der Kritik. Weil er offenbar mit dem hohen Entwicklungs- und Vermarktungstempo von Altman und Brockman nicht einverstanden war und außerdem deren Kommunikationsstil fragwürdig fand, hatte er im Board für den Rauswurf der Manager votiert.

Inzwischen tut ihm diese Entscheidung leid: Auf X (Twitter) schrieb Sutskever: "Ich bedauere zutiefst meine Beteiligung an den Aktionen des Vorstands. Ich hatte nie die Absicht, OpenAI zu schaden. Ich liebe alles, was wir gemeinsam aufgebaut haben, und ich werde tun, was ich kann, um das Unternehmen wieder zu vereinen."

Gartner-Analystin Avivah Litan versteht den internen Konflikt bei OpenAI als Warnschuss. Spätestens jetzt müsse allen klar sein, dass es eine globale Regulatorik für sichere KI brauche. "Wenn KI-Unternehmen die Entwicklung in Richtung Artificial General Intelligence (AGI) vorantreiben, darf unsere Sicherheit nicht von den kapriziösen Eingebungen einzelner Personen abhängen", mahnt Litan. In der Branche werde daran gearbeitet, dass KI die KI kontrolliere und weiterentwickele, also keine menschliche Kontrolle mehr brauche. Da sei kein Platz für Spielchen.

Ein Weckruf für die KI-Szene

"Die Turbulenzen bei OpenAI sollten als Weckruf verstanden werden", mahnt die Gartner-Analystin. Es brauche einen starken regulatorischen Rahmen und klare Führung. Die jüngste Verfügung von US-Präsident Joe Biden, in der die Regierung den Bundesbehörden einige Leitplanken für KI vorgibt, sei ein guter Anfang für eine brauchbare Regulierung, so Litan, aber die Anstrengungen müssten noch weitergehen.

Viele Beobachter sehen das ähnlich, das enorm hohe Entwicklungstempo in der KI dürfe sich nicht von regulatorischen und ethischen Begleitprozessen abkoppeln. Cliff Jurkiewicz, strategischer Vordenker bei Phenom, einem Anbieter KI-gestützter HR-Software, beobachtet, dass GenAI-Tools Innovationen in einer unglaublich hohen Taktung ermöglichen - ganz anders als frühere disruptive Technologien. Für Unternehmensführungen sei es schwierig, das hohe Tempo in der Entwicklung mit Fragen der Sicherheit, der Governance oder der Ethik in Einklang zu bringen. Darunter habe auch das OpenAI-Management gelitten.

Jurkiewicz behauptet, der Vorstand um Altman habe die Startup-Idee des "Fail Fast" nicht nur auf die Innovationsprozesse, sondern auch auf die betrieblichen Abläufe übertragen. Das führe ins Chaos. Bei einem Unternehmen, das die Geschwindigkeit im GenAI-Markt vorgebe, müssten Innovationstempo und Monetarisierungspläne im Einklang mit der Mission und den Werten des Vorstands stehen. "Wir leben in einer Welt, in der Unternehmen gleichzeitig profitabel und ethisch korrekt handeln können und müssen", so Jurkiewicz. Hohe ethische Standards seien der wichtigste Maßstab für eine vertrauenswürdige Organisation.

Venture Capitalists haben oft wenig Geduld

Viele Startups dürften allerdings von ihren Investoren so unter Druck gesetzt werden, dass sie keine Zeit haben, sich auch einmal zurückzulehnen und über Ethik nachzudenken. So betont Analyst Gold, dass OpenAI trotz seiner Konstruktion als gemeinnützige Gesellschaft immer stärker von Risikokapitalgebern abhängig geworden sei. Diese wollten eine schnelle Rendite ihrer Investitionen sehen. Gold glaubt, dass Altman sich in einem schwierigen Spannungsfeld zwischen den Wünschen der Investoren und den ethischen Standards einer gemeinnützigen Organisation bewegt hat.

Immerhin gehörte Altman selbst zu den mehr als 33.700 teils prominenten Menschen, die einen offenen Brief unterzeichneten, in dem eine Pause in der Entwicklung von OpenAIs Large Language Model (LLM) gefordert wurde. Auch Tech-Koryphäen wie Apple-Mitbegründer Steve Wozniak hatte sich unter den Unterzeichnern befunden. Branchenexperten spekulieren, dass schon GPT-5, die nächste Iteration des LLM von OpenAI, den Sprung zur AGI schaffen und die Türen zur unbekannten neuen Welt der KI öffnen könnte.

Für Unternehmen, die an GenAI-Projekten arbeiten, muss sich jedenfalls nicht viel ändern. Das zumindest glaubt Luis Ceze, CEO der KI-Modell-Deployment-Plattform OctoML und Professor an der University of Washington. KI-Innovationen kämen derzeit aus ganz verschiedenen Ecken und keineswegs nur von Startups wie OpenAI oder den Big-Tech-Konzernen. "Beispielsweise bietet Open Source eine Vielzahl von Modellen für Unternehmen. Startups könnten darauf einschwenken, Nischen besetzen und ihre Risiken minimieren." Viele Open-Source-Modelle überträfen GPT-4 bereits in Bezug auf Preis, Leistung und Geschwindigkeit. Vielleicht bekämen sie nach den Turbulenzen bei OpenAI endlich die Anerkennung, die sie verdienten. (hv)