OpenAI CEO Sam Altman
APA/AFP/Joel Saget
Einigung

Altman kehrt nun doch zu OpenAI zurück

Am Wochenende haben die Investoren von OpenAI, darunter auch Microsoft, vergeblich darum gekämpft, den am Freitag gefeuerten Chef des Unternehmens, Sam Altman, zurückzuholen. Stattdessen sollte Altman zu Microsoft wechseln. Nun ist wieder alles anders. Mittwochfrüh (MEZ) kündigte OpenAI die Rückkehr von Altman und Mitgründer Greg Brockman an.

Es gebe eine Grundsatzvereinbarung, dass Altman als CEO zurückkehre, und zwar mit einem neuen anfänglichen Vorstand aus Bret Taylor, Larry Summers und Adam D’Angelo. „Ich freue mich darauf, zu OpenAI zurückzukehren“, schrieb Altman auf X (Twitter). „Wir werden stärker und mehr vereint als je zuvor zurückkehren“, zeigte sich auch Brockman am Mittwoch zuversichtlich.

Bei seiner Rückkehr soll Altman zunächst nicht wie zuvor Mitglied des Verwaltungsrats sein. Das Tech-Blog The Verge berichtete zugleich, die Aufgabe dieses Minigremiums solle vor allem sein, einen Verwaltungsrat mit bis zu neun Mitgliedern zusammenzustellen, der die Struktur hinter OpenAI reformieren werde. Microsoft als großer Investor werde vermutlich einen Sitz bekommen – und Altman wohl auch.

Belegschaft drohte mit Kündigung

In den vergangenen Tagen hatten sich nach dem Rauswurf Altmans die Ereignisse um das US-Softwareunternehmen überschlagen. Innerhalb dreier Tage gab OpenAI zwei interimistische Chefwechsel bekannt. Am Montag wurde der ehemalige Twitch-Chef Emmett Shear zum Interims-CEO ernannt. Da hieß es noch, dass Altman gemeinsam mit Brockman bei OpenAI-Geldgeber Microsoft eine eigene KI-Abteilung leiten solle. Das wurde nun rückgängig gemacht. Medienberichten zufolge soll nun eine interne Untersuchung klären, was genau passierte.

Der überraschende Rauswurf Altmans und sein ursprünglich angekündigter Wechsel zu Microsoft brachten die Belegschaft von OpenAI, das vor einem Jahr ChatGPT veröffentlichte, auf die Barrikaden. Rund 700 der 770 Mitarbeiterinnen und Mitarbeiter drohten mit Kündigung und ebenfalls einem Wechsel zu Microsoft, sollte der Verwaltungsrat nicht zurücktreten. In einem offenen Brief forderten sie die Wiedereinsetzung Altmans. Unterschrieben wurde der Brief auch von Ilya Sutskever, Chefwissenschaftler von OpenAI.

Sutskever bedauert Aktionen des Verwaltungsrats

In einem Post auf X schrieb Sutskever am Montag, er bedaure es zutiefst, sich an den Aktionen des Verwaltungsrats beteiligt zu haben. „Ich hatte nie die Absicht, OpenAI zu schaden. Ich liebe alles, was wir gemeinsam aufgebaut haben, und ich werde alles tun, was ich kann, um das Unternehmen wiederzuvereinen“, so der Informatiker. Altman kommentierte den Post mit drei Herzen und schrieb selbst auf X davon, man sei „mehr geeint, engagierter und konzentrierter als je zuvor“.

Spätestens an diesem Punkt gewann die ohnehin schon verwirrende Causa noch einmal an Absurdität. Denn Sutskever sitzt auch im fünfköpfigen Verwaltungsrat und war einer der vier Vorstände, die den Ausschluss Altmans beschlossen. Viele Beobachterinnen und Beobachter gingen nach der Entlassung Altmans davon aus, dass Sutskever eine treibende Kraft dahinter war.

Gründung aus Idealismus?

Um zu verstehen, wie sie zu dieser Einschätzung gelangten, hilft es, einen Blick auf die Geschichte des Unternehmens zu werfen, das 2015 von einer Gruppe aus KI- und IT-Experten als Open-Source- und Non-Profit-Organisation gegründet worden war: OpenAI sollte zum einen nicht gewinnorientiert wirtschaften, zum anderen sollte der Quelltext der entwickelten Software öffentlich zugänglich sein.

Neben Altman war von Anfang an unter anderen Brockman dabei, der sich am Freitag als einziges Mitglied des Verwaltungsrats nicht für den Rauswurf Altmans aussprach und seinen Posten aus Protest räumte. An der Gründung war darüber hinaus Sutskever beteiligt – wie Elon Musk, der sich aber 2018 aus der Leitung des Unternehmens zurückzog.

„Sichere und nützliche AGI schaffen“

Bereits zu Beginn von OpenAI stand die feste Überzeugung: Die Entwicklung künstlicher Intelligenz werde in absehbarer Zeit so weit voranschreiten, dass sie Menschen bei quasi allen wirtschaftlich relevanten Tätigkeiten übertreffen könnte. Der Terminus technicus dafür lautet Artificial General Intelligence (AGI). Für OpenAI war er von Beginn an das entschiedene Ziel – allerdings mit der Auflage, dass die Entwicklung „der gesamten Menschheit zugutekommt“.

So steht es zumindest in der Unternehmenscharta. „Wir werden versuchen, selbst eine sichere und nützliche AGI zu schaffen, sehen unsere Aufgabe aber auch als erfüllt an, wenn unsere Arbeit anderen hilft, dieses Ergebnis zu erreichen“, heißt es dort weiter.

2019 brachte Kommerzialisierung

Vier Jahre nach der Gründung von OpenAI verließ das Unternehmen – zumindest teilweise – den Weg, den es sich zu Beginn auferlegt hatte. 2019 gründete OpenAI eine Tochtergesellschaft. Diese sollte bis zu einem gewissen Grad Gewinne erzielen dürfen und über kurz oder lang auch kommerzielle Produkte entwickeln. „Dieses unternehmerische Detail steht im Mittelpunkt der Geschichte des kometenhaften Aufstiegs von OpenAI und des schockierenden Sturzes von Altman“, schrieb „The Atlantic“.

Von Beginn an standen einander bei OpenAI zwei widerstrebende Ideologien gegenüber. Auf der einen Seite befinden sich diejenigen, für die KI mit einer potenziellen Bedrohung einhergeht, die es einzuhegen gilt. Auf der anderen Seite standen jene, die darauf setzten, dass die Lösung nur die möglichst schnelle technologische Entwicklung sein könne – wofür es wiederum eine weitreichende Kommerzialisierung brauche.

Gamechanger ChatGPT

Schon die Entscheidung der Gründung einer Unternehmenstochter 2019 verschob das Gewicht in Richtung Letzterer. Den großen Paradigmenwechsel brachte aber jenes Produkt, mit dem OpenAI der breiten Öffentlichkeit bekannt wurde. Mit der Veröffentlichung von ChatGPT für die Allgemeinheit „brach das fragile Gleichgewicht zusammen“, schrieb „The Atlantic“.

Der Chatbot ist im Grunde ein elaboriertes Sprachmodell und weit von einer tatsächlichen AGI oder gar einer Super-KI entfernt. Doch für Menschen machte das Programm das erste Mal das Potenzial und auch die möglichen Konsequenzen der KI-Forschung deutlich.

Altman wurde zum Gesicht der KI-Forschung und zugleich zur Galionsfigur derjenigen, die auf schnelles technologisches und kommerzielles Wachstum setzten. Altman trieb diesen Kurs in den vergangenen Monaten stark voran – für manche wohl zu stark. So berichteten OpenAI-Angestellte gegenüber „The Atlantic“, dass Warnungen vor einer zu schnellen Entwicklung zunehmend ungehört blieben.

Sorge vor unkontrollierter künstlicher Intelligenz

Das traf wohl auch auf Sutskever zu. Der Informatiker schien in den vergangenen Jahren zu der Überzeugung gelangt zu sein, dass die Entwicklung einer AGI in greifbare Nähe gerückt sei. Damit scheint aber auch die Angst einhergegangen zu sein, eine solche nicht kontrollieren zu können.

Laut „The Atlantic“, das sich dafür auf Berichte von Angestellten berief, ließ Sutskever etwa heuer für ein Treffen von OpenAI-Führungskräften eigens eine Holzfigur anfertigen. Diese sollte eine unkontrollierte KI repräsentieren und wurde von Sutskever bei dem Treffen in Brand gesteckt – ein Symbol, sich auf die ursprünglichen Werte von OpenAI zu konzentrieren.

Bei Altman, aber auch vielen anderen Verantwortlichen bei OpenAI verfingen Sutskevers Bedenken augenscheinlich kaum. Laut Bloomberg gründete Sutskever noch im Juli ein neues Team im Unternehmen, um „superintelligente“ künftige KI-Systeme unter Kontrolle zu bringen. Doch vor einem Monat sollen Sutskevers Aufgaben merklich eingeschränkt worden sein.

Philosophische Strömung mit KI-Agenda

In dem Versuch, die Ereignisse vom Freitag einzuordnen, lag für viele nahe, dass Sutskever am Ende die Mehrheit des Verwaltungsrates von seinen Bedenken überzeugen konnte. Das erscheint umso wahrscheinlicher, als mit Helen Toner und Tasha McCauley zumindest zwei Mitglieder enge Verbindungen zum Effektiven Altruismus haben.

Diese nicht zuletzt im Silicon Valley verbreitete philosophische Strömung plädiert für einen möglichst effizienten Mitteleinsatz, um möglichst vielen Menschen zu helfen. In den USA erfreut sich die Denkströmung vor allem unter vermögenden Menschen Beliebtheit.

Unkontrollierbare KI als Gefahr gesehen

In der letzten Zeit wandten viele effektive Altruisten ihren Blick überdies zunehmend in die Zukunft. Es gelte, weniger die drängenden Probleme unserer Zeit als zukünftige Entwicklungen, die heute schon begonnen haben, zu behandeln, so das Credo. Und weit oben auf dieser Liste der künftigen Gefahren steht die Entwicklung einer übermächtigen, unkontrollierbaren KI.

Im Versuch einer Einordnung der Geschehnisse rund um OpenAI verweist das Onlinemagazin Slate auch auf den im vergangenen Jahr aufgeflogenen Kryptobetrug von Sam Bankman-Fried. Der Kryptounternehmer galt vielen als Leuchtfigur des effektiven Altruismus. Dass er das Motto „Der Zweck heiligt die Mittel“ bis hin zu großangelegtem Betrug getrieben hatte, sorgte unter manchen Anhängern der Bewegung für Katerstimmung. Umso stärker hätten sie ihren Fokus dann auf die Zukunft und die Warnung vor KI-Gefahren gelenkt, so der Slate-Artikel.

Coup der „effektiven Altruisten“?

Wurde Altman also vorübergehend zum Opfer des effektiven Altruismus? Für diejenigen, die auf der anderen Seite des ideologischen Spektrums stehen, scheint das eine ausgemachte Sache zu sein. Im vergangenen Jahr formierte sich in erster Linie auf X – das damals noch Twitter hieß – eine radikale Gegenbewegung zu denjenigen, die vor der Gefahr von KI warnten. Unter dem Schlagwort „effective accelerationism“ (dt.: effektive Beschleunigung), abgekürzt „e/acc“, forderten sie eine völlige Aufgabe von Beschränkungen der KI-Forschung.

Altman wurde für die Bewegung zu einer Lichtfigur – auch weil er selbst die entsprechenden Begrifflichkeiten immer wieder zumindest spielerisch aufgriff. Auch wenn die „e/acc“-Bewegung in den Untiefen sozialer Netzwerke begann, bekennt sich so mancher Tech-Unternehmer zum schnellen KI-Wachstum um jeden Preis. Das wurde nicht zuletzt nach den jüngsten Ereignissen rund um OpenAI deutlich.