Gründer von Open AI Sam Altman und Chefentwickler Ilya Sutskever
APA/AFP/Jack Guez
OpenAI

Querelen werfen Licht auf tieferen Konflikt

In den vergangenen Tagen haben sich nach dem Rauswurf von OpenAI-CEO Sam Altman die Ereignisse rund um das US-Softwareunternehmen überschlagen. Nach einigem Hin und Her am Wochenende gab Altman am Montag bekannt, bei Microsoft anzuheuern. Nun soll er aber auch wieder über eine Rückkehr zu OpenAI verhandeln. Das spektakuläre Zerwürfnis macht dabei Bruchlinien innerhalb von OpenAI, aber auch der Entwicklung künstlicher Intelligenz (KI) generell sichtbar.

Im November 2022 machte OpenAI das Sprachprogramm ChatGPT der Öffentlichkeit zugänglich. Das Tech-Unternehmen gelangte damit quasi über Nacht zu weltweiter Bekanntheit. Fast genau ein Jahr später ist OpenAI wieder in den Schlagzeilen – wenngleich der Grund für das Unternehmen ein weitaus unerfreulicherer ist.

Am Freitag setze der Verwaltungsrat des Unternehmens den bisherigen CEO Altman auf die Straße. Der Schritt kam nicht nur für den bisherigen Firmenchef überraschend. Auch die großen Anteilseigner der kommerziellen OpenAI-Tochter OpenAI Global, darunter Microsoft, wurden im Vorfeld im Dunkeln gelassen. Entsprechend groß war die Aufregung am Wochenende.

Auf Druck der Investoren sollte Altman wieder zurückgeholt werden, am Montag schien aber fix: Der bisherige OpenAI-CEO wird zu Microsoft wechseln und eine eigene KI-Abteilung aufbauen. OpenAI soll künftig von Emmett Shear, dem ehemaligen CEO der Streamingplattform Twitch, geleitet werden.

Berichte über Verhandlungen über Rückkehr

Das wiederum veranlasste einen Großteil der Belegschaft ihrerseits mit Kündigung und einem Wechsel zu drohen. In einem offenen Brief forderte sie die Wiedereinsetzung Altmans. Unterschrieben wurde dieser auch von Ilya Sutskever, Chefwissenschaftler von OpenAI.

In einem Post auf X (Twitter) schrieb Sutskever am Montag, er bedaure es zutiefst, sich an den Aktionen des Verwaltungsrats beteiligt zu haben. „Ich hatte nie die Absicht, OpenAI zu schaden. Ich liebe alles, was wir gemeinsam aufgebaut haben, und ich werde alles tun, was ich kann, um das Unternehmen wieder zu vereinen“, so der Informatiker.

Altman kommentierte den Post mit drei Herzen. Und schrieb selbst auf X davon, man sei „geeinter, engagierter und konzentrierter als je zuvor“. Am Dienstagabend berichtete schließlich Bloomberg, das Altman mit OpenAI erneut über eine Rückkehr an die Spitze des Tech-Unternehmens verhandle.

Spätestens an diesem Punkt gewinnt die ohnehin schon verwirrende Causa noch einmal an Absurdität. Denn Sutskever sitzt auch im fünfköpfigen Verwaltungsrat und war einer der vier Vorstände, die den Ausschluss Altmann beschlossen. Viele Beobachterinnen und Beobachter gingen nach der Entlassung Altmans davon aus, dass Sutskever eine treibende Kraft dahinter war.

Gründung aus Idealismus?

Um zu verstehen, wie sie zu dieser Einschätzung gelangten, hilft es, einen Blick auf die Geschichte des Unternehmens zu werfen, das 2015 von einer Gruppe aus KI- und IT-Experten als Open-Source-Non-Profit-Organisation gegründet worden war. OpenAI sollte also zum einen nicht gewinnorientiert wirtschaften, zum anderen sollte der Quelltext der entwickelten Software öffentlich zugänglich sein.

Neben Altman war von Anfang an unter anderen Greg Brockman dabei, der sich am Freitag als einziges Mitglied des Verwaltungsrats nicht für den Rausschmiss Altmans aussprach und seinen Posten aus Protest bereits räumte. An der Gründung war darüber hinaus auch Sutskever beteiligt – wie Elon Musk, der sich aber 2018 aus der Leitung des Unternehmens zurückzog.

Bereits am Beginn von OpenAI stand die feste Überzeugung: Die Entwicklung künstlicher Intelligenz werde in absehbarer Zeit so weit voranschreiten, dass sie Menschen bei quasi allen wirtschaftlich relevanten Tätigkeiten übertreffen könnte. Der Terminus technicus dafür lautet Artificial General Intelligence (AGI) – und für OpenAI war er von Beginn an das entschiedene Ziel – allerdings mit der Auflage, dass die Entwicklung „der gesamten Menschheit zugutekommt“.

So steht es zumindest in der Unternehmenscharta. „Wir werden versuchen, selbst eine sichere und nützliche AGI zu schaffen, sehen unsere Aufgabe aber auch als erfüllt an, wenn unsere Arbeit anderen hilft, dieses Ergebnis zu erreichen“, heißt es dort weiter.

2019 brachte Kommerzialisierung

Vier Jahre nach der Gründung von OpenAI verließ das Unternehmen – zumindest teilweise – den Weg, den es sich zu Beginn selbst auferlegt hatte. 2019 gründete OpenAI eine Tochtergesellschaft. Diese sollte bis zu einer gewissen Grad Gewinne erzielen dürfen und über kurz oder lang auch kommerzielle Produkte entwickeln. „Dieses unternehmerische Detail steht im Mittelpunkt der Geschichte des kometenhaften Aufstiegs von OpenAI und des schockierenden Sturzes von Altman“, schrieb „The Atlantic“.

Von Beginn an standen sich bei OpenAI zwei einander widerstrebende Ideologien gegenüber. Auf der einen Seite befinden sich diejenigen, für die KI mit einer potenziellen Bedrohung einhergeht, die es einzuhegen gilt. Auf der anderen Seite standen jene, die darauf setzten, dass die Lösung nur die möglichst schneller technologischer Entwicklung sein könne – wofür es wiederum eine weitreichende Kommerzialisierung brauche.

Gamechanger ChatGPT

Schon die Entscheidung der Gründung einer Unternehmenstochter 2019 verschob das Gewicht in Richtung Letzterer. Den großen Paradigmenwechsel brachte aber jenes Produkt, mit dem OpenAI der breiten Öffentlichkeit bekannt wurde. Mit der Veröffentlichung von ChatGPT für die Allgemeinheit „brach das fragile Gleichgewicht zusammen“, schrieb „The Atlantic“. Der Chatbot ist im Grunde ein elaboriertes Sprachmodell und weit von einer tatsächlichen AGI oder gar einer Super-KI entfernt. Doch für Menschen machte das Programm das erste Mal erst so richtig das Potenzial, aber auch die möglichen Konsequenzen der KI-Forschung deutlich.

Altman wurde zum Gesicht der KI-Forschung und zugleich auch zur Galionsfigur derjenigen, die auf schnelles technologisches und kommerzielles Wachstum setzten. Altman trieb diesen Kurs in den vergangenen Monaten stark voran – für manche wohl zu stark. So berichteten OpenAI-Angestellte gegenüber „The Atlantic“, dass Warnungen vor einer zu schnellen Entwicklung zunehmend ungehört blieben.

Sorge vor unkontrollierter künstlicher Intelligenz

Das traf wohl auch auf Sutskever zu. Der Informatiker schien in den vergangenen Jahren zu der Überzeugung gelangt zu sein, dass die Entwicklung einer Artificial General Intelligence in greifbare Nähe gerückt sei. Damit einher scheint aber auch die Angst gegangen zu sein, eine solche nicht kontrollieren zu können.

Laut „The Atlantic“, das sich dafür auf Berichte von Angestellten beruft, ließ Sutskever etwa heuer für ein Treffen von OpenAI-Führungskräften eigens eine Holzfigur anfertigen. Diese sollte eine unkontrollierte KI repräsentieren und wurde von Sutskever bei dem Treffen in Brand gesteckt – ein Symbol, sich auf die ursprünglichen Werte von OpenAI zu konzentrieren.

Bei Altman, aber auch vielen anderen Verantwortlichen bei OpenAI verfingen Sutskevers Bedenken augenscheinlich kaum. Laut Bloomberg gründete Sutskever noch im Juli ein neues Team im Unternehmen, um „superintelligente“ künftige KI-Systeme unter Kontrolle zu bringen. Doch vor einem Monat sollen Sutskevers Aufgaben merklich eingeschränkt worden sein.

Philosophische Strömung mit KI-Agenda

In dem Versuch, die Ereignisse vom Freitag einzuordnen, lag für viele nahe, dass Sutskever am Ende die Mehrheit des Verwaltungsrates von seinen Bedenken überzeugen konnte. Das erscheint umso wahrscheinlicher, als mit Helen Toner und Tasha McCauley zumindest zwei Mitglieder enge Verbindungen zum Effektiven Altruismus haben.

Diese nicht zuletzt im Silicon Valley verbreitete philosophische Strömung plädiert für einen möglichst effizienten Mitteleinsatz, um möglichst vielen Menschen zu helfen. In den USA erfreut sich die Denkströmung vor allem unter vermögenden Menschen Beliebtheit.

In der letzten Zeit wandten viele effektive Altruisten ihren Blick überdies zunehmend in die Zukunft. Es gelte, weniger die drängenden Probleme unserer Zeit als zukünftige Entwicklungen, die heute schon begonnen haben, zu behandeln, so das Credo. Und weit oben auf dieser Liste der künftigen Gefahren steht die Entwicklung einer übermächtigen, unkontrollierbaren KI.

Im Versuch einer Einordnung der Geschehnisse rund um OpenAI verweist das Onlinemagazin Slate auch auf den im vergangenen Jahr aufgeflogenen Kryptobetrug von Sam Bankman-Fried. Der Kryptounternehmer galt vielen als Leuchtfigur des Effektiven Altruismus. Dass er das Motto „Der Zweck heiligt die Mittel“ bis hin zu großangelegtem Betrug getrieben hatte, sorgte unter manchen Anhängern der Bewegung für Katerstimmung. Umso stärker hätten sie ihren Fokus dann auf die Zukunft und die Warnung vor KI-Gefahren gelenkt, so der Slate-Artikel.

Coup der Effektiven Altruisten?

Wurde Altman also zum Opfer des Effektiven Altruismus? Für diejenigen, die auf der anderen Seite des ideologischen Spektrums stehen, scheint das eine ausgemachte Sache zu sein. Im vergangenen Jahr formierte sich in erster Linie auf X – das damals noch Twitter hieß – eine radikale Gegenbewegung zu denjenigen, die vor der Gefahr von KI warnten. Unter dem Schlagwort „effective accelerationism“ (dt.: effektive Beschleunigung), abgekürzt „e/acc“, forderten sie eine völlige Aufgabe von Beschränkungen der KI-Forschung.

Altman wurde für die Bewegung zu einer Lichtfigur – auch weil er selbst die entsprechenden Begrifflichkeiten immer wieder zumindest spielerisch aufgriff. Auch wenn die „e/acc“-Bewegung in den Untiefen sozialer Netzwerke begann, bekennt sich so mancher Tech-Unternehmer zum schnellen KI-Wachstum um jeden Preis. Das wurde nicht zuletzt nach den jüngsten Ereignissen rund um OpenAI deutlich.

„Übergeht den woken gemeinnützigen Verwaltungsrat, schmeißt die Bremser und Effektiven Altruisten hinaus und übernehmt wieder die Kontrolle, vermeidet unsinnige Regulierungen und baut einfach. Beschleunigt den Fortschritt“, schrieb Brian Armstrong auf X. Der Investor ist Geschäftsführer und Kogründer von Coinbase, der größten Handelsplattform für Kryptowährung in den USA.

Doch auch von anderer Seite kam Kritik an dem vermeintlichen Coup der Effektiven Altruisten. US-Ökonom James Broughel schrieb in einem Kommentar für das Wirtschaftsmagazin „Forbes“, der „verderbliche Einfluss“ des Effektiven Altruismus habe „selbst bewunderte Unternehmen wie OpenAI infiziert“.

Zukunft von OpenAI offen

Hinter solch emotionsbehafteten Ausführungen mag freilich untergehen, dass bisher noch immer nicht restlos geklärt ist, was tatsächlich zum Zerwürfnis zwischen Altman und dem Verwaltungsrat geführt hat. In der offiziellen Stellungnahme von Freitag hieß es nur, dass Altman „in seiner Kommunikation mit dem Verwaltungsrat nicht immer ehrlich gewesen ist und damit diesen an der Ausübung seiner Aufgaben gehindert hat“. In einem internen Dokument, das die Nachrichtenagentur Reuters einsehen konnte, ist auch nur von einem „Zusammenbruch der Kommunikation“ die Rede.

Unklar ist derzeit auch die Zukunft von OpenAI. Zwar gilt Neo-CEO Shear grundsätzlich als Vertreter eine vorsichtigeren KI-Forschung. Einer Abkehr von jeglicher Kommerzialisierung erteilte er jedenfalls bereits eine Absage. „Ich bin nicht so verrückt, diesen Job anzunehmen, ohne die Unterstützung des Vorstands für die Kommerzialisierung unserer großartigen Modelle“, so Shear. Auch Microsoft-CEO Satya Nadella sicherte OpenAI die weitere Partnerschaft zu.

Berichte über angedachte Fusionierung

Dabei dürfte Shear laut Informationen von Insidern aber nicht die erste Wahl gewesen sein. Auf der Suche nach einem Nachfolger für den entlassenen Chef Altman ist das auf KI spezialisierte US-Start-up OpenAI Insidern zufolge an den Rivalen Anthropic herangetreten.

Anthropic war aus einer Gruppe von ehemaligen OpenAI-Angestellten hervorgegangen, die das Unternehmen wegen interner Differenzen 2019 verlassen hatten – unter anderem störten sie sich an der Kooperation mit Microsoft.

Anthropic-Chef Dario Amodei sollte nun nach der Entlassung Altmans die Leitung von OpenAI übernehmen und die beiden KI-Firmen auf eine mögliche Fusion vorbereiten, sagten zwei mit der Angelegenheit vertraute Personen der Nachrichtenagentur Reuters. Amodei wies das zurück. OpenAI wollte sich dazu nicht äußern.