Illustration zeigt leuchtenden Computerchip auf Leiterplatine
Getty Images/iStockphoto/Jiefeng Jiang
Künstliche Intelligenz

OpenAI-Gründer gegen sofortige Regulierung

Die Gründer des ChatGPT-Entwicklers OpenAI fordern in einem Beitrag auf ihrer Website mit Blick auf die Entwicklung von künstlicher Intelligenz (KI) hin zu einer „Superintelligenz“ zwar mehr Kontrolle, um die Menschheit vor „Zerstörung“ zu schützen. Unter dieser Schwelle sprechen sie sich aber gegen eine stärkere Regulierung aus – wie eine zuletzt von Prominenten und Fachleuten geforderte „Pause“ für die KI-Entwicklung.

Aus heutiger Sicht sei es denkbar, dass KI-Systeme in den nächsten zehn Jahren in den meisten Bereichen die Fähigkeiten von Fachleuten übertreffen und die produktiven Tätigkeiten von großen Unternehmen übernehmen würde, so OpenAI-Geschäftsführer Sam Altman und Mitbegründer Greg Brockman und Ilya Sutskever in einem Blogeintrag auf der Unternehmenswebsite. Damit könne die „Superintelligenz“ leistungsfähiger sein als andere Technologien, mit denen sich die Menschheit in der Vergangenheit auseinandersetzen musste.

Daraus könnten sich zwar Vorteile wie eine „wohlhabendere Zukunft“ ergeben, man dürfe die Risiken aber nicht unterschätzen. „Angesichts der Möglichkeit eines existenziellen Risikos können wir nicht einfach nur reaktiv sein“, warnten die Verantwortlichen von OpenAI eindringlich auf ihrer Website und nannten Kernenergie als Beispiel für eine Technologie mit dieser Eigenschaft.

„Superintelligenz“

„Superintelligenz“ bezeichnet die hypothetische Intelligenz (etwa eines Computerprogramms), die jene der begabtesten Menschen weit übertrifft. Eine derartige „Superintelligenz“ kann jede intellektuelle Aufgabe verstehen oder lernen, die ein Mensch ausführen kann.

Man müsse zwar auch die Risiken der heutigen Anwendungen künstlicher Intelligenz „abmildern“, die „Superintelligenz“ werde aber eine besondere Behandlung und Koordination erfordern. Die Systeme könnten eine Macht haben, die „jede bisher geschaffene Technologie übertrifft“.

„Gewisses Maß an Koordination“ notwendig

Es brauche kurzfristig ein „gewisses Maß an Koordination“, um sicherzustellen, dass die Entwicklung der „Superintelligenz“ in einer Weise erfolge, die „es uns ermöglicht, sowohl die Sicherheit zu wahren als auch eine reibungslose Integration dieser Systeme in die Gesellschaft zu fördern“.

So sollten etwa für Unternehmen hohe Standards festgelegt werden. Regierungen könnten ein globales Projekt ins Leben rufen, oder man könnte sich mit der Rückendeckung einer neuen Organisation darauf einigen, die Wachstumsrate der KI-Fähigkeiten pro Jahr zu begrenzen, so der Vorschlag.

Institution wie IAEA gefordert

Zudem brauche es eine Institution wie die Internationale Atomenergiebehörde (IAEA), um Systeme zu inspizieren, Audits zu verlangen, die Einhaltung von Sicherheitsstandards zu prüfen, Sicherheitsniveaus festzulegen und mehr. Die Nachverfolgung des Rechen- und Energieverbrauchs könnte hier einen wichtigen Beitrag leisten, heißt es auf der Website.

Bei der Kontrolle müsse sich die Organisation jedoch „auf die Verringerung existenzieller Risiken konzentrieren“ und nicht auf Fragen, wie etwa die Definition dessen, was eine KI sagen dürfen sollte, aussehen soll. Weiters brauche es die technischen Möglichkeiten, um eine „Superintelligenz“ sicher zu machen. Das sei aktuell eine Frage, mit der man sich beschäftige.

Unter dieser Schwelle sprach man sich aber gegen stärkere Regulierung aus. Man halte es auch für wichtig, Unternehmen und Open-Source-Projekten die Möglichkeit zu geben, Modelle ohne derartigen Regulierungen zu entwickeln. Über die Grenzen und Vorgaben für KI-Systeme solle „demokratisch“ entschieden werden.

Sam Altman
Reuters/Elizabeth Frantz
OpenAI-Geschäftsführer Sam Altman spricht sich für eine Regulierung von „Superintelligenz“ aus

ChatGPT befeuerte Diskussionen über KI

Die Diskussion über die Potenziale und Risiken künstlicher Intelligenz hat in den letzten Monaten, nicht zuletzt durch die Anwendung ChatGPT, die Texte formuliert, indem Wort um Wort die wahrscheinliche Fortsetzung eines Satzes eingeschätzt wird, an Fahrt aufgenommen.

Zuletzt mehrten sich Befürchtungen, dass die Fähigkeiten der Anwendung zum Beispiel für die Produktion und Verbreitung von Falschinformationen genutzt werden könnten. Auch Altman äußerte diese Sorge und schlug die Gründung einer neuen Regierungsbehörde vor, die KI-Modelle auf den Prüfstand stellen kann.

Selbst anderen gewichtigen Vertretern der Tech-Branche wie Elon Musk wird der KI-Hype zunehmend suspekt. In einem von der Organisation Future of Life veröffentlichten und von ihm unterzeichneten Schreiben war von einem „außer Kontrolle geratenen Wettlauf“ und einer Entwicklung die Rede, die mittlerweile „niemand – nicht einmal ihre Schöpfer – verstehen, vorhersagen oder zuverlässig kontrollieren“ könne. Leistungsstarke KI-Systeme sollten aber „erst dann entwickelt werden, wenn wir sicher sind, dass ihre Auswirkungen positiv und ihre Risiken überschaubar sind“.

EU und Google für „freiwillige“ Regelungen

Indes haben sich EU-Kommission und Google darauf verständigt, dass es möglichst bald „freiwillige“ Regeln für die Entwicklung von KI geben sollte. „Wir waren uns einig, dass wir es uns nicht leisten können, auf das Inkrafttreten des KI-Gesetzes zu warten“, sagte EU-Industriekommissar Thierry Breton am Mittwoch nach einem Gespräch mit Google-Chef Sundar Pinchai in Brüssel der Nachrichtenagentur AFP.

Die EU-Kommission hatte 2021 einen Gesetzesvorschlag vorgestellt, um die Entwicklung von künstlicher Intelligenz gesetzlich einzugrenzen. Seitdem läuft der Gesetzgebungsprozess. Das EU-Parlament berät voraussichtlich im kommenden Monat abschließend über seinen Standpunkt. Anschließend können die Verhandlungen mit den Mitgliedsstaaten beginnen.

OpenAI zieht Rückzug aus EU in Erwägung

Die Kommission will nach wie vor die erste Gesetzgeberin weltweit werden, der die neuen Technologien umfassend reguliert. Breton schränkte jedoch ein, dass selbst bei einer Verabschiedung des abschließenden Gesetzes noch in diesem Jahr dieses „frühestens Ende 2025“ in Kraft treten werde.

Angesichts der bevorstehenden Vorschriften der EU ziehe OpenAI einen Rückzug aus Europa in Erwägung, sagte Altman am Mittwoch bei einer Veranstaltung in London. Vor einem solchen Schritt werde sich das Unternehmen aber zunächst bemühen, die europäischen Vorgaben einzuhalten, sobald sie feststehen. Altman: „Der derzeitige Entwurf des EU-KI-Gesetzes wäre eine Überregulierung, aber wir haben erfahren, dass er zurückgezogen werden soll.“ Der Vorschlag sei noch Gegenstand laufender Diskussionen.