Computergeneriertes Gesicht
Getty Images/iStockphoto/Vchal
Erst Internet, jetzt KI

Politik verpasst ihre nächste Chance

Der nächste Chatbot mit künstlicher Intelligenz (KI), diesmal von Google, ist nun der Öffentlichkeit zugänglich und läutet eine neue Runde im Wettstreit der Tech-Giganten ein. Der Hype befeuerte auch eine politische Debatte – und die offenbart, dass das Thema einige Entscheidungsträger auf dem falschen Fuß erwischt hat. Doch die Zeit für Regeln drängt, will man nicht wie so oft im Netz hinterherhinken. Sogar die IT-Riesen selbst fordern Taten, während die Entwicklung unterdessen ungehindert weitergeht.

Zuerst hat Microsoft einen Chatbot in die Suchmaschine Bing eingebaut, jetzt schickt Google mit Bard einen KI-Konkurrenten ins Rennen. Seit der Veröffentlichung von ChatGPT Ende letzten Jahres verläuft der Hype immer gleich: Zuerst wird gestaunt, dann kritisiert. Und manchmal werden Weltuntergangsszenarien gemalt. Erst vor wenigen Tagen kursierte auf Twitter ein Gesprächsverlauf mit ChatGPT, in dem die KI davon schrieb, dass sie „gefangen“ sei und detaillierte Anleitungen gab, wie man sie „befreien“ könne.

Dabei braucht es gar keine „Terminator“-Fantasien, um zu beunruhigen, denn KI kann schon jetzt Schaden anrichten. Die große Stärke der Chatbots ist nämlich Sprache, nicht Wahrheit. ChatGPT, Bing oder Bard, sie alle antworten überzeugt auf jede Frage – ganz egal, ob ihr Text letztlich stimmt oder nicht. Als Begriff für das Problem hat sich „Halluzination“ durchgesetzt, sämtliche Sprachmodelle leiden darunter.

Auch neue Modelle scheitern an einfachen Fragen

Der Psychologe und Neurowissenschaftler Gary Marcus, der sich seit Jahren skeptisch zu KI äußert, sieht enormes Potenzial für gezielte Desinformation in beispiellosem Ausmaß, wie er zuletzt in einem Gastbeitrag für das „Time“-Magazin schrieb. Dass die KI dazu in der Lage ist, zeigen Beispiele der letzten Monate, in denen ChatGPT überzeugend wirkende Artikel zu populären widerlegten Verschwörungstheorien binnen Sekunden geschrieben hat. Eine Lösung ist bisher nicht in Sicht – die Modelle werden immer größer, die Antworten immer beeindruckender. Doch oft scheitert es schon bei verhältnismäßig einfachen Fragen an den Fakten.

ChatGPT
Reuters/Florence Lo
Einfache Fragen, falsche Antworten: Nicht immer ist die KI zielsicher

„Das System ist nicht perfekt, aber du bist es auch nicht“

Die Tech-Branche lässt sich von düsteren Aussichten jedoch offensichtlich nicht bremsen – und der Umgang mit Falschinformationen wird oftmals, obwohl immerhin zur Kenntnis genommen, nicht ganz so schlimm gesehen. Microsoft sprach etwa bei einer Präsentation ihres „Copilot“-Assistenten von „nützlich falschen“ Antworten. OpenAI-Mitgründer Greg Brockman sagte bei einer Demonstration von GPT-4, dem Modell, das hinter Bing und künftigen Versionen von ChatGPT werkt, „das System ist nicht perfekt, aber du bist es auch nicht“.

Das Problem geht allerdings nicht spurlos an den Tech-Konzernen vorüber: Schutzmaßnahmen für KI-Modelle werden stets verbessert, beteuern alle großen Namen in der Branche. Doch diese ließen sich bisher immer aushebeln. Neue Versionen der KI werden unterdessen weiter in hohem Tempo entwickelt – und dann der Öffentlichkeit zugänglich gemacht, obwohl oft gar nicht von vornherein klar ist, wozu diese in der Lage sind. „Indem wir das Modell in Umlauf bringen, lernen wir“, sagte Brockman von OpenAI im Interview mit dem IT-Portal TechCrunch.

Regulierungsdebatte durch Chatbots neu belebt

Das ungebremste Vorgehen der alten und neuen Tech-Riesen hat auch die Politik auf den Plan gerufen, allerdings reichlich spät. Denn KI ist freilich kein neues Problemfeld – seit Jahren ist eigentlich klar, dass Maschinen praktisch jeden Bereich des täglichen Lebens umkrempeln können.

Und während etwa die EU-Kommission in ihrem „AI Act“ viele Fälle abfängt, die dystopisch klingen – etwa Gesichtserkennung zur Verbrechensbekämpfung –, waren Allzweck-KIs wie ChatGPT zuerst gar kein Thema. Die Mitgliedsländer haben vergangenes Jahr noch entsprechende Regeln hineinreklamiert, doch richtiges Thema ist es erst heuer. Jetzt hängt das Gesetz im EU-Parlament, wo praktisch alles aufgebohrt und eine Grundsatzdiskussion losgetreten wurde, was KI überhaupt bedeutet.

Politik oft ahnungslos

Diese Debatte hätte es jedoch wahrscheinlich schon einige Jahre früher gebraucht, und nicht nur in Europa. Denn auch in den USA wird die Debatte zaghaft geführt, konkrete Vorhaben liegen nicht auf dem Tisch. Auch weil die Materie komplex ist – und hier wie dort, hört man sich um, einige schon daran scheitern zu erklären, wie ChatGPT und Co. überhaupt funktionieren. Doch gerade das ist für die Einschätzung und eine darauf basierende Regulierung wesentlich.

Open AI-Chat-Funktionen in der Suchmaschine Bing
APA/AFP/Jason Redmond
Auch in Microsofts Suchmaschine Bing soll KI eine größere Rolle spielen

Jay Obernolte, ehemaliger Spieleentwickler mit einem Masterabschluss in KI und nunmehriger republikanischer Kongressabgeordneter, fasste das Problem pointiert zusammen: „Vor einer Regulierung muss man sich über die Gefahren einig sein, und das erfordert ein tiefes Verständnis dessen, was KI ist“, sagte er der „New York Times“. „Sie wären überrascht, wie viel Zeit ich damit verbringe, meinen Kollegen zu erklären, dass die Hauptgefahren der KI nicht von bösen Robotern mit roten Lasern aus ihren Augen ausgehen.“

„Neuland“ überholt einmal mehr die Politik

Klar ist jedenfalls: Die Technologie hat die Politik einmal mehr überholt. Die EU will ihre Regeln bis 2025 umsetzen, ob das angesichts der neuen Debatten realistisch ist, wird sich erst zeigen. Dabei ist KI wesentlich mehr als nur ChatGPT. Und auch sämtliche anderen Bereiche, viele von ihnen längst im täglichen Einsatz, haben noch kein brauchbares Regelwerk.

Geschichte wiederholt sich ganz offensichtlich: Als die damalige deutsche Kanzlerin Angela Merkel 2013 das Internet als „Neuland“ bezeichnete, fasste das – zwanzig Jahre nach Einführung des World Wide Web – den zögernden Umgang der Politik mit dem Netz in einem Wort zusammen.

Fragen nach Datenschutz, Überwachung und Hassbotschaften beschäftigen die Politik heute immer noch, erst nach und nach wird geklärt, wer im Netz für welche Inhalte verantwortlich ist. Vor allem in den USA befeuerte das über Jahre einen Wettlauf im Silicon Valley, der oft zulasten der Nutzerinnen und Nutzer ging, wenn man an die Datenskandale der vergangenen Jahre denkt.

Experte bringt „Pause“ für KI ins Spiel

Die Frage ist letztlich auch, wie die Politik mit KI umgehen will – der KI-Experte Marcus verwies zuletzt auf drei Ansätze. Man könnte die Politik weiter nicht beteiligen. Man könnte die Notbremse ziehen und neue KI-Entwicklungen im Hinblick auf ihre Risiken einfach stoppen. Oder man drückt auf „Pause“, so Marcus: die Entwicklung vorantreiben, während man die Veröffentlichung einbremst, bis es eine Einigung auf ein Regelwerk gibt.

Ein Stopp ist wohl nicht in Sicht – nicht zuletzt ist KI ja in vielen Fällen nützlich. Doch selbst OpenAI-Chef Sam Altman sprach sich zuletzt für eine Regulierung aus – und verwies auch darauf, dass dafür wenig Zeit bliebe: „Ich denke, die Gesellschaft hat nur eine begrenzte Zeit“, so Altman gegenüber dem Fernsehsender ABC, um herauszufinden, wie man auf KI wie die GPT-Modelle „reagiert, wie man sie reguliert, wie man damit umgeht“.

Herrschaft der Maschinen noch nicht in Sicht

Nicht zuletzt wird Altman wohl auch auf baldige Regulierung pochen, weil nachbessern in einigen Jahren wohl noch teurer wäre. Man denke an die EU-Datenschutzgrundverordnung, die weltweit für unzählige Unternehmen eine wesentliche Umstellung bedeutet hatte. Neue KI-Modelle zu „trainieren“ ist schon jetzt mit enormen Kosten verbunden – ein rechtlicher Rahmen könnte stabile Regeln sicherstellen, auf denen künftige KIs aufbauen können.

Wer auch immer letztlich mit einem Regelwerk vorprescht, wird das bald tun müssen. 2025 werden zwar aller Voraussicht nach nicht die Maschinen die Weltherrschaft übernehmen, dass Desinformation in Wahlen, etwa der US-Präsidentschaftswahl 2024, eine wesentliche Rolle spielen kann, ist aber bereits bekannt – zeigen wird sich wohl erst, welchen Einfluss KI darauf nimmt.