Verschiedene Chatbot-Apps auf einem Smartphone
IMAGO/NurPhoto/Jaap Arriens
Keine Einigung in Sicht

ChatGPT lässt KI-Regeln der EU wackeln

Eigentlich hätte es am Mittwoch endgültig grünes Licht für die EU-Regeln zum Thema künstliche Intelligenz (KI) geben sollen. Doch kurz vor der ursprünglich erwarteten Einigung zum „AI Act“ gehen die Positionen offenbar weit auseinander. Vor allem beim Thema Grundmodelle – das auch für ChatGPT relevant ist – gibt es Meinungsverschiedenheiten. Die erhoffte Vorreiterrolle der EU bei der Regulierung von KI wackelt damit gehörig.

Es wäre die große Chance der EU gewesen, bei der Regulierung von KI weltweiter Vorreiter zu sein: Schon im Frühling 2021 lag ein Gesetzesentwurf der Kommission zum Thema auf dem Tisch – doch seither hat sich viel beim Thema und wenig bei einer Übereinkunft getan. Mit der Veröffentlichung von ChatGPT hat sich der Diskurs zum Thema komplett verschoben und ist auch mitten in der Gesellschaft angekommen. Wer über KI redet, meint heute in vielen Fällen Chatbots und Bildgeneratoren, nur noch selten wird über die unzähligen anderen Bereiche geredet, in denen KI zum Einsatz kommt.

Damit rückte vor allem eine Frage in den Mittelpunkt, auf die das EU-Regelwerk offenbar nicht vorbereitet war: Welches Risiko stellen ChatGPT und Co. in der Praxis dar? Die EU-Regeln sehen verschiedene Risikostufen vor, nach denen entschieden wird, wie genau KI-Anwendungen kontrolliert werden. Ob Chatbots und andere flexible KI-Werkzeuge in eine dieser Kategorien fallen und wenn ja, in welche, war bis zuletzt Streitpunkt.

Treffen sollte eigentlich Einigung bringen

Am Nachmittag treffen EU-Parlament, -Kommission und die Mitgliedsstaaten zusammen, um eine Einigung zu erzielen. Noch am Vormittag wurde damit gerechnet, dass die Verhandlungen bis spät in die Nacht dauern könnten – und es anders als erwartet auch nicht die letzte Gesprächsrunde gewesen sein könnte.

Prompt-Fenster von ChatGPT auf einem Laptopmonitor
IMAGO/NurPhoto/Jaap Arriens
Anwendungen wie ChatGPT haben die Debatte über KI komplett verändert

Deutschland, Frankreich und Italien hatten vor wenigen Wochen vorgeschlagen, diese Grundmodelle (Foundation Models) aus dem Gesetz auszunehmen und stattdessen auf eine verbindliche Selbstverpflichtung zu setzen. Verstöße dagegen sollten allerdings nicht geahndet werden.

Konzerne dafür, Parlament meldet Bedenken an

Die Technologiebranche begrüßte die Initiative. Entwicklerinnen und Entwickler von Grundlagenmodellen könnten weder sämtliche Anwendungsgebiete ihrer Software noch deren Risiken vorhersehen, sagte Ralf Wintergerst, Präsident des deutschen Digitalverbands Bitkom. „Zudem sind die technischen Entwicklungen gerade auf der Ebene der Modelle rasant, sodass feste Regeln im ‚AI Act‘ schnell überholt wären.“

Fachleute kritisieren dagegen eine mögliche Verwässerung des „AI Act“. Auch das EU-Parlament setzt sich für eine Regulierung von KI-Anwendungen wie ChatGPT ein. Insidern zufolge konnten die Meinungsverschiedenheiten bei Vorbereitungstreffen nicht ausgeräumt werden. Daher erwarten Fachleute als Ergebnis der aktuellen Verhandlungen lediglich ein Bekenntnis zu den Prinzipien des „AI Act“. Die letzten Details würden wohl erst später festgezurrt. Ohne eine baldige Einigung könnte sich die Verabschiedung des Gesetzes bis nach der Europawahl im kommenden Jahr verzögern.

Ohnehin würde es – inklusive Übergangsfristen – noch mehrere Jahre dauern, bis der „AI Act“ greift. Bis dahin will die EU die Zeit mit einer freiwilligen Selbstkontrolle der Unternehmen überbrücken. Hierfür will sie die großen Technologiekonzerne und maßgebliche KI-Entwickler ins Boot holen. EU-Kommissionspräsidentin Ursula von der Leyen schlägt die Einrichtung eines internationalen Gremiums nach dem Vorbild des UNO-Klimarats IPCC vor, das Nutzen und Risiken von KI beurteilt.

Auch keine Einigung bei Gesichtserkennung in Sicht

Streitthema ist auch die Gesichtserkennung mithilfe von KI. Im Entwurf des Europäischen Parlaments wird diese automatisierte Gesichtserkennung verboten. Die EU-Staaten beharren dagegen auf Ausnahmen zum Schutz der nationalen Sicherheit, zur Verteidigung und für andere militärische Zwecke.

Die Gesichter zweier Frauen werden gescannt
Getty Images/Leopatrizi
Auch bei der Gesichtserkennung gehen die Positionen auseinander

Das Parlament sieht aber offenbar noch Spielraum: „Es gibt zwar Flexibilität, aber wenn wir in diesen Fragen Spielraum lassen, müssen die Schutzmaßnahmen klar sein und nicht nur als Grenzen dienen, sondern auch eine wirksame Kontrolle gewährleisten“, so der Abgeordnete Brando Benifei, der den „AI Act“ mitverhandelt, gegenüber „Politico“. Das Ziel solle sein, die Regierungen, die KI einsetzen, zu kontrollieren – anstatt sich darauf zu verlassen, dass sich die Regierungen selbst regulieren, so Benifei.

Wettbewerbsfähigkeit vs. Regulierung

KI-Anbieter pochten in den vergangenen Monaten selbst immer wieder auf ein verbindliches Regelwerk – und warnten plakativ mit superintelligenten KIs und Weltuntergangsszenarien, die aber noch nicht spruchreif sind. Gleichzeitig appellierte man, Modelle wie ChatGPT – und damit ihr momentanes Kerngeschäft – unreguliert zu lassen, um Innovation zu ermöglichen, so das Argument. Fachleute warnen jedoch, dass derartige Werkzeuge etwa gezielt zur Desinformation eingesetzt werden könnten – und damit schon jetzt Schaden anrichten.

Während die EU weiter um eine Einigung ringt, zeichnet sich auch in den USA kein Regelwerk ab, um KI zu regulieren. Den Bestrebungen, Entwicklungen zu regulieren, stehen oft wirtschaftliche Interessen entgegen – vor allem im Wettstreit zwischen China, den USA und Europa will niemand zurückfallen. Klar ist aber auch: Das Themengebiet entwickelt sich enorm schnell weiter, und wie schon in der Vergangenheit, etwa beim Thema soziale Netzwerke, wird es wesentlich schwieriger werden, schon etablierte Anwendungen erst im Nachhinein mit Regeln zu belegen.