Hände auf einem Laptop
Getty Images/Thana Prasongsin
KI-Nacktbilder

Kinder als Opfer von Deepfakes

Durch künstliche Intelligenz (KI) ist es erschreckend einfach geworden, jedes beliebige Foto in eine realistische Montage zu verwandeln. Dass das besorgniserregende Folgen haben kann, zeigen zahlreiche Berichte weltweit. So werden etwa Kinderfotos, die online gestellt werden, zu Nacktbildern verfälscht. Die Zahl der Betroffenen ist genauso unermesslich wie die Weiten des Internets.

Die Stadt Almendralejo im Osten Spaniens geriet im September in den Fokus der Behörden, nachdem mehr als 20 Mädchen im Alter von elf bis 17 Jahren Opfer von KI-verfälschten Nacktbildern geworden waren, die jemand online gestellt hatte. Und im US-Bundesstaat New Jersey wurden Jugendliche an einer Highschool Anfang November beschuldigt, KI-generierte pornografische Bilder von Mitschülern bzw. Mitschülerinnen erstellt zu haben.

Deepfakes zu erstellen ist prinzipiell in den meisten Kontexten nicht strafbar. Freilich verhält es sich anders, wenn Persönlichkeitsrechte verletzt werden. Ermöglicht wird das durch die Zunahme billiger und einfach zu bedienender KI-Tools, die Menschen auf Fotos beispielsweise „ausziehen“ können, indem sie analysieren, wie ihre nackten Körper aussehen würden, und das in ein Bild einfügen, oder ein Gesicht nahtlos in ein pornografisches Video schneiden.

Deepfakes

Deepfakes sind realistisch wirkende Medieninhalte, etwa Fotos, Videos und Audiodateien, die durch KI erzeugt oder verfälscht wurden.

Für Expertin „nicht überraschend“

Wie die Internet Watch Foundation in ihrem neuen Bericht schrieb, sei es „nicht überraschend“, dass pornografische Deepfakes so weit verbreitet seien. Susie Hargreaves, Geschäftsführerin der Stiftung, sagte, Missbrauchsdarstellungen, die durch KI generiert würden, müssten „dringend“ angegangen werden. Die Expertin sprach von einem regelrechten „Boom“ an KI-generierten pornografischen Darstellungen.

In ihrem Bericht von Oktober 2023 hielt die Stiftung fest, dass in nur einem Monat mehr als 20.000 KI-generierte Bilder in einem Forum gefunden wurden, das Material zu sexuellem Kindesmissbrauch verbreitet. In dem Forum hätten User und Userinnen kommentiert, wie realitätsnah die pornografischen Darstellungen Minderjähriger aussähen. Ersteller hätten angegeben, die Fotos von beliebigen Kindern im Park gemacht zu haben. Anschließend hätten sie die Deepfakes auf Basis dieser Fotos erstellt.

Aktivistin: Manche Eltern machen sich mitschuldig

Kinderrechtsaktivistinnen und -aktivisten warnen seit Jahren davor, Inhalte Minderjähriger online zu stellen. Sarah Adams, bekannt unter dem Usernamen Mom.Uncharted, wirft Eltern, die Inhalte ihrer Kinder auf Social Media posten, vor, sich der Ausbeutung von Kindern online mitschuldig zu machen. Sie empfiehlt, im besten Falle überhaupt nichts von Minderjährigen auf sozialen Netzwerken zu teilen: keine Bilder und Videos, keine Namen, keine Geburtstage.

Zumindest aber sollte man sich, so Adams, immer die Frage stellen: Würde ich das auch einem x-beliebigen Fremden auf der Straße mitteilen? Adams ruft außerdem zum Boykott jener Nutzerinnen und Nutzer auf, die die Rechte von Kindern ignorieren: „Hört auf, die Inhalte all jener Eltern zu konsumieren, die die Existenz ihrer Kinder online ausbeuten und sie zum Geschäftsmodell machen.“ Die Folgen lägen auf der Hand.

Meta-Berater warnt

Ob unerwünschte „Dickpics“, Grooming, Hassnachrichten oder Fake News – seit ihrer Existenz werden Social-Media-Konzerne wie Meta, zu dem unter anderem Facebook und Instagram gehören, öffentlich und politisch darauf aufmerksam gemacht, dass ihre Plattformen kein sicherer Ort für Kinder und Jugendliche sind. Auf TikTok etwa dürften Userinnen und User sich erst ab 13 Jahren anmelden – unter 18 zudem nur mit Einverständniserklärung der Eltern –, was Beobachtungen zufolge aber immer noch deutlich unterschritten wird, obwohl TikTok offiziell angibt, dagegen vorzugehen.

Hilfe für Betroffene

Unter meldestelle@interpol.at nimmt eine eigene Meldestelle des Bundeskriminalamts Hinweise auf Missbrauchsdarstellungen entgegen.

Ebenso präsentiert Meta am laufenden Band Sicherheitsvorkehrungen, die getroffen würden. Der Fall eines Sicherheitsberaters, der für den Konzern gearbeitet hatte, zeigte allerdings, dass Mark Zuckerbergs Konzern mehr tun könnte. Bereits 2021 schickte Meta-Berater Arturo Bejar Zuckerberg eine Nachricht: „Ich wollte Sie darauf aufmerksam machen, dass es meiner Meinung nach eine kritische Lücke in der Art und Weise gibt, wie wir als Unternehmen mit Schaden umgehen und wie die Menschen (…) (die die Plattformen nutzen, Anm.) ihn erleben“, heißt es darin.

US-Kongress prüft Verbot bestimmter Deepfakes

Vor wenigen Wochen sagte Bejar vor dem US-Kongress aus: Zuckerberg habe ihm nie geantwortet und in keiner Weise auf seine Warnungen reagiert. Bejar zitierte dabei eine Statistik, die sogar Instagram-Leiter Adam Mosseri selbst dem Meta-Konzern präsentiert hatte: Einer von acht Nutzern (bzw. eine von acht Nutzerinnen) unter 16 Jahren gab an, in den letzten sieben Tagen auf der Plattform unerwünschte sexuelle Annäherungsversuche erlebt zu haben.

Sicherheitsberaterinnen und -berater des Konzerns warnen außerdem vor zunehmender Pädophilie auf Social-Media-Plattformen. Der US-Kongress prüft derzeit einen Gesetzesentwurf des Demokraten Joe Morelle, der die Verbreitung von Deepfakes, die ohne Einverständnis der betroffenen Person online gestellt wurden, verbieten soll.

Britische Regierung kündigt „hohe Geldstrafen“ an

Auch in Europa sehen sich einige Politikerinnen und Politiker auf den Plan gerufen. Auf dem ersten KI-Sicherheitsgipfel des Vereinigten Königreichs im November verpflichtete sich die frühere britische Innenministerin Suella Braverman, gegen KI-generiertes Material zu sexuellem Missbrauch vorzugehen. Die britische Regierung stellte klar: „KI-generierte Inhalte zur sexuellen Ausbeutung und zum Missbrauch von Kindern sind illegal, unabhängig davon, ob sie ein echtes Kind darstellen oder nicht.“

Der Online Safety Act, der beschlossen wurde, verpflichtet IT-Unternehmen dazu, proaktiv gegen alle Formen des sexuellen Missbrauchs von Kindern im Internet vorzugehen – einschließlich Grooming, Livestreaming und Material über sexuellen Missbrauch von Kindern. Als Konsequenz wurden „hohe Geldstrafen“ angekündigt.

KI-Gesetz in EU noch nicht in Kraft

Nach zwei Jahren Arbeit verabschiedete das Europäische Parlament heuer ein KI-Gesetz („AI Act“). Dieses muss allerdings noch mit der EU-Kommission und den einzelnen Staaten der Gemeinschaft abgestimmt werden. Den Plänen zufolge sollen KI-Anwendungen in bestimmte Risikoklassen eingestuft werden, an denen sich der Umfang der gesetzlichen Beschränkungen orientiert.

Da es inklusive Übergangsfristen aber noch mehrere Jahre dauert, bis das KI-Gesetz greift, will die EU die Zeit bis dahin mit einer freiwilligen Selbstkontrolle der Unternehmen überbrücken. Hierfür will sie große IT-Konzerne und maßgebliche KI-Entwickler ins Boot holen. Angestrebt wird eine Einigung zum KI-Gesetz im laufenden Jahr.