Laborantin mit einer Maus
Getty Images/Westend61
Videofälschungen

Mäuse als Geheimwaffe gegen „Deep Fakes“

Mit Hilfe künstlicher Intelligenz können Prominenten Worte in den Mund gelegt werden, die sie nie gesagt haben: „Deep Fakes“ heißen die täuschend echt aussehenden Videos, die seit geraumer Zeit im Netz kursieren und Science-Fiction-Alpträume wahr werden lassen. Um Original und Fälschung künftig besser unterscheiden zu können, könnten nun Mäuse bei der Erkennung helfen.

„Ein Mann, mit kompletter Kontrolle über Milliarden von gestohlenen Nutzerdaten, ihren Geheimnissen, ihrem Leben, ihrer Zukunft“: In einem Video, das im Juni die Runde machte, ist Facebook-Gründer Mark Zuckerberg zu sehen, der scheinbar über die große Macht, die ihm durch das Soziale Netzwerk zuteil wurde, spricht. Doch das Video ist eine Fälschung, Zuckerberg selbst hat diese Worte nie gesagt. Auf den ersten – und oft auch den zweiten – Blick ist das Video, das von zwei Künstlern und einer Werbeagentur erstellt wurde, nicht von einer echten Videobotschaft des Facebook-Chefs zu unterscheiden.

Im Rahmen der „Black Hat“-Sicherheitskonferenz in Las Vegas präsentierte ein Forscherteam der Universität Oregon vergangene Woche einen ungewöhnlichen Ansatz zur Erkennung derartiger Fakes – mit Hilfe von Mäusen. Die Tiere sollen darauf trainiert werden, Unregelmäßigkeiten in der Sprache zu erkennen. In Versuchen habe man Mäusen beigebracht, feinste Unterschiede zwischen ähnlich klingenden Silben zu erkennen.

„Und weil sie diese sehr komplexe Aufgabe der Einordnung verschiedener Töne erlernen können, denken wir, dass Mäuse auch den Unterschied zwischen echter und gefälschter Sprache lernen können“, zitiert die BBC den Forscher Jonathan Saunders, der an dem Projekt beteiligt war.

Technologie heute leicht zugänglich

Das gefälschte Video mit dem Facebook-Chef in der ungewollten Hauptrolle zeigt die rasante Entwicklung, die die Fälschungen hinter sich haben: 2017 war Ex-US-Präsident Barack Obama das erste prominente Opfer der Technologie im Rahmen eines wissenschaftlichen Projekts. Wenig später sorgte ein Reddit-User für Aufsehen, der Pornos so manipulierte, dass darin die Köpfe von Berühmtheiten zu sehen sind. Mittlerweile gibt es frei erhältliche Software, die bei der Erstellung solcher Videos hilft.

Es ist damit das vielleicht beunruhigendste Anwendungsgebiet Künstlicher Intelligenz: Genügend Bild- und Tonmaterial der Zielperson vorausgesetzt, lassen sich derartige Fälschungen auch ohne große Vorkenntnisse erstellen. Mit entsprechender Nachbearbeitung und fortschreitender Weiterentwicklung wird die Unterscheidung zu echten Videos für Menschen zur schwierigen Aufgabe. Entsprechend groß sind die Bemühungen, solche Videos verlässlich zu erkennen, damit sie sich nicht verbreiten können.

Keine „SoKo Maus“

Ziel sei es nun, „die Art und Weise“, wie Mäuse die Unterschiede zwischen Wahrheit und Fälschung erkennen, „auf einem Computer zu implementieren“, so Saunders. Damit wird es künftig also kein eigenes Moderatorenteam bestehend aus Mäusen in Sozialen Netzwerken geben: „So bezaubernd ich die Idee eines Raums voll von Mäusen finde, die Fälschungen in Echtzeit für YouTube erkennen“, so „unpraktisch ist es – aus offensichtlichen Gründen“, so der Forscher.

Im Gegensatz zu bisherigen Algorithmen können sich Mäuse an neue Aufgabenstellungen anpassen, schreibt das „Wall Street Journal“ („WSJ“). In Tests sollen die Mäuse rund 75 Prozent Erfolgsquote bei der Erkennung gefälschter Töne erreicht haben. „Mäuse sind unbeschriebene Blätter. Sie können komplexe Funktionen und neue Klassifizierungsprobleme lernen“, so Saunders gegenüber dem „WSJ“.

Experten sehen Qualität nicht als entscheidend an

Laut BBC war die „Deep Fakes“-Problematik ein wichtiges Thema der Konferenz. Zwar sind die heutigen Videos relativ leicht als Fakes erkennbar – vor allem weil damit meistens komplett haarsträubende Inhalte transportiert werden. Doch in naher Zukunft könnten die Videos auch eine wichtige Rolle in Wahlkämpfen spielen und wesentlich subtiler eingesetzt werden, so die Befürchtung.

Einige Sicherheitsexpertinnen und -experten können die Angst vor den „Deep Fakes“ jedoch nicht nachvollziehen. Die Qualität einer Fälschung sei gar nicht ausschlaggebend, sagt der Kryptografie-Experte Bruce Schneier gegenüber der BBC. Fälschungen, die sich im Netz verbreiten, seien heute alles andere als subtil – und trotzdem würden sie geteilt, so Schneier. „Solange Menschen ein Video schauen und sich nicht fragen ‚Ist das die Wahrheit?‘, sondern: ‚Bestätigt das meine Weltsicht?‘, werden sie es auch teilen“, so der Experte.