Inmitten der Diskussion über eine mögliche Anklage gegen den Ex-US-Präsidenten hatte der Gründer der bekannten Rechercheplattform Bellingcat, Eliot Higgins, die Verhaftung von Trump zum Leben erweckt. Mit der KI-Software Midjourney illustrierte er mehrere Bilder, die ein Heer von Polizisten zeigen, die den früheren Präsidenten zu Boden zerren und umzingeln. Die Bilderserie ging viral. Selbst Higgins war überrascht, wie schnell seine KI-generierten Bilder durch diverse Plattformen zirkulierten, teilweise ohne Kontext und KI-Hinweis.
Schnell wurde Kritik laut, dass die Öffentlichkeit durch die von KI generierten Bilder manipuliert werden könnte. „Es scheint, dass die meisten Leute, die sich darüber aufregen, denken, dass andere Leute sie für echt halten könnten“, sagte Higgins gegenüber dem US-Magazin „The Atlantic“. Gegenüber der Nachrichtenagentur AP räumte er ein, dass seine Bilder trotz ihrer Fehler von einigen als echt verkauft wurden. Das würde den Mangel an kritischem Denken verdeutlichen.
Schnelle Verbreitung – oft ohne Hinweise
Die überwiegende Mehrheit hat die Bilder zwar als das erkannt, was sie sind, nämlich von KI generiert. Doch Fachleute zeigten sich darüber besorgt, wie und wofür die „Kunstwerke“ zum Teil verwendet wurden. Die Bilder von Trump, die allein schon wegen der dargestellten Mimik und Gestik frappant an den US-Präsidenten erinnern, sollten als Warnung dienen, schrieb etwa der renommierte Journalist Al Topkins. Ist einmal ein KI-Bild im Umlauf, werde es weitere Fälschungen geben. Man müsse genau hinschauen und auf die Details der KI-generierten Bilder achten, so der Experte des Poynter-Instituts.

Caroline Roth-Ebner von der Universität Klagenfurt sieht es ähnlich. „Die Entwicklung im Bereich der KI geht momentan generell rasant voran“, sagt die Medienwissenschaftlerin. Egal ob im Text-, Bild- oder Videoformat: Man benötige heute keine speziellen Kenntnisse mehr, um solche Produkte zu erstellen bzw. Bilder und Videos zu fälschen. Umso wichtiger sei es nun, dass Nutzerinnen und Nutzer dieser Medien über die damit verbundenen Risiken und Gefahren Bescheid wissen, sagt die Expertin. Nötig wäre eine „grundlegende Medienkompetenz“.
Wegen der schnellen Entwicklung im KI-Bereich müsse man mehr denn je am Ball bleiben. „Ich sehe eine große Verantwortung in Politik und Medien, die Bürger und Bürgerinnen dabei zu unterstützen, Aufklärung zu bieten, um destruktiven Kommunikationsphänomenen vorzubeugen bzw. diese besser einordnen zu können“, so Roth-Ebner. Es müsse auch klar sein, dass Fälschungen strafbar sein können, wenn dadurch zum Beispiel Urheberrechte oder Persönlichkeitsrechte verletzt werden oder die KI-Bilder Verleumdungen darstellen.
Roth-Ebner: Das Gezeigte infrage stellen
Die Bilderserie von Higgins über Trump war auch deshalb ein „Erfolg“, weil sich die Szene der Verhaftung an realen Debatten orientierte. Seit Tagen wird in der Öffentlichkeit über eine baldige Anklage gegen den US-Präsidenten spekuliert. Trump-Gegner und -Befürworter stellen sich solche Bilder vor, sollte dieser verhaftet werden.
Ein Blogger, der sich selbst als ehemaliger US-Infanterist bezeichnet, habe eines dieser KI-Bilder geteilt, wie die „Washington Post“ berichtete. Darunter habe er geschrieben: „In einer beispiellosen Wendung der Ereignisse wurde der ehemalige Präsident verhaftet und ins Bundesgefängnis gebracht.“
Mit einem genauen Blick und einer kurzen Recherche können KI-Bilder als solche zwar noch schnell erkannt werden – bei Trump waren es zum Beispiel drei Beine und der Polizeigürtel um seine Hüfte. Besonders in sozialen Netzwerken dominiert aber eher der flüchtige Blick auf die zig Bilder und Videos, die einem täglich zugespielt werden. „Beim schnellen Durchscrollen durch Inhalte verweilt man nicht bei einem Bild und analysiert es sorgfältig“, sagt Roth-Ebner. Deshalb benötige man die Grundhaltung, das Gezeigte zuerst infrage zu stellen, eine „kritisch-reflexive Distanz zu Medien und deren Inhalten“ sei nötig.

Dass man selbst mit einem geschulten Blick auf KI-generierte Fotos reinfallen kann, beweist die Abbildung von Papst Franziskus. Nicht wenige Nutzer und Nutzerinnen in sozialen Netzwerken gaben an, dass sie den Steppmantel tragenden Papst zunächst für real hielten. Auf Twitter wurde der Warnhinweis veröffentlicht, dass es sich dabei um ein Bild handelt, das mit Hilfe einer KI erstellt wurde. Gegenüber Buzzfeed sagte der „Künstler“, der anonym bleiben wollte, er sei „schockiert“ gewesen, als sein Papst-Bild viral ging.
Sein Werk habe er zunächst in einer Facebook-Gruppe namens AI Art Universe gepostet, also einer Plattform, in der bereits von KI-Kunst die Rede ist. Später landete es ohne KI-Hinweis auf Reddit und bahnte sich seinen Weg durch die weiteren sozialen Netzwerke. Zwar habe er mit einigen Reaktionen gerechnet, es sei aber beängstigend, dass „Leute damit herumlaufen und denken, es sei echt, ohne es zu hinterfragen“. Obwohl das Dargestellte wesentlich harmloser ist als bei Trump, sei das Papst-Bild bereits dazu verwendet worden, die katholische Kirche für ihre verschwenderischen Ausgaben zu kritisieren, sagt er.
Österreicher nutzen vermehrt Chat-GPT
Chat-GPT ist eine Anwendung, die künstliche Intelligenz verwendet, um sich mit Menschen in natürlicher Sprache zu unterhalten. Ungefähr jeder fünfte Österreicher hat die Anwendung auch schon benutzt.
Die negativen Folgen der KI-Kunst
Die Furcht, dass sich KI-Bilder von ihrem originären Zweck lösen und für Propaganda oder Lügen benutzt werden, ist nicht neu. In den letzten Jahren tauchten zum Beispiel vermehrt Fake-Videos von Politikern und Politikerinnen auf, in denen ihnen Worte in den Mund gelegt werden. Roth-Ebner erinnert etwa an das gefälschte Kapitulationsvideo, das den ukrainischen Präsidenten Wolodymyr Selenskyj zeigt. „Diese Bilder und Videos werden schon für Propagandazwecke und Manipulationen verwendet“, so die Expertin.
Erkennen von KI-Bildern
Quelle sichten, Wasserzeichen suchen, Körnung des Bildes beachten, visuelle Unstimmigkeiten suchen, auf den Hintergrund achten und sich Gedanken über den Inhalt des Bildes machen (ergibt es Sinn?). Zudem existiert bereits Software, die KI-generierte Bilder als solche erkennen kann.
Ein aktuelles Beispiel stammt von Trump. Nachdem die KI-Bilder seiner Verhaftung viral gingen, verbreitete der frühere US-Präsident in seinem eigenen sozialen Netzwerk Truth Social ein Bild, das den 76-Jährigen auf einem Knie betend zeigt. Wer schnell hinsieht, könnte glauben, es sei echt. Tatsächlich handelt es sich aber um ein Bild, das über KI erstellt wurde, wie „Forbes“ berichtete. Trump veröffentlichte das Bild ohne darauf hinzuweisen, dass es einer KI entsprungen ist.
Seit geraumer Zeit setzt auch die deutsche AfD auf KI-generierte Bilder und versucht, damit Politik zu machen. „Nein zu noch mehr Flüchtlingen!“ steht über einem Bild, das aggressiv wirkende und schreiende Männer zeigen soll. Dass die Abbildung von einer Software erstellt wurde, ist relativ leicht zu erkennen: Die Konturen einiger Gesichter sind verschwommen, im Vordergrund scheint ein Mann fünf Finger zu haben, aber keinen Daumen, wie etwa die AFP berichtete.
KI wächst aus Kinderschuhen heraus
Freilich stecken viele Fälschungen noch in den Kinderschuhen und weisen verräterische Anzeichen auf. Doch in den letzten Monaten hat sich bei der Erstellung von Bildern mittels KI viel getan – zumindest auf den ersten Blick. Hinter den täuschend echt aussehenden Bildern stehen vor allem drei populäre Werkzeuge: DALL-E vom ChatGPT-Betreiber OpenAI, die frei verfügbare Software Stable Diffusion und eben Midjourney, das etwa hinter den Papst- und Trump-Bildern steckt.

Bedienen lässt sich derartige Software immer nach dem gleichen Prinzip. Nutzerinnen und Nutzer beschreiben per Text ihr gewünschtes Bild, die KI spuckt kurz darauf entsprechende Variationen basierend auf der Beschreibung aus. Vor allem 2022 sorgten die Bilder in erster Linie für Erheiterung, denn oft gingen die Ergebnisse bestenfalls als „abstrakt“ durch, zusätzliche Finger galten da schon als Detail, oft scheiterte es schon am Groben.
Doch einerseits bildeten sich im Netz schnell Gemeinschaften, die ausloteten, wie man am besten für die KI „promptet“, also die Bildbeschreibungen formuliert, um das gewünschte Ergebnis zu erhalten. Und andererseits wurden die KI-Modelle stark erweitert – was etwa dazu führt, dass die aktuelle Midjourney-Version selbst Hände relativ verlässlich auf ein Bild bringt.
Dennoch lassen sich die generierten Bilder bei genauem Hinsehen als Fake erkennen. Wenn die Anatomie keine Hinweise liefert, sind dafür oft Faktoren wie Beleuchtung, Bildausschnitt, Mimik und Gestik ein Indiz für die KI-erzeugten Bilder. Und: Hände sind immer noch ein Problem, wie auch das Papst-Bild zeigt, denn in der rechten Hand hält er einen Kaffeebecher, die Hand rundherum ist bei genauem Hinsehen kaum als solche erkennbar.
Entwickler greifen auf Blackbox zurück
Wie so oft beim Thema KI gilt auch bei Bildgeneratoren, dass selbst die Entwicklungsteams dahinter oft nicht sagen können, wie die Ergebnisse zustande kommen. Klar ist: Damit die KI täuschend echte Bilder überhaupt liefern kann, wird sie zuerst mit einem enorm großen Datensatz „trainiert“. Wie das genau abläuft, ist nur bei Stable Diffusion bekannt, bei der Konkurrenz wird das als Betriebsgeheimnis gesehen. Stable Diffusion wurde mit mehreren Milliarden Bildern und dazugehörigen Bildbeschreibungen gefüttert – Quelle: Internet.
Der von dem deutschen Non-Profit-Unternehmen LAION zusammengetragene Datensatz greift Bilder von Blogs, sozialen Netzwerken und Kunstplattformen ab. Bei DALL-E und Midjourney ist unterdessen nicht klar, auf welchen Daten sie basieren, aber keine Zweifel bestehen, dass auch sie mit Bildern aus dem Netz trainiert wurden.
Aus diesen Bildermassen versucht die KI Zusammenhänge zu erstellen, ohne wirklich zu verstehen, was etwa eine „Hand“ ist oder dass sich unter der sichtbaren Haut ein Skelett befindet, das üblicherweise nur fünf Finger pro Seite aufweist. Und weil auf Bildern Hände oft nur klein dargestellt sind und sich darüber hinaus bevorzugt an Dingen festhalten, wodurch nur ein Teil von ihnen sichtbar ist, ist es schwieriger, Schlüsse zu ziehen, wie viele Finger eine Hand wirklich hat.
Chancen, aber noch größere Sorgen
In der KI-Welt ist nicht alles immer schwarz und dystopisch, mit einer rosaroten Brille ist es aber auch nicht getan. Roth-Ebner sieht etwa in der niedrigschwelligen Anwendung von KI enormes Potenzial. „Noch nie war es so einfach für Laien, Bilder und Videos zu generieren“, sagt sie, wohl auch mit Blick auf die Medienkompetenz. Chancen würden auch im wirtschaftlichen Bereich liegen, etwa im Marketing und in der Werbung. Gleichzeitig bestehe eben dadurch aber auch die Gefahr, dass die die Möglichkeiten der KI missbräuchlich verwendet werden.
Die größten Bedenken sieht die Expertin allen voran im Bereich der Sicherheit (Datenschutz), bei Persönlichkeitsrechten und bei der gezielten Propaganda und Manipulation sowie in der Ethik. „Technologien kommen so schnell auf den Markt, dass die gesellschaftliche Diskussion dazu nicht Schritt halten kann“, sagt die Forscherin. Ethische Reflexion und die Umsetzung der daraus entstehenden Konsequenzen würden Zeit benötigen, die derzeit fehle. „Das sehe ich als eine der größten Herausforderungen.“