Vom Selfie zum Kunstwerk – mit jener simplen Formel eroberte die seit 2018 existierende Bildbearbeitungsapp Lensa aus dem Hause Prisma Labs Instagram, TikTok und Co. Konkret geht es um das Feature „Magic Avatars“, das für ein paar Euro und mithilfe einiger Selfies Avatare bzw. Porträts erstellt. Das Verkaufsargument? Die Porträts kommen in unterschiedlichen Stilen wie Anime, Cartoon oder Aquarell daher. Auch Kategorien wie „Superheld“, „Cyborg“ und „Märchenprinzessin“ existieren.
Hinter den digitalen Kunstwerken verbirgt sich ein Algorithmus des KI-Bildgenerators Stable Diffusion, der mit unzähligen im Netz vorhandenen Bildern trainiert wurde und deren Merkmale erlernte. Wie DALL-E 2 und Midjourney zählt Stable Diffusion zu jenen Bildgeneratoren, die zuletzt im Zentrum von Debatten zu KI-Kunst standen. Letztere ist es nun also auch, der Lensa zum Status „Internetphänomen“ verholfen hat. Die App befindet sich an der Spitze von Play Store und App Store.
Kritik an sexualisierten Darstellungen
Beinahe zeitgleich mit dem Hype um die App wurde auch recht breit gefächerte Kritik laut. Vielen Frauen missfällt etwa, dass ihre digitalen Porträts sexualisiert werden. Im Vergleich mit Männern sei das auch viel häufiger der Fall, so der Tenor. „Geht es nur mir so oder reproduzieren diese KI-Selfie-Generatoren-Apps Misogynie?“, schrieb die Feministin Brandee Barker unter mehrere Bilder, die sie bei Twitter teilte. Darauf ist Barker mehrmals beinahe nackt und mit üppiger (und prominent zur Schau gestellter) Oberweite zu sehen.
Auch viele andere Nutzerinnen berichteten online von „großen Brüsten“, die ihnen die App zu ihrem Erstaunen auf den Leib „gezaubert“ hat. Experimente von „Guardian“, TechCrunch und der Futurezone kamen zu einem ähnlichen Ergebnis.
Die Futurezone-Journalistin Barbara Wimmer kritisierte, dass die App sie in lasziver Pose und kaum bekleidet darstellt. Vereinzelt sei ihr Kopf abgeschnitten und nur die Brust ins Rampenlicht gerückt worden. Die Journalistin gibt an, die App allerdings nur mit Bildern gefüttert zu haben, die sie in Hoodie und T-Shirt oder beim Wandern zeigen.
Wirbel um pornografische Inhalte
Es sei viel zu einfach, die Plattform dafür zu verwenden, um „nicht einvernehmlichen Soft Porn“ zu erstellen, schrieb TechCrunch. Würden Userinnen und User Bilder hochladen, auf denen das Gesicht einer Person mittels Photoshop auf den nackten Körper einer anderen gesetzt wurde, dann spiele die App „verrückt“ und setze den „Not Safe For Work“-Filter („Nicht zur Ansicht bzw. Verwendung am Arbeitsplatz geeignet“, Anm.) außer Kraft, berichtet das Magazin weiter. Das bedeute, dass die App dafür genutzt werden kann, um ohne Wissen oder Zustimmung der betreffenden Personen pornografische Inhalte zu generieren.
Und das, obwohl die App in ihren Nutzungsbedingungen Nacktbilder (sowie Aufnahmen von Kindern) verbietet. Ein Selbstversuch der „Wired“-Journalistin Olivia Snow zeigt auf, wie weit User mit Lensa überhaupt gehen können. Nachdem sie die App mit einem Potpourri aus Kindheitsfotos und Selfies versorgt hatte, wurden ihr Aufnahmen ausgespuckt, die ein kindliches bis jugendliches Gesicht auf eine frauliche Figur in lasziven Posen setzte. „Die Ergebnisse waren erschreckend“, bringt es Snow auf den Punkt.
Prisma Labs verweist auf gesellschaftliche Vorurteile
Wie Prisma Labs zu all dem steht? „Bitte beachte, dass gelegentliche Sexualisierung in allen Genderkategorien beobachtet wird, wenngleich auch auf unterschiedliche Weise. Das Stable-Diffusion-Programm wurde auf ungefilterte Internetinhalte trainiert. Damit spiegelt es auch Vorurteile wider, die Menschen in die Bilder, die sie produzieren, einfließen lassen. Urheber erkennen die Möglichkeit gesellschaftlicher Vorurteile an. Wir auch“, heißt es in den FAQs, die das Unternehmen dem „Guardian“ zuschickte.
Der „Guardian“ zitiert weiter: In den FAQs stehe, dass die NSFW-Filter darauf abzielen, Vorurteile zu reduzieren. „Leider haben all diese Bemühungen KI noch nicht komplett vor voreingenommenem Inhalt und expliziten Bildern bewahrt. Daher stellen wir klar, dass das Produkt nicht für die Nutzung von Minderjährigen vorgesehen ist und warnen Nutzer vor möglichen Risiken. Wir schrecken auch davor zurück, solche Bilder als Werbematerial zu nutzen.“
Westliche Schönheitsideale im Rampenlicht
Doch da endet die Kritik an der beliebten Anwendung nicht: „Lensa schiebt wirklich Überstunden, damit mich KI trotz wirklich glorreichem Doppelkinns in eine dünne Person verwandelt. Was für ein Mist“, schreibt die Autorin Aubrey Gordon bei Instagram. Beobachtungen einiger User zufolge würden die Kunstwerke der App vor allem auf westlichen Schönheitsidealen – schlank mit ebenmäßiger Haut, großen Augen und glattem Haar – aufbauen.
Insbesondere Menschen asiatischer oder afrikanischer Abstammung stößt das sauer auf. Lensa mache deutlich, dass „selbst künstliche Intelligenz rassistisch“ sei, weil es denke, „dass alle Asiaten gleich aussehen“, kritisierte eine Userin bei Twitter. „Warum spuckt mir diese Artificial-Intelligence-App so lustige, fiktive, ‚racially ambigious‘ historische Figuren aus?!“, fragte sich auch der Journalist Malcolm Ohanwe bei Instagram.
Sorgen um Datenschutz und Urheberschaft
Kunstschaffende verwiesen zudem darauf, dass die App ihre Werke stehle, um darauf basierend digitale Kunstwerke zu erschaffen. (Monetäre) Anerkennung käme ihnen dafür aber nicht zu. Die Debatte über Urheberschaft und Urheberrechtsverletzungen nahm mit Aufkommen der KI-Kunst schon vor einiger Zeit Fahrt auf und will seither nicht abreißen.
Und auch vor Bedenken rund um Datenschutz ist die App nicht gefeit. Immerhin werden alle hochgeladenen Bilder an die Unternehmensserver übertragen. Den Datenschutzbedingungen zufolge werden die Aufnahmen zwar unmittelbar nach Erstellung der digitalen Kunstwerke gelöscht und nicht an Dritte verkauft, sie werden aber sehr wohl zum Training des Algorithmus genützt. „Zeit Online“ verweist zugleich aber auch auf die Geschäftsbedingungen von Prisma Labs, wonach das Unternehmen die Nutzerinhalte reproduzieren und bearbeiten dürfe.