Holografisches männliches Gesicht als Vektorgrafik
Getty Images/Dowell
Noch „Jahrhunderte“

KI hängt fest in Genderklischees

Sie kann Texte schreiben, Bilder generieren und soll zunehmend als Entscheidungsträger fungieren: Künstliche Intelligenz (KI) gilt momentan als Zukunftshoffnung praktisch jeder Branche. Auch in heiklen Bereichen wie Medizin und auf dem Arbeitsmarkt könnte KI bald eine noch gewichtigere Rolle spielen. Doch Maschinen treffen keine neutralen Entscheidungen – und verfangen sich allzu oft in Genderklischees. Dauerhafte Lösungen sind womöglich noch „Jahrhunderte“ entfernt, heißt es von Fachleuten.

Beispiele für diesen „Gender-Bias“ gibt es bei KI zuhauf: Besonders plakativ ist das bei Werkzeugen wie Stable Diffusion, mit denen Bilder aus einfachen Texteingaben erzeugt werden können. Nicht selten entstehen aus harmlos wirkenden Begriffen hypersexualisierte Darstellungen von Frauen, die stets auf westlichen Schönheitsidealen basieren.

Und das ist tatsächlich noch eines der unbedenklicheren Beispiele – denn sobald KI zur Entscheidungsfindung herangezogen wird, können diese Vorurteile und Klischees zu spürbaren Nachteilen führen. Etwa dann, wenn die Eignung von Kandidatinnen auf dem Arbeitsmarkt bewertet werden soll oder gar in der Medizin, wenn Algorithmen bei der Diagnostik eingesetzt werden – und Fehlentscheidungen treffen.

Science-Fiction ist das schon länger keine mehr: So hat etwa Amazon jahrelang eine KI eingesetzt, um geeignete Bewerber und Bewerberinnen zu finden, anhand der Bewerbungsschreiben wurden Kandidaten gefiltert. Datengrundlage für die KI waren frühere erfolgreiche Bewerbungen – die überwiegend von Männern kamen. Das führte dazu, dass die Maschine Frauen automatisch als weniger geeignet ansah.

KI „verstärkt“ bestehende Probleme

Beobachtet wird dieses Phänomen schon seit Jahrzehnten – es hat an sich nichts mit KI zu tun und wird bei praktisch allen Entscheidungen schlagend, die automatisch auf Daten basierend getroffen werden. Doch durch KI werde das Problem „letztlich verstärkt“, so Sonja Sperber von der Wirtschaftsuniversität (WU) Wien, die auch zum Gender-Data-Gap – also zur Ungleichheit bei der Datenlage – forscht. Denn: „Nur die Daten, die in die Algorithmen reinkommen, werden dann auch letztendlich angewandt“, so die Expertin.

Der japanische Künstler „Rootport“ erstellt ein Manga mit der KI Midjourney
APA/AFP/Richard A. Brooks
KIs wie Stable Diffusion und Midjourney erzeugen echt aussehende Bilder – die sich oft an gängigen Schönheitsidealen orientieren

Hinter KI steht oft Machine Learning – ein Vorgang, bei dem – stark vereinfacht gesagt – Computer mit Daten befüllt werden und basierend darauf Entscheidungen treffen. Meistens geht es dabei um kaum vorstellbare Datenmengen: Der Bildgenerator Stable Diffusion setzt etwa auf einen Datensatz, der aus fünf Milliarden Bildern aus dem Internet und dazugehörigen Beschreibungen besteht.

Unmengen an Daten nur schwer zu kuratieren

Und das ist problematisch – denn allein schon des Umfangs wegen achten solche Datensätze nicht auf Gleichstellung und benachteiligen damit nicht nur Frauen, sondern darüber hinaus in der Regel auch unzählige Minderheiten. Unklar ist auch, wie die zugehörigen Beschreibungen entstehen, vor allem die Frage, wer zur Bewertung herangezogen wird. Sind das beispielsweise vorwiegend Männer, können sich auch dort Stereotype verfestigen – und werden der KI damit „antrainiert“.

„Wenn ich mein System nur mit männlichen Daten speise, dann kann die Anwendung natürlich nur auf männlichen Daten basieren“, so Sperber. Künstliche Intelligenz, die auf derart große Datenmengen – also Big Data – setzt, sei wie ein „Multiplikator“, der zu „einer Verstärkung dieses Bias“ führen könne.

„Neutrale“ Entscheidungen bleiben Idealvorstellung

Die Hoffnung vieler Branchen, eine Maschine würde „neutrale“ und damit faire Entscheidungen treffen, erfüllt sich dadurch nicht, denn die KI basiert letztlich auf menschlichen – und dabei häufig männlichen – Erfahrungswerten. Markus Schedl, der an der Johannes Kepler Universität Linz zu Diskriminierung durch Algorithmen von Suchmaschinen und Empfehlungssystemen forscht, erteilt der Idee an sich aber keine Abfuhr: „Grundsätzlich ist die Idee, dass maschinelle Systeme vorurteilsfreier und unvoreingenommener als Menschen urteilen, immer noch haltbar“, so Schedl.

Doch auch er sieht die Datenlage als wesentlichen Knackpunkt: „Sind diese Daten unausgewogen, so spiegelt sich das mitunter in den Schlüssen, die KIs ziehen, wider“, so der Experte. Auch er sieht real existierende Ungleichheiten dadurch sogar noch verstärkt.

„250 bis 300 Jahre“ bis zur Datengleichstellung

Auf die Frage, wie bei derart großen Datenmengen überhaupt Veränderung möglich ist, sagte Sperber: „Nur über die Zeit.“ Es gebe „Hochrechnungen, bis Männer und Frauen gleichermaßen berücksichtigt werden, bei denen wir von 250 bis 300 Jahren sprechen.“ Auch, weil zu den von der KI „gelernten“ Daten oft veraltetes Material gehört, oft aus männlichem Standpunkt verfasst. Es gehe hier tatsächlich um eine angenommene Zeitspanne „von Jahrhunderten“, so die Expertin. Unklar ist freilich, wie sich künftiger technischer Fortschritt auf diese Schätzung auswirkt.

ChatGPT auf einem Tablet
IMAGO/CHROMORANGE/Marcus Krauss
Auch Text-KIs werden mit Milliarden Texten aus allen Epochen gefüllt und sind damit Hunderte Jahre von Gleichstellung entfernt

Die Informatikerin Julia Neidhardt von der TU Wien machte zuletzt in einem Interview mit FM4 darauf aufmerksam, dass auch in den Entwicklungsteams selbst oft wenig Diversität vorzufinden ist: „Nicht nur bei den Daten, sondern auch bei den Entwicklerinnen und Entwicklern braucht es eine größere Diversität.“ Dabei gehe es nicht allein um persönliche Merkmale wie Alter und eben Gender, sondern auch um einen anderen disziplinären Hintergrund, so Neidhardt. Nicht nur die Naturwissenschaft, auch Sozial- und Geisteswissenschaft sollen an der Entwicklung beteiligt sein.

Bewusstsein schaffen als wesentlicher Faktor

Trotz wenig optimistischer Schätzungen zeigen sich Forscherinnen und Forscher aber durchaus auch für die nähere Zukunft zuversichtlich. Denn schon allein auf diese Ungleichheiten hinzuweisen würde zumindest Bewusstsein schaffen, heißt es. Und auch Regulierung könnte ein Werkzeug sein, um dem Ungleichgewicht entgegenzuwirken.

So will etwa die EU mit ihrem „AI Act“ KI künftig regulieren – auch das Thema der Datenlage spielt da hinein. Noch laufen dazu Verhandlungen, doch das Thema Bias wird regelmäßig erwähnt. Eine EU-weite Regelung könnte über Europas Grenzen hinaus Auswirkungen auf den Umgang mit KI haben.

Auch bei der Zusammenkunft der UNO-Frauenrechtskommission diese Woche war das Thema zumindest im Gespräch. Die deutsche Familienministerin Lisa Paus etwa warnte davor, dass im digitalen Wandel die „weibliche Perspektive oft fehlt“. Algorithmen würden Genderklischees fortschreiben. Sperber verweist unterdessen auch auf Beispiele abseits von KI, wo Regulierung Änderungen zur Eindämmung des „Gender-Bias“ hervorgerufen hat beziehungsweise künftig soll – etwa bei der US-Arzneimittelbehörde FDA, die zuletzt mehr Diversität in den Testphasen von Medikamenten vorschrieb.

Daten als Kostenfrage

Letztlich ist die Datenlage auch oft eine Kostenfrage: Denn neue Daten auszuwählen und einzuordnen, ist ein aufwendiger Prozess, der mit immer größer werdenden Datensätzen auch entsprechend großen finanziellen Mehraufwand bedeutet – eine Notwendigkeit, die von Unternehmen oft nicht gesehen wird, wenn schon die derzeitigen Daten „funktionieren“ – auch wenn diese einen Mann oft als prototypischen Menschen sehen, wie Sperber sagt.

In den vergangenen Monaten ist KI jedenfalls stärker denn je in den Fokus gerückt – über alle Branchengrenzen hinweg. Bis die Einsatzgebiete von KIs ausgeweitet werden, wird es damit sicher keine Jahrhunderte mehr dauern. Will man bestehende Klischees und Voreingenommenheit nicht einfach nur eins zu eins abbilden, sondern aktiv bekämpfen, wird es auf vielen Ebenen Überlegungen geben müssen, wie man diesen entgegenwirkt – idealerweise, bevor damit potenziell gravierende Entscheidungen automatisiert getroffen werden.