Überwachungskameras in Kanada
Reuters/Chris Wattie
Entwicklung gestoppt

IBM stößt Gesichtserkennungsdebatte an

Angesichts der Protestwelle gegen Rassismus in den USA ist Gesichtserkennung ein besonders heikles Thema: Zwar werden derartige Systeme längst weltweit von Polizei und Behörden eingesetzt. Doch neben Datenschutzbedenken wird solcher Software oft auch rassistische „Voreingenommenheit“ vorgeworfen. IBM kündigte nun an, aus dem Geschäft auszusteigen, und forderte eine Reform der US-Polizei.

„IBM bietet keine Gesichtserkennungs- und Analysesoftware mehr an. IBM lehnt die Verwendung von Technologien, einschließlich Gesichtserkennungstechnologie anderer Anbieter, zur Massenüberwachung, ‚Racial Profiling‘, Verletzung grundlegender Menschenrechte (…) entschieden ab“, heißt es in einem Brief von IBM-Chef Arvind Krishna an den US-Kongress am Montag.

Krishna sprach sich in dem Brief auch für eine umfassende Reform der Polizei aus, vor allem im Hinblick auf Fehlverhalten von Polizisten. Und auch Technologie soll eine Rolle bei der Exekutive spielen – doch zur Gesichtserkennung heißt es: „Wir sind überzeugt, dass jetzt der richtige Zeitpunkt ist, einen nationalen Dialog anzustoßen, ob und wie Gesichtserkennung von den heimischen Vollzugsbehörden eingesetzt werden sollte.“

Studien fanden „Voreingenommenheit“ der Software

Damit bringt der US-Technologieriese ein umstrittenes Thema auf die Tagesordnung, denn entsprechenden Gesichtserkennungssystemen wurde in der Vergangenheit oft vorgeworfen, „voreingenommen“ zu sein. Wie das Technologieportal The Verge schrieb, geht es dabei um Faktoren wie Alter und Ethnie.

Demonstranten zerstören Überwachungskamera in Mexiko
AP/Rebecca Blackwell
Gesichtserkennung – hier wird eine Kamera in Mexiko umgerissen – spielt auch bei den weltweiten Protesten eine Rolle

Das bedeutet, dass Gesichtserkennungssoftware nicht über das gesamte Spektrum verlässliche Ergebnisse liefert. Gerade bei der Polizei könnte das gravierende Folgen haben. The Verge beruft sich auf mehrere US-Studien, die die Effizienz dieser Systeme untersuchten und zu durchwachsenen Ergebnissen kamen.

Eines dieser Projekte ist „Gender Shades“ des MIT aus dem Jahr 2018, das auch das IBM-Gesichtserkennungssystem auf die Probe stellte. Das Ergebnis: Zwar arbeiten die getesteten Systeme relativ akkurat, doch die Fehlerquote bei Menschen mit dunkler Hautfarbe liegt höher als bei Menschen mit heller Haut. Auch bei den Geschlechtern gibt es Unterschiede: Männer wurden zuverlässiger als Frauen erkannt.

Gewählter Zeitpunkt wohl kein Zufall

IBM überlegte dem Nachrichtenportal Axios zufolge schon länger einen Ausstieg aus dem Geschäft mit der Gesichtserkennung. Der US-Nachrichtensender CNBC berief sich in einem Bericht auf eine anonyme Quelle, wonach IBM den Zeitpunkt für die Bekanntgabe bewusst wählte – im Hinblick auf die Rassismusdebatte und den Ruf nach einer Polizeireform.

IBM-Forschungsdirektor Arvind Krishna
APA/AFP/Getty Images/Wired/Brian Ach
IBM-Chef Krishna kündigte das Aus für Gesichtserkennungssysteme an

Sehr lukrativ dürfte das Geschäft mit der Gesichtserkennung für IBM laut CNBC nicht gewesen sein. Laut der Quelle des Senders sei die Entscheidung sowohl aus wirtschaftlichen als auch ethischen Gründen erfolgt. IBM-Chef Krishna wies jedenfalls implizit auch auf die Situation bei der Konkurrenz hin: „Verkäufer und Anwender“ von Systemen hätten die Aufgabe, diese auf Voreingenommenheit zu testen. Laut The Verge ist Amazon einer der wenigen Großkonzerne, der seine Gesichtserkennungssysteme an die Exekutive verkauft.

Datensätze als größte Herausforderung

Gesichtserkennung ist ein Teilbereich der künstlichen Intelligenz – dabei „denken“ Computer aber nicht wirklich selbstständig, sondern handeln vereinfacht gesagt aufgrund antrainierter Muster. Weil das meiste Trainingsmaterial keine ausreichende Vielfalt vorweist, werden Männer mit weißer Hautfarbe von den Maschinen besser erkannt. IBM selbst versuchte in der Vergangenheit, das Problem dieser „Voreingenommenheit“ zu lösen, so The Verge. Der Konzern stellte deshalb 2018 einen Datensatz zur Verfügung, in dem sämtliche Hautfarben, Altersgruppen und Geschlechter gleichmäßig vertreten waren.

Die Bilder, mit denen Gesichtserkennungssysteme trainiert werden, sind jedoch ebenfalls kein unumstrittenes Thema: Oft werden diese aus öffentlich zugänglichen Quellen bezogen. Anfang des Jahres gab es einen Skandal um die Firma Clearview AI, die drei Milliarden Bilder aus Sozialen Netzwerken bezog, um Gesichtserkennungssysteme zu befüllen. Konzerne und Behörden nutzten diese Datensätze – mittlerweile ist das Unternehmen laut The Verge mit mehreren Unterlassungsklagen konfrontiert. Und auch IBM kam 2019 in die Kritik, als der Konzern eine Million Bilder aus dem Bilderdienst Flickr zu Trainingszwecken verwendete.

Maskenselfies als Trainingsmaterial

Mit der Coronavirus-Krise ist das Thema neu aufgeflammt: Denn auch auf Menschen, die Gesichtsmasken tragen, sind die Systeme nicht spezialisiert. Dazu stellten Forscherinnen und Forscher im April laut dem Technologieportal CNET einen Datensatz mit Hunderten Maskenselfies zur Verfügung – die Bilder stammen hauptsächlich von Instagram, gefragt wurden die Betroffenen laut CNET nicht. Nicht zuletzt deshalb wird Gesichtserkennung wohl auch künftig ein Streitthema – nicht nur in den USA – bleiben. In Österreich hieß es im Februar vonseiten der Polizei, dass man sich beim Thema Gesichtserkennung noch in der „Probephase“ befinde.