Menschen gehen auf Straße mit leuchtender Zahlen-Illustration
ORF.at/Christian Öser; Getty Images/Berkah (Montage)
Blick in „Schwarze Box“

Weg zum Geheimrezept von Facebook & Co.

Die Algorithmen der Netzgiganten, egal ob Facebook, Google oder Twitter, empfehlen Freunde, Produkte und Nachrichten und haben einen erheblichen Einfluss auf das tägliche Leben. Bisher galten sie als gut gehütetes Geheimnis. Geht es nach der EU, sollen die Kriterien für das Zustandekommen der Empfehlungen künftig einfach und verständlich erklärt werden. In der Praxis dürfte das jedoch kein leichtes Unterfangen werden.

Aufmerksamkeit ist im Internet ein kostbares Gut. Plattformen, allen voran soziale Netzwerke, wollen ihre Nutzerinnen und Nutzer möglichst dauerhaft binden und greifen dazu auch in die technische Trickkiste. Egal ob TikTok, Twitter oder Instagram: Bei jedem Besuch gibt es neue Postings zu entdecken und bewerten.

Verantwortlich dafür ist ein Algorithmus, also praktisch eine Handlungsanweisung für Computer, wie mit den Vorlieben der User umgegangen werden soll. Das „Like“ in Form des Daumen-nach-oben-Knopfes ist dabei aber längst nicht der einzige Faktor für das Zustandekommen der Empfehlungen, wie die Algorithmenexpertin Julia Neidhardt von der TU Wien im Gespräch mit ORF.at erklärt.

Systeme, die alles können

In den letzten Jahren hätten sich derartige Empfehlungsalgorithmen stark weiterentwickelt. Moderne Systeme „können – überspitzt gesagt – alles“, so die Informatikerin, und sie entscheiden aufgrund einer Vielzahl an Faktoren. Klicks, Freundinnen und Freunde, der Ort, technische Details wie Handymodell und -betriebssystem und selbst das aktuelle Wetter würden neben unzähligen weiteren Variablen eine Rolle spielen, so Neidhardt.

Mann mit Smartphone
Getty Images/Katarína Mittáková/Eyeem
Nach welchen Kriterien Plattformen Postings empfehlen, soll nach EU-Plänen künftig genau erklärt werden

Anders als vor 15 Jahren sind soziale Netzwerke heute aber zentraler Teil des Alltags – egal ob bei Wahlen, in Krisen und bei der Meinungsbildung – und sind damit hochpolitisch. Umso skeptischer sind Fachleute, dass die Macht über diese „schwarzen Boxen“, in die kaum jemand Einblick hat, vor allem in der Hand der ganz großen Konzerne im Netz liegt.

Große Pläne der EU

Die EU will das ändern: Im „Digital Services Act“, der die Macht der großen Netzkonzerne regulieren soll, sind auch Vorschriften für Algorithmen enthalten. In einem erklärenden Absatz des Entwurfs, der zuletzt Ende April eine weitere große Hürde genommen hat, heißt es, dass „sehr große Onlineplattformen sicherstellen“ sollen, dass Nutzer „angemessen informiert werden“. Weiters sollen „die wichtigsten Parameter für Empfehlungssysteme auf leicht verständliche Weise“ dargestellt werden, damit klar ist, wie Informationen für sie priorisiert werden.

Technische Details, nicht ganz unüblich in derartigen Vorschlägen auf EU-Ebene, werden ausgespart. Das Echo fiel bei Datenschützerinnen und Datenschützern zwar überwiegend positiv aus. Doch die TU-Expertin Neidhardt sieht auch Einschränkungen: „Was es nicht geben wird, ist eine genaue Erklärung, warum man in einem bestimmten Moment genau diese eine Sache angezeigt bekommt.“

Neidhardt und auch John Albert von der NGO AlgorithmWatch verweisen gegenüber ORF.at auf ähnliche Erklärungen bei Werbung auf Facebook: Schon jetzt kann dort angezeigt werden, wieso eine bestimmte Werbeeinblendung angezeigt wird. Darin zu lesen sind dann Kriterien wie „Person, weiblich, lebt in Österreich, interessiert sich für Politik“. Für Postings gibt es diese Funktion nicht – doch die Vorstöße der EU wollen zumindest deutlich mehr Transparenz in die Empfehlungen bringen.

Auch Entwickler selbst oft ratlos

Das stellt aber auch die Konzerne selbst vor ein großes Problem: Denn oft ist es auch für die Entwickler selbst kaum oder gar nicht möglich, die Entscheidung eines Algorithmus nachzuvollziehen. Albert verweist unter anderem auf ein entsprechendes Projekt von Twitter aus dem Vorjahr, bei dem von den eigenen Mitarbeitern untersucht wurde, ob der Algorithmus politische Inhalte auf Twitter verstärken würde – mit dem Ergebnis, dass es der Fall war.

Das liegt vor allem auch an den rasanten Fortschritten auf dem Gebiet der künstlichen Intelligenz (KI), so Neidhardt. Die Algorithmen entwickeln dadurch eine gewisse Selbstständigkeit – erst wird ihnen ein Verhalten antrainiert, dann obliegt es der Maschine, zu entscheiden – je mehr Faktoren da hineinspielen, desto undurchsichtiger die Entscheidungsgrundlage.

Doch durch die Entwicklungen in den vergangenen Jahren vervielfachen sich diese Faktoren – auch weil die Systeme immer „schlauer“ werden. Musste man vor einigen Jahren noch sämtliche Daten aufwendig vorbereiten, um auf deren Basis Empfehlungen auszugeben, würden moderne Systeme, die unter anderem auf „Deep Learning“ setzen, eine Vielzahl an Inhalten direkt verarbeiten und gewichten können, so Neidhardt. Auf diesem Weg etwa Empfindungen aus Text zu extrahieren, also praktisch „herauszulesen“, sei zum Beispiel kein großes Problem mehr, so die Expertin.

Ungleichgewicht zwischen Konzernen und Öffentlichkeit

Albert weist unterdessen darauf hin, dass Konzerne aber durchaus bewusste Entscheidungen beim Entwurf ihrer Algorithmen treffen – und diese Entscheidungen hätten „messbare Auswirkungen“, wie wir mit Information und nicht zuletzt miteinander umgehen. Es gebe eine „Macht- und Informationsasymmetrie“ zwischen Plattformen und der Öffentlichkeit, was die Funktionsweise der Algorithmen angehe, so Albert.

Er verweist unter anderem auf die „Facebook Files“, die gezeigt hätten, dass Facebook sehr wohl bewusst war, dass das eigene überarbeitete System Desinformation und gewalttätige Inhalte verstärkt empfahl. Die Konzernführung sprach sich jedoch gegen Änderungen an dem Algorithmus aus – nicht zuletzt weil die Userbeteiligung zunahm.

EU-Flaggen vor EU-Kommission in Brüssel
Reuters/Yves Herman
Mit Brüssels Vorstoß wird das Silicon Valley unter Druck gesetzt

Konzerne unterbinden Nachforschungen noch

Bisher müssen entsprechende Nachforschungen meist noch ohne Hilfe der großen Konzerne durchgeführt werden – womit nur ein oberflächlicher Einblick in die Reihungsmechanismen von Facebook und Co. möglich ist, wenn überhaupt. Denn oft wird behauptet, dass derartige Nachforschungen gegen die Nutzungsbedingungen der Plattformen verstoßen – ein AlgorithmWatch-Projekt zur Erforschung von Instagram, das auf Datenspenden von Usern setzte, wurde deshalb gestoppt. Ein ähnliches Projekt von New Yorker Forschern auf Facebook endete mit Sperren für die Accounts der Fachleute.

Auch das soll sich mit dem „Digital Services Act“ ändern – unabhängige Überprüfungen von Algorithmen sind neben der ausführlichen Auskunft über deren Kriterien vorgesehen. Und: „Die Plattformen werden gezwungen sein, die tatsächlichen und möglichen Risiken zu untersuchen, die ihre Dienste für die Öffentlichkeit darstellen“, so Albert.

Doch das Analysieren existierender Algorithmen geht vor allem Datenschützern nicht weit genug. Stattdessen wird auch über Alternativen zu den Algorithmen der Netzriesen diskutiert, zuletzt etwa bei der CPDP-Datenschutzkonferenz in Brüssel Ende Mai.

Fachleute fordern Alternativen zum eigenen Algorithmus

In einer Diskussion von Fachleuten dazu kritisierte Katarzyna Szymielewicz von der polnischen NGO Panoptykon Foundation die momentane Situation: „Wir können keine andere Schnittstelle oder einen anderen Algorithmus wählen“, stattdessen würden große Plattformen unser Onlineverhalten „beobachten“ und dann diese „Beobachtungen analysieren“.

Dadurch, dass sie „verstehen, wer wir sind“, verfügten sie über „analytische Macht“. Das Verständnis von wunden Punkten und Trends zementiere ihre Macht nur noch weiter und hindere Konkurrenten daran, ähnlich attraktive Dienste anzubieten. Ähnlich sieht das auch die Datenschützerin Raegan MacDonald, die früher für den Firefox-Hersteller Mozilla arbeitete: „Jene mit der größten Macht ziehen auch den größten Nutzen daraus“, so die Expertin.

Expertin: Neue Googles und Amazons lösen Problem nicht

Szymielewicz verweist darauf, dass es hier nicht nur um „Dominanz“, sondern um „Missbrauch von Menschen“ gehe. Mehr Konzerne, die auf dem gleichen Geschäftsmodell wie Meta, Google und Amazon aufbauen, würden das grundlegende Problem nicht lösen. Statt alles aus einer Hand anzubieten, sollen sich Nutzerinnen und Nutzer selbst aussuchen können, wer etwa den Algorithmus oder die Oberfläche zur Verfügung stellt.

Damit soll es dann möglich sein, statt der Empfehlungen durch Facebook eine Alternative zu wählen. Denkbar, so Szymielewicz, sei sogar, dass etwa eine NGO einen entsprechenden Algorithmus bereitstelle. Damit würde plötzlich überhaupt kein Geschäft mehr hinter dem Algorithmus stehen. Dem Datenhunger der großen Konzerne, der diese wiederum weiter wachsen lässt, könnte damit umgangen werden, so zumindest die Theorie der Fachleute. Das wäre für viele Konzerne aber wohl auch mit einer Zerschlagung gleichzusetzen – dass derartige Regeln je durchgesetzt werden können, darf bezweifelt werden.

„Digital Services Act“ erster Schritt einer großen Aufgabe

Der ambitionierte Plan der EU-Kommission soll nun aber in einem ersten Schritt den Internetnutzerinnen und -nutzern mehr Transparenz als bisher ermöglichen. Um einen Teil der Macht von den Netzriesen zurück in die Hand der Nutzerinnen und Nutzer zu legen, wird es aber nicht reichen, ihnen zu erklären, wie Empfehlungen zustandekommen.

Es wird nicht weniger als ein komplettes, dauerhaftes Öffnen der „Schwarzen Box“, eines bisher gut gehüteten Industriegeheimnisses, brauchen, um jederzeit nachprüfen zu können, dass der Algorithmus immer noch das tut, wofür er ursprünglich konzipiert wurde. Bis Brüssel den „Digital Services Act“ endgültig auf den Weg bringt, ist wohl noch mit viel Widerstand aus dem Silicon Valley zu rechnen.