Themenüberblick

Auch staatlicher Missbrauch befürchtet

Ein neuer Bericht, der unter anderem von der Universität Oxford und der Electronic Frontier Foundation (EFF) herausgegeben worden ist, warnt vor dem Missbrauch künstlicher Intelligenz (KI). Nicht nur Kriminelle, auch Staaten könnten die rasant fortschreitenden Entwicklungen auf dem Gebiet für ihre Zwecke nützen, heißt es in der am Mittwoch veröffentlichten Analyse.

Zur Veranschaulichung stellen die Experten in dem Bericht verschiedene Bedrohungsszenarien vor. In einem davon wird etwa ein modifizierter Putzroboter in ein Ministerium eingeschleust. Der Roboter erkennt den Minister anhand seines Aussehens und detoniert einen in dem Gerät angebrachten Sprengsatz.

Was zunächst weit hergeholt klingen mag, ist dem Bericht zufolge bereits jetzt oder zumindest demnächst möglich. Die in den Beispielen eingesetzten Technologien sind teilweise marktreif, teilweise als Entwicklung der kommenden fünf Jahre plausibel, wie es darin heißt.

Eine weitere mögliche Anwendung künstlicher Intelligenz sei die Automatisierung personalisierter „Phishing“-Angriffe im Netz. In Zukunft könnten entsprechende Mails, mit denen versucht wird, an persönliche Daten der Adressaten zu gelangen, nur noch schwer als Angriff erkannt werden.

Entwicklungen könnten Schaden anrichten

Während die Szenarien ein düsteres Bild der unmittelbaren Zukunft zeichnen, geht es den Experten nicht darum, Panik zu verbreiten, sondern auf stark veränderte Bedrohungen hinzuweisen, die durch die Technologie ermöglicht wird. Angesprochen werden darin Politiker und andere Entscheidungsträger ebenso wie Forscher.

Künstliche Intelligenz sei dabei stets eine Technologie mit zwei möglichen Einsatzzwecken: Da die Anwendungsgebiete - wie etwa Gesichtserkennung - nicht wertend per se seien, könnten sie auch Kriminellen dienen. Aktuell würde sich das bereits bei der Suche nach Softwarefehlern zeigen. Hacker können ihre Funde den Herstellern mitteilen, um Lücken zu schließen, oder sie selbst nützen (oder an andere verkaufen), um Schaden anzurichten.

Überwachung und „Fake News“

Möglichen Missbrauch ortet der Bericht aber nicht nur bei Terroristen und in der organisierten Kriminalität, sondern auch in der Politik. Bereits jetzt können skrupellose oder autokratische Staats- und Regierungschefs die durch Überwachungssysteme gesammelten Datenmengen nutzen, um ihr eigenes Volk auszuspionieren.

Durch die ständig steigende Rechenleistung sei es möglich, Bild und Ton schneller automatisiert zu verarbeiten und damit die Überwachung auf die gesamte Bevölkerung auszuweiten. Zusätzlich könne mit Hilfe billiger, aber äußerst glaubwürdig gefälschter Videos die öffentliche Meinung manipuliert werden.

Dass das bereits jetzt möglich ist, zeigten im vergangenen Jahr Forscher der Universität Washington. Sie fälschten ein Video des ehemaligen US-Präsidenten Barack Obama, indem Mundbewegungen und Stimme per Software erzeugt wurden. Das Ergebnis ist zumindest auf den ersten Blick nicht von einem authentischen Video zu unterscheiden.

Hohe Effizienz bei Lösungen

Die Autoren des Berichts zählen zahlreiche Vorteile künstlicher Intelligenz auf, die bei einem Missbrauch verheerende Auswirkungen haben könnten. So sei KI etwa „effizient und skalierbar“: Nachdem ein Arbeitsprozess „trainiert“ wird - zum Beispiel für die Erkennung von Gesichtern - können Systeme verhältnismäßig kostengünstig erweitert werden. Damit steigt die Leistungsfähigkeit, ohne zusätzliche menschliche Arbeitskräfte zu benötigen.

Appell der Autoren an die Politik

"Ob künstliche Intelligenz langfristig als hilfreich oder schädlich erachtet werde, sei „ein Produkt dessen, was die Menschen entscheiden zu tun“, sagte Miles Brundage, ein Koautor des Berichts. Es sei „beunruhigend aber notwendig“, sich Gedanken zu machen, wie sich „übermenschliches“ Hacken und Überwachung auswirken.

Sean O hEigeartaigh, der ebenfalls an der Analyse beteiligt war, sagte gegenüber der BBC: „Wir leben in einer Welt, in der sich der Missbrauch von KI als tägliche Gefahr auswirken könnte. Wir müssen uns dieser Probleme annehmen - weil das Risiko real ist. Entscheidungen müssen jetzt getroffen werden. Unser Bericht ist ein Appell an Regierungen, Institutionen und Einzelpersonen, zu handeln.“

Links: