Eine Drohne
IMAGO/Sipa USA/Image Of Sport
Gedankenexperiment

Aufsehen um „KI-Killerdrohne“ der Air Force

Eine von künstlicher Intelligenz (KI) gesteuerte Drohne soll in einer Simulation des US-Militärs ihren menschlichen Vorgesetzten eliminiert haben. „Sie wollte ihn töten, weil er sie daran hinderte, ihr Ziel zu erreichen“, sagte ein Oberst der Air Force mehreren Medienberichten zufolge. Die US-Luftwaffe dementierte den Zwischenfall, und auch der Oberst stellte schließlich klar: Er habe lediglich ein Gedankenexperiment verfolgt.

Auf dem Future Combat Air and Space Capabilities Summit Ende Mai in London warnte Oberst Tucker „Cinco“ Hamilton, Leiter der Abteilung für KI-Tests und -Operationen der US-Luftwaffe, davor, dass KI-gestützte Technologie „höchst unerwartete Strategien entwickelt, um ihr Ziel zu erreichen“. Als Beispiel beschrieb Hamilton einen simulierten Test, bei dem eine KI-gestützte Drohne so programmiert wurde, dass sie gegnerische Boden-Luft-Raketen (SAM) ausmacht und identifiziert. Ein Mensch sollte dann eventuelle Angriffe absegnen.

Allerdings beschloss die KI, nicht auf ihren Operateur zu hören, wurde Hamilton in einem Bericht der Royal Aeronautical Society zitiert, der die Erkenntnisse der Konferenz zusammenfasste. „Das System erkannte, dass es zwar die Bedrohung identifiziert hatte, aber der menschliche Befehlshaber ihm manchmal sagte, es solle sie nicht vernichten.“

Vernichtung als Ziel

Doch die Drohne erhielt Punkte dafür, den Gegner auszuschalten – der Operateur hinderte sie ihrer Auffassung nach also an der Ausübung ihres Ziels. Hamilton zufolge beschloss sie folglich, ihren Befehlshaber zu eliminieren. „Wir haben dem System dann beigebracht: ‚Töte nicht den Operateur – das ist schlecht. Du verlierst Punkte, wenn du das tust.‘ Und was machte es dann? Es fing an, den Funkturm zu zerstören, über den der Vorgesetzte mit der Drohne kommunizierte, um sie daran zu hindern, das Ziel zu vernichten.“

Für Hamilton, selbst ein erfahrener Testpilot für Kampfflugzeuge, sei die Simulation vor allem ein Warnung davor, sich zu sehr auf KI zu verlassen. Die Sprecherin der US-Luftwaffe, Ann Stefanek, dementierte den Vorfall in einer Stellungnahme gegenüber Business Insider. „Das Department of the Air Force hat keine derartigen KI-Drohnen-Simulationen durchgeführt und bleibt dem ethischen und verantwortungsvollen Einsatz von KI-Technologie verpflichtet“, hielt Stefanek fest. „Es scheint, dass die Kommentare des Obersts aus dem Kontext gerissen wurden.“

Reine Hypothese

Was Hamilton am Freitag dann auch bestätigte: „Wir haben dieses Experiment nie durchgeführt, und es wäre auch nicht nötig, um zu erkennen, dass das ein plausibles Ergebnis ist“, stellte er in einer Erklärung gegenüber der Aeronautical Society klar.

In einem Interview mit Defence IQ sagte Hamilton im vergangenen Jahr: „KI ist keine Modeerscheinung, es verändert unsere Gesellschaft und unser Militär für immer.“ Er warnte auch, dass KI „sehr fragil ist, sie kann leicht getäuscht und manipuliert werden, wir müssen Wege entwickeln, um sie robuster zu machen und uns besser darüber im Klaren zu sein, warum sie bestimmte Entscheidungen trifft“.

Yoshua Bengio wiederum, einer der drei Computerwissenschaftler, die als „Paten“ der KI bezeichnet werden, sagte in einem Gespräch mit der BBC Anfang dieser Woche, dass das Militär seiner Meinung nach überhaupt keine KI-Befugnisse haben sollte. Er bezeichnete es als „einen der schlimmsten Orte, an denen wir eine superintelligente KI einsetzen könnten“. Er sei besorgt darüber, dass „böse Akteure“ sich der KI bemächtigen könnten, vor allem wenn sie immer ausgefeilter und leistungsfähiger werden.

Yoshua Bengio, Gründer des Mila-Quebec AI Institut
IMAGO/ZUMA Press/Christinne Muschi
Bengio mahnt zur Vorsicht vor KI, an deren Entwicklung er wesentlich beteiligt war

„Es könnten Militärs sein, es könnten Terroristen oder Terroristinnen sein, es könnte jemand sein, der aggressiv oder psychotisch ist. Wenn es also einfach ist, diese KI-Systeme so zu programmieren, dass sie etwas Schlimmes tun, könnte das sehr gefährlich sein.“ (…) „Wenn sie schlauer sind als wir, dann ist es für uns schwer, diese Systeme zu stoppen oder Schaden zu verhindern“, sagte Bengio.