Mehrere Drohnen in der Luft
Getty Images/iStockphoto/Mediaproduction
Schutz oder Schrecken?

Künstliche Intelligenz an Europas Grenzen

Von autonomen Drohnen bis hin zur Spracherkennungssoftware – auch im Migrations- und Asylbereich kommt künstliche Intelligenz (KI) zum Einsatz. So sollen neue Technologien etwa helfen, Grenzen zu sichern und Lügen im Asylprozess zu enttarnen. Das gefährde Grundrechte, sagen NGOs. In der KI-Verordnung, die derzeit auf EU-Ebene ausverhandelt wird, orten sie eine einzigartige Chance.

„Ich denke, das KI-Gesetz kann den Status quo verbessern“, sagt Alyna Smith vom NGO-Netzwerk PICUM gegenüber ORF.at. Brüssel will mit dem Gesetz eine weltweite Vorreiterrolle bei der Regulierung von KI einnehmen – insbesondere mit Blick auf deren Risiken. Künstliche Intelligenz werde bereits in vielen Bereichen der Einwanderungskontrolle eingesetzt, und das vielfach auf problematische Weise, so Smith. „Das Ausmaß und der Umfang davon sind beinahe unfassbar“, sagt sie.

Tatsächlich wird in der EU zunehmend mit KI-Systemen experimentiert. Die EU-Außengrenzen werden zum Teil mit Drohnen überwacht, die dank KI immer autonomer werden. Prognosesysteme wie das EUMigraTool sollen wiederum genutzt werden, um Migrationsströme vorherzusagen. Die Technologien könnten im besten Fall helfen, Such- und Rettungsaktionen zu unterstützen, sagen Aktivisten. Im schlechtesten Fall würden sie für Pushbacks missbraucht.

Luftaufnahme eines Flüchtlingsboots in Frankreich
Reuters/Pascal Rossignol
Mittels KI können Migrationsströme vorhergesagt, sowie Land- und Seegrenzen überwacht werden

Von Lügendetektoren bis zu Spracherkennung

KI-Polygrafen wurden an den Grenzen Ungarns, Griechenlands und Litauens bereits eingesetzt, um Lügen zu enttarnen. Die Idee: Avatare befragen Einreisende und überprüfen deren Glaubwürdigkeit aufgrund von Augen- und Mundbewegungen. Auch auf einem rumänischen Flughafen kam so ein KI-Lügendetektor zum Einsatz – dessen Treffsicherheit sei „zweifelhaft“, hieß es in einer Einschätzung der EU-Grenzschutzbehörde Frontex von 2020.

Pushbacks

Pushbacks sind illegale Zurückweisungen von Geflüchteten. Sie sind völkerrechtlich illegal, da sie gegen das Recht auf Asyl und gegen den Grundsatz verstoßen, wonach niemand an einen Ort zurückgeschickt werden darf, an dem ihm Verfolgung, Folter oder Lebensgefahr droht.

In einer Analyse mehrerer Organisationen, darunter der Dachverband European Digital Rights (EDRi) und PICUM, ist die Rede davon, dass KI-Polygrafen gerade bei Frauen und Menschen mit dunklerer Haut fehleranfälliger seien. Längst ist bekannt, dass sich Maschinen allzu oft in Vorurteilen verfangen und Diskriminierungen fortschreiben. KI basiert letztlich auf menschlichen Erfahrungswerten.

Und auch im Asylprozess wird auf künstliche Intelligenz vertraut: In Deutschland wird eine Spracherkennungssoftware eingesetzt, die Sprachproben von Asylwerbern analysiert und deren Herkunftsregion ausfindig machen soll. Konkret geht es also um die Frage: Stimmen die Angaben der Schutzsuchenden oder nicht? An einem von Deutschland initiierten Pilotprojekt war auch Österreich beteiligt – „als Beobachter“, wie es aus dem Innenministerium heißt. „In Österreich werden derzeit keine Technologien zur Sprachanalyse im Asylverfahren eingesetzt“, so der Sprecher auf ORF.at-Anfrage.

NGOs warnen vor Grundrechtsverletzungen

NGOs warnen schon lange vor dem Einsatz derartiger Systeme und befürchten Menschenrechtsverletzungen. Tatsächlich könnte der „AI Act“ der EU Abhilfe schaffen. Welche Technologien in der EU in Zukunft verboten sein werden und für welche es strengere Kriterien zu erfüllen gilt, darüber dürfte es noch heuer Klarheit geben.

Zur Erinnerung: Seit 2021 wird auf EU-Ebene an der KI-Verordnung gefeilt. Der Verordnungsentwurf der EU-Kommission unterteilt Anwendungsbereiche künstlicher Intelligenz in mehrere Risikostufen: in minimales, begrenztes, hohes und inakzeptables Risiko.

Dazu muss das Gesetz aber mühsame Verhandlungen durchlaufen. Erst kürzlich nahm es eine wichtige Hürde in den EU-Parlamentsausschüssen für Bürgerrechte und Verbraucherschutz. Im Juni soll das Plenum des EU-Parlaments über seine Verhandlungsposition abstimmen. Danach können die Verhandlungen zwischen Parlament, Kommission und EU-Staaten starten.

Polizist startet eine Überwachungsdrone
picturedesk.com/AFP/Geoff Caddick
KI soll Drohnen autonomer machen und die Grenzüberwachung automatisieren

Heikle Schlupflöcher

Die Positionen von Parlament und Rat lägen weit auseinander, sagt Mher Hakobyan von Amnesty International zu ORF.at. Während der Rat mitunter für mehr Freiheiten in puncto „nationale Sicherheit“ plädiert und damit den willkürlichen Einsatz gefährlichster Technologien durch Staaten wie Ungarn ermöglichen könnte, will das Parlament Ausnahmen auf eine militärische Nutzung beschränken.

Konkret befürworteten die zuständigen Ausschüsse im Parlament jüngst Verbote von Systemen zur Erkennung von Emotionen u. a. beim Grenzschutz (Stichwort Lügendetektoren), von biometrischen Kategorisierungssystemen wie Spracherkennungssoftware sowie von prädiktiven Polizeisystemen, die von NGOs vielfach als diskriminierend angesehen werden.

Weiters sprachen sich die EU-Parlamentarier dafür aus, Überwachungstechnologien wie Drohnen oder Wärmebildkameras, Prognosetools zur Vorhersage von Migrationsströmen und tragbare Geräte, mit denen Gesichter oder Fingerabdrücke gescannt werden können, als Hochrisikosysteme zu kategorisieren. Das bedeutet, Anbieter jener Systeme müssen diese einer Grundrechtsprüfung unterziehen. Behörden, die jene Systeme nutzen, müssen das wiederum samt Risikoanalyse offenlegen.

Amnesty-Experte warnt vor Pushback-Risiko

Die eher strikte Linie des Parlaments wurde von dem Bündnis „#ProtectNotSurveil“ (deutsch: schützen, nicht überwachen, Anm.), welchem PICUM, Amnesty International und andere Organisationen angehören, über weite Teile begrüßt. Dennoch orten die NGOs Verbesserungsbedarf.

Einerseits wird ein Verbot von Prognosetechnologien gefordert, sofern absehbar ist, dass KI-Systeme genützt werden, um „Migration zu unterbinden, einzudämmen und zu verhindern“, so Hakobyan – die Rede ist von Pushbacks. Jene Systeme könnten eine Gefahr für das in der Genfer Flüchtlingskonvention festgehaltene Prinzip der Nichtzurückweisung (Non-Refoulement-Prinzip) darstellen, sagt er. Diesem zufolge haben Geflüchtete an der Grenze das Recht auf Einreise und Zugang zu rechtsstaatlichen Verfahren, also einem Asylverfahren.

Diskriminierung bei Visaverfahren?

Andererseits fordern Amnesty International, PICUM und Co. ein Verbot automatisierter Risikobewertungs- und Profilingsysteme. In Großbritannien und den Niederlanden kamen jene Systeme in der Vergangenheit etwa bei der Bearbeitung von Visabewerbungen zum Einsatz. Im Fall der Niederlande wurde das erst kürzlich von der Zeitung „NRC Handelsblad“ und dem Journalistenkollektiv Lighthouse Reports aufgedeckt.

„Bewirbt sich eine Person für ein Visum, so wird automatisch bewertet, ob diese Person eine Gefahr für die nationale Sicherheit darstellt“, erklärt Hakobyan. In die Beurteilung flössen etwa Alter, Geschlecht und Nationalität der Person ein. Das Recht auf Nichtdiskriminierung, Privatsphäre und Datenschutz sieht er darin ebenso gefährdet wie das Recht auf Freiheit und Sicherheit.

Warnung vor fragmentierter Gesetzgebung

Amnesty International und PICUM warnen zudem vor einer Änderung bei der Hochrisikokategorisierung, mit der die Behörden der jeweiligen Mitgliedsländer bei der Regulierung eine gewichtigere Rolle spielen könnten. Es bestehe die Gefahr, dass es zu einer Fragmentierung der Regeln je nach EU-Staat kommen könnte, meint Hakobyan.

Nicht zuletzt fordern die NGOs, dass die vielen umfangreichen Datenbanken, die in der EU im Migrationskontext zur Anwendung kommen und bei der Verarbeitung der Daten teils auf künstliche Intelligenz angewiesen sind, im „AI Act“ berücksichtigt werden. Eine vierjährige Übergangsperiode, die vom Parlament ins Spiel gebracht wurde, lehnen sie ab.

„Doppelmoral“ der EU?

Der „AI Act“ müsse einen „einen einheitlichen Schutzstandard für alle bieten“, fordert Smith. „Was uns absolut beunruhigt, ist die Doppelmoral in Bezug auf die Anwendbarkeit der EU-eigenen Standards auf Menschen mit der Begründung, dass es hier um Sicherheit geht, dass es hier um Strafrecht geht“, sagt Smith. Der unterschiedliche Umgang mit Menschen basierend auf deren Migrationsstatus sei „unbegründet“ und würde gegen die Menschenrechtsverpflichtungen der EU verstoßen, sagt Hakobyan.

Das Vorhaben ist jedenfalls alles andere als in Stein gemeißelt. Mit Blick auf die bevorstehenden Trilog-Verhandlungen zeigen sich Smith und Hakobyan insbesondere über die unterschiedlichen Positionen der EU-Mitgliedsstaaten besorgt. „Wir müssen weiterhin Druck machen und vorsichtig sein“, sagt Hakobyan. „Es kann sich noch viel ändern.“