EU-Agentur fordert unabhängige Überprüfung der IT-Systeme des Grenzmanagements – EURACTIV.com

Die EU sollte einen unabhängigen Überprüfungsmechanismus einrichten, um die Umsetzung ihrer groß angelegten IT-Systeme für das Grenzmanagement zu überwachen. Dies erklärte die Agentur der Europäischen Union für Grundrechte (FRA) in ihrem Jahresbericht 2023.

Der am Donnerstag (8. Juni) veröffentlichte Bericht untersuchte die Fortschritte der EU bei der Entwicklung von drei neuen großen IT-Systemen zur Erleichterung des Grenzmanagements und zur Minderung interner Sicherheitsrisiken, teilweise durch KI-gestützte Risikoprofilierung.

Während die Rechtsinstrumente zur Einrichtung dieser drei Systeme „erhebliche Grundrechtsgarantien enthalten, auch in Bezug auf Datenschutz und Diskriminierung“, warnte die FRA, dass „die Umsetzungsphase von entscheidender Bedeutung ist, um sicherzustellen, dass diese Garantien nicht nur auf dem Papier bestehen“.

Da sich die neuen IT-Systeme noch in der Entwicklung befinden und viele Details zu ihrer Zusammenarbeit noch unklar sind, sind ihre „potenziell weitreichenden Auswirkungen auf die Grundrechte daher teilweise unbekannt“.

Interessengruppen für digitale Rechte und Forscher der Zivilgesellschaft haben die Bedenken der FRA aufgegriffen, insbesondere in Bezug auf den Betrieb des Europäischen Reiseinformations- und -genehmigungssystems (ETIAS), das voraussichtlich im Jahr 2024 eingeführt wird.

Während solche Technologien Entscheidungsprozesse beschleunigen können, erhöhen sie auch die Gefährdung von Asylbewerbern, argumentierte Derya Ozkul, Forscherin an der Universität Oxford, und fügte hinzu, dass sie „inhärente Risiken von Voreingenommenheit, Diskriminierung und potenziellen ‚Maschinenfehlern‘ bergen“.

Für von der Visumpflicht befreite Drittstaatsangehörige, die online einen Antrag auf Einreise in den Schengen-Raum stellen, prüft ETIAS die Anträge anhand von Datenbanken, um festzustellen, ob der Antragsteller ein Sicherheits-, irreguläre Migrations- oder Epidemierisiko darstellt, und verwendet dabei Algorithmen, um Vorhersagen zu treffen.

Nach Angaben der EU-Grenzagentur Frontex werden voraussichtlich 97 % der ETIAS-Anträge innerhalb von Minuten bearbeitet, während die restlichen 3 % zur Prüfung vorgemerkt werden.

Ein Beratungsgremium für Grundrechte, dem die FRA angehört, wird eine beratende Funktion bei der Tätigkeit von ETIAS haben.

„Der Rat des Gremiums wird eine Schlüsselrolle dabei spielen, das Risiko zu mindern, dass für ETIAS entwickelte Algorithmen diskriminierende Auswirkungen haben könnten“, schrieb die FRA in ihrem Bericht.

Ergänzend zur Arbeit von ETIAS wird das Europäische Strafregister-Informationssystem für Drittstaatsangehörige (ECRIS-TCN) eine zentrale Datenbank zur Identifizierung von Verurteilungen von Drittstaatsangehörigen einrichten.

Darüber hinaus wird das automatisierte Einreise-/Ausreisesystem (EES) biometrische Daten für die Einreise und Ausreise von Drittstaatsangehörigen in den Schengen-Raum sowie Einreiseverweigerungen registrieren, um die Berechnung von Kurzaufenthalten in der grenzfreien Zone zu vereinfachen und Identifizierung von Overstays.

Auswirkungen auf die Grundrechte

Allerdings wirft der Einsatz von KI in Risikomanagement- und Profiling-Systemen „ein breites Spektrum struktureller und grundrechtlicher Überlegungen auf“, betonte die Interessenvertretung für digitale Rechte, Access Now.

Solche Vorhersagetechnologien, die auf vorgegebenen Risikoindikatoren wie Nationalität, geografischem Standort, Bildungsniveau und Berufsgruppen basieren, „verstoßen naturgemäß gegen das Recht auf Nichtdiskriminierung im Migrationskontext, da sie Annahmen über den Zusammenhang zwischen personenbezogenen Daten und Merkmalen kodifizieren.“ besondere Risiken“, entsprechend Jetzt zugreifen.

Der Einsatz solcher Technologien birgt das Risiko, grundlegende Grundsätze des internationalen Flüchtlings- und Menschenrechtsrechts zu verletzen, wie beispielsweise den Grundsatz der Nichtzurückweisung – der illegalen Rückführung eines Asylbewerbers in sein Herkunftsland.

Im Jahr 2020 kündigte das britische Innenministerium an, dass es einen Algorithmus zur Kategorisierung von Visumantragstellern in einem „Ampel“-System, das teilweise auf der Nationalität basiert, abschaffen werde, im Anschluss an eine Kampagne der Gruppe für digitale Rechte Foxglove.

Wie KI-gestützte Instrumente in der Migration und Grenzkontrolle reguliert werden können, ist im Kontext von t ein heißes ThemaDas KI-Gesetz, die Flaggschiff-Gesetzgebung der EU, die künstliche Intelligenz auf der Grundlage ihres Schadenspotenzials regulieren soll.

Das Europäische Parlament wird nächste Woche über seinen Standpunkt zu dem Dossier abstimmen, und links-zentrierte Europaabgeordnete drängen auf Änderungsanträge, die den Einsatz von Algorithmen zur Risikobewertung von Migranten oder zur Vorhersage von Migrationsströmen verbieten würden.

Im Gegensatz dazu hat der EU-Ministerrat die Anforderungen an KI-Systeme, die in den Bereichen Strafverfolgung und Migrationskontrolle eingesetzt werden, gelockert.

„Das Europäische Parlament muss mit der bestmöglichen Position in die Triloge zum KI-Gesetz eintreten, um die Rechte aller Menschen innerhalb und in die EU zu schützen – unabhängig von ihrem Migrationsstatus“, sagte Caterina Rodelli, EU-Politikanalystin bei Access Now.

[Edited by Luca Bertuzzi]

Lesen Sie mehr mit EURACTIV


source site

Leave a Reply