Führende Europaabgeordnete überarbeiten Hochrisikoklassifizierung und ignorieren negative Rechtsmeinungen – EURACTIV.com

Die EU-Gesetzgeber, die federführend an der Arbeit am EU-KI-Gesetz beteiligt sind, haben eine neue Version der Bestimmungen zur Klassifizierung von KI-Systemen mit hohem Risiko in Umlauf gebracht und dabei trotz einer gegenteiligen Rechtsmeinung den filterbasierten Ansatz beibehalten.

Das KI-Gesetz ist ein wegweisendes EU-Gesetz zur Regulierung künstlicher Intelligenz nach einem risikobasierten Ansatz. Im Mittelpunkt des Gesetzes steht eine strengere Regelung für KI-Systeme, die ein erhebliches Risiko für die Gesundheit, Sicherheit und Grundrechte der Menschen darstellen und strenge Anforderungen an Risikomanagement und Datenverwaltung erfüllen müssen.

Im ursprünglichen Vorschlag wurden alle KI-Lösungen, die unter eine voreingestellte Liste kritischer Anwendungsfälle fallen, automatisch als risikoreich eingestuft. In den letzten Wochen haben EU-Politiker eine Reihe von Ausnahmebedingungen diskutiert, die es KI-Entwicklern ermöglichen, die Einstufung als Hochrisiko zu umgehen.

Dieser Ansatz wurde jedoch von der Rechtsabteilung des Europäischen Parlaments scharf kritisiert, da er der Ansicht war, dass er dem eigentlichen Ziel des KI-Gesetzes zuwiderlaufe und zu Rechtsunsicherheit führe.

Die Rechtsexperten schlossen ein Filtersystem nicht vollständig aus, waren jedoch der Ansicht, dass die Ausnahmebedingungen enger und spezifischer für jeden kritischen Anwendungsfall sein müssten, anstatt KI-Anbieter in der Lage zu lassen, ihre Modelle selbst zu bewerten.

Ausnahmebedingungen weitgehend beibehalten

Dennoch haben die Büros der Ko-Berichterstatter des EU-Parlaments, Dragoș Tudorache und Brando Benifei, am Freitag (20. Oktober) eine von Euractiv eingesehene neue Version des Textes in Umlauf gebracht, die horizontale Ausnahmebedingungen beibehält und die negative Rechtsauffassung weitgehend außer Acht lässt.

Der neue Text wurde am Montag (23. Oktober) bei einem Treffen mit den Vertretern der anderen Fraktionen besprochen, bevor am folgenden Tag eine Verhandlungssitzung mit dem EU-Rat und der Kommission stattfand.

Die Ausnahmekriterien wurden optimiert und in der Präambel des Textes wurden zusätzliche Beispiele eingefügt, um ihre Anwendung besser zu erläutern. Die Rolle der Marktüberwachungsbehörden und die delegierten Befugnisse der EU-Kommission wurden weiter präzisiert.

Es wurde eine Spezifikation eingeführt, dass die Kriterien gelten, auch wenn das KI-Modell „das Ergebnis der Entscheidungsfindung nicht wesentlich beeinflusst“.

Das erste Kriterium gilt, wenn das KI-System eine eng gefasste Verfahrensaufgabe erfüllen soll. Als Beispiel wird ein KI-Modell genannt, das unstrukturierte Daten in strukturierte Daten umwandelt oder eingehende Dokumente in Kategorien klassifiziert.

Die zweite Möglichkeit, das Hochrisikoregime zu umgehen, besteht darin, dass die KI-Lösung dazu gedacht ist, das Ergebnis einer zuvor abgeschlossenen menschlichen Aktivität zu überprüfen oder zu verbessern und lediglich eine zusätzliche Ebene für die menschliche Aktivität bereitzustellen. Dies könnte bei KI-Modellen der Fall sein, die zur Verbesserung der Sprache eines Dokuments verwendet werden.

Drittens, wenn das KI-System lediglich dazu dient, Entscheidungsmuster oder Abweichungen von früheren Entscheidungsmustern zu erkennen, um mögliche Inkonsistenzen oder Anomalien, beispielsweise beim Benotungsmuster eines Lehrers, aufzuzeigen.

Das vierte Kriterium blieb unberührt und bezieht sich auf KI-Modelle, die zur Durchführung vorbereitender Aufgaben für eine Bewertung verwendet werden, die für die kritischen Anwendungsfälle relevant ist. Hier kommt der vorbereitenden Funktion des Outputs zu, der die Auswirkungen des Systems hinsichtlich des Risikos gering halten soll. Beispiele hierfür sind Dateiverwaltungssoftware.

Gleichzeitig wurde an der Vorstellung festgehalten, dass jedes KI-System, das Personenprofile erstellt, unabhängig von diesen Kriterien als hochriskant eingestuft wird.

In der vorherigen Fassung des Textes wurde außerdem verlangt, dass KI-Anbieter, die ihre Systeme nicht als risikoreich einstufen, ihre Einschätzung in der technischen Dokumentation darlegen und diese auf Anfrage der nationalen Marktüberwachungsbehörde zur Verfügung stellen müssen.

Der neue Text besagt, dass Marktüberwachungsbehörden in der Lage sein sollten, Bewertungen des KI-Systems durchzuführen, wenn sie hinreichende Gründe zu der Annahme haben, dass ein solches KI-System als risikoreich eingestuft werden sollte, und, falls das KI-System tatsächlich ein hohes Risiko darstellen sollte, Sie sollten verlangen können, dass das System mit dieser Verordnung in Einklang gebracht wird.

Ein Bußgeld kann verhängt werden, wenn den Marktüberwachungsbehörden „ausreichende Beweise“ dafür vorliegen, dass der KI-Anbieter sein System falsch klassifiziert hat, um das KI-Gesetz zu umgehen.

Die Europäische Kommission ist befugt, die Kriterien angesichts technologischer Entwicklungen zu aktualisieren oder sie an Änderungen der Liste kritischer Anwendungsfälle anzupassen.

Für das Inkrafttreten dieser delegierten Befugnisse wurden zwei neue Bedingungen eingeführt: Es liegen konkrete und verlässliche Beweise für KI-Systeme vor, die in die Hochrisikokategorie fallen, aber kein erhebliches Risiko darstellen. Die neuen Kriterien verringern nicht den Gesamtschutz des KI-Gesetzes.

[Edited by Nathalie Weatherald]

Lesen Sie mehr mit EURACTIV


source site

Leave a Reply