Das Rechtsbüro des EU-Parlaments gibt eine vernichtende Stellungnahme zu „Filtern“ zur Hochrisikoklassifizierung ab – EURACTIV.com

EU-Politiker diskutieren über einige Filterbedingungen, die es KI-Entwicklern ermöglichen würden, die Einhaltung der strengeren Regelungen des EU-Gesetzes zur künstlichen Intelligenz zu umgehen. Dieser politische Kompromiss stößt jedoch auf erhebliche rechtliche Probleme.

Das KI-Gesetz ist ein wegweisendes EU-Gesetz zur Regulierung künstlicher Intelligenz auf der Grundlage ihrer Fähigkeit, Schaden anzurichten. Daher folgt das Gesetz einem risikobasierten Ansatz, bei dem KI-Modelle, die ein erhebliches Risiko für die Gesundheit, Sicherheit und Grundrechte der Menschen darstellen, strengeren Vorschriften in Bezug auf Aspekte wie Datenverwaltung und Risikomanagement unterliegen müssen.

Der ursprüngliche Kommissionsvorschlag bezeichnete alle KI-Systeme als Hochrisikosysteme, die in eine vorab festgelegte Liste kritischer Bereiche und Anwendungsfälle fielen, wie etwa Beschäftigungs- und Migrationskontrolle. Sowohl das Europäische Parlament als auch der Rat, die Mitgesetzgeber der EU, haben diesen Automatismus aufgehoben und eine zusätzliche Ebene eingeführt, um zu verhindern, dass KI-Lösungen mit minimalem Risiko in die strengere Regelung übernommen werden.

Filterbedingungen

Bei der letzten Verhandlungssitzung am 2. Oktober diskutierten die EU-Politiker über einen Kompromisstext zur Einführung von drei Filterbedingungen, bei deren Erfüllung KI-Anbieter ihr System als aus der Hochrisikokategorie ausgenommen betrachten könnten.

Bei den Bedingungen handelt es sich um KI-Systeme, die für eine eng gefasste Verfahrensaufgabe, lediglich zur Bestätigung oder Verbesserung eines Hilfsfaktors einer menschlichen Beurteilung oder zur Durchführung einer vorbereitenden Aufgabe, bestimmt sind.

Es wurden einige zusätzliche Schutzmaßnahmen hinzugefügt, nämlich, dass jedes KI-Modell, das Profiling durchführt, weiterhin als Hochrisikomodell gilt und dass nationale Behörden weiterhin befugt sind, die Systeme zu überwachen, die als nicht Hochrisiko-Systeme registriert sind.

Tiefe Zweifel

Allerdings forderten die Abgeordneten den Juristischen Dienst des EU-Parlaments auf, ein Rechtsgutachten abzugeben. Die von Euractiv eingesehene Stellungnahme vom 13. Oktober wirft erhebliche Zweifel an der rechtlichen Richtigkeit der Filterbedingungen auf.

Bemerkenswerterweise stellten die Rechtsexperten fest, dass es Sache der KI-Entwickler sei, zu entscheiden, ob das System eine der Filterbedingungen erfüllt, wodurch ein hohes Maß an Subjektivität eingeführt werde, die „nicht ausreichend formuliert zu sein scheint, um es Einzelpersonen zu ermöglichen, eindeutig festzustellen, was sind.“ ihre Pflichten“.

Während der Kompromisstext die Europäische Kommission damit beauftragt, Leitlinien zur Anwendung der Filter zu entwickeln, stellt das Rechtsamt fest, dass Leitlinien naturgemäß unverbindlich sind; Daher können sie den Inhalt des Gesetzes nicht ändern.

Am wichtigsten ist für die Rechtsabteilung des Parlaments, dass die Überlassung dieses Grades an Autonomie den KI-Anbietern „im Gegensatz zum allgemeinen Ziel des KI-Gesetzes steht, das Risiko von Schäden durch KI-Systeme mit hohem Risiko“ anzugehen. Dieser Widerspruch wird als Ursache für Rechtsunsicherheit angesehen.

In der Stellungnahme wird außerdem festgestellt, dass das Filtersystem im Widerspruch zum Grundsatz der Gleichbehandlung steht, da es dazu führen könnte, dass Modelle mit hohem Risiko als Modelle ohne hohes Risiko behandelt werden und umgekehrt, und dass die Verhältnismäßigkeit als ungeeignet angesehen wird das Regelungsziel des KI-Gesetzes.

Die Rechtsexperten stellen zwei Voraussetzungen dafür, dass ein Filteransatz rechtlich einwandfrei ist. Erstens sollten die Ausnahmebedingungen so präzise sein, dass bei der Klassifizierung von KI-Modellen keine Fehlermarge verbleibt. Zweitens sollte es Sache des Gesetzgebers sein, zu beurteilen, ob eine KI-Anwendung ein hohes Risiko darstellt oder nicht.

Mit anderen Worten: Anstelle horizontaler Ausnahmebedingungen, die für alle Anwendungsfälle gelten, wird die EU-Politik aufgefordert, im Einzelfall festzulegen, unter welchen Bedingungen die KI-Lösungen in einem bestimmten kritischen Bereich kein erhebliches Risiko darstellen.

Schließlich nahmen die EU-Anwälte die Befugnisse ins Visier, die der Kompromisstext der Europäischen Kommission zuwies, die mit der Aktualisierung der Filterbedingungen per delegiertem Rechtsakt beauftragt wurde. Nach Ansicht der Parlamentsanwaltschaft dürfte dies nicht der Fall sein, da die Filterbedingungen „wesentliche Bestandteile des Gesetzes darstellen“.

Rechtsgutachten können einen großen Einfluss auf die Gestaltung der EU-Gesetzgebung haben. Von den EU-Politikern wird nun erwartet, dass sie eine überarbeitete Version dieses kritischen Aspekts des KI-Gesetzes vorlegen.

[Edited by Nathalie Weatherald]

Lesen Sie mehr mit EURACTIV


source site

Leave a Reply