Abgeordnete verlängern Verbot von Social Scoring, reduzieren Rolle des KI-Büros – EURACTIV.de

Das Verbot von Social Scoring wurde auf private Unternehmen ausgeweitet, regulatorische Sandboxen könnten verwendet werden, um die Einhaltung der Vorschriften nachzuweisen, und die Rolle des KI-Büros wurde in einer Reihe neuer Kompromissänderungen zum bevorstehenden KI-Gesetz verkleinert.

Am 15. Februar trafen sich die EU-Gesetzgeber zu einer „Marathon“-Verhandlungssitzung über das Gesetz, einen wegweisenden Gesetzesvorschlag zur Regulierung der künstlichen Intelligenz auf der Grundlage ihrer potenziellen Risiken. Obwohl keine allgemeine politische Einigung erzielt wurde, gaben die Abgeordneten umfangreiches Feedback.

Dieses Feedback spiegelte sich in der Überarbeitung fast aller Stapel von Kompromissänderungsanträgen wider, die die Ko-Berichterstatter des Europäischen Parlaments, Brando Benifei und Dragoș Tudorache, letzten Freitag (24. Februar) geteilt und von EURACTIV erhalten wurden.

Verbotene Praktiken

Das KI-Gesetz verbietet bestimmte KI-Nutzungen, die ein zu hohes Risiko darstellen. Zu dieser politisch sensiblen Kategorie gehört Social Scoring, ein allgegenwärtiges Bevölkerungskontrollsystem, das in Teilen Chinas eingesetzt wird. Das Verbot des Social Scoring wurde auf private Unternehmen ausgeweitet.

Anmerkungen am Rand des Dokuments sehen vor, dass die Verbote der biometrischen Kategorisierung und unterschwelliger Techniken in der Präambel des Textes ausgearbeitet werden, insbesondere im Fall der psychologischen Manipulation, um den Zusammenhang mit Werbung zu spezifizieren.

Governance und Durchsetzung

Die Rolle des KI-Büros, eines EU-Gremiums, das vorgeschlagen wurde, um die Durchsetzung der Verordnung zu zentralisieren, wurde erheblich reduziert, möglicherweise um die Bedenken hinsichtlich des Mangels an Ressourcen auszuräumen. Das KI-Büro wird gemeinsame Ermittlungen unterstützen.

In den extremsten Fällen, in denen ein nicht konformes KI-System zu erheblichen Risiken auf nationaler Ebene führt, wird es jedoch Aufgabe der Kommission sein, eine entscheidende Rolle bei der Konsultation der beteiligten Behörden zu spielen und im Falle von Meinungsverschiedenheiten eine verbindliche Entscheidung zu treffen .

Sollte die KI-Anwendung trotz Einhaltung des KI-Regelwerks der EU ein ernsthaftes Risiko darstellen, würde diese Rolle vom KI-Büro übernommen. Diese Widersprüchlichkeit dürfte aus den politischen Verhandlungen resultieren.

Das KI-Büro wurde beauftragt, Fachwissen zu sammeln und bewährte Verfahren zwischen den EU-Ländern auszutauschen, unter anderem durch die Einrichtung eines europäischen Expertenpools, eine Idee, die aus dem Datenschutzbereich stammt und bereits im Text des EU-Rates aufgegriffen wurde .

Der EU-Gesetzgeber schlägt außerdem vor, Verbandsklagen bei Verstößen gegen die KI-Verordnung zu erheben.

Regulatorische Sandboxen

Es wurde ein neuer Wortlaut hinzugefügt, der verlangt, dass die Behörden, die die Sandboxen einrichten, Entwickler von KI-Systemen mit hohem Risiko anleiten und beaufsichtigen, damit davon ausgegangen werden kann, dass sie das KI-Gesetz einhalten, wenn sie die Sandbox verlassen.

Verpflichtungen mit hohem Risiko

Die Prüfung von KI-Systemen mit hohem Risiko ist nun erforderlich, um die Zweckbestimmung und den vernünftigerweise vorhersehbaren Missbrauch zu berücksichtigen. Die Kategorien, die bei der Risikobewertung besonders berücksichtigt werden sollten, wurden auf gefährdete Gruppen und Kinder beschränkt.

Die Bestimmung, nach der KI-Entwickler überprüfen mussten, ob die zum Trainieren ihres Modells verwendeten Datensätze legal erworben wurden, wurde entfernt. Diese Bestimmung hätte sich auf große Sprachmodelle wie ChatGPT ausgewirkt, die durch das Scrapen riesiger Datenmengen aus dem Internet trainiert werden.

In einem Hinweis am Rand des Textes heißt es jedoch, dass die Präambel des Textes festlegen wird, dass diese Datenerfassungsprozesse mit Geschäftsgeheimnissen, geistigem Eigentum und Datenschutzbestimmungen in Einklang stehen müssen. Der Verweis auf IP-Rechte scheint darauf ausgerichtet zu sein, die Kreativindustrie zu schützen, da ihre Kunstwerke zur Einspeisung in die generative KI verwendet werden.

Verweise auf die Grundsätze der Datenminimierung und des Datenschutzes durch Design und Voreinstellungen wurden aus den Data-Governance-Anforderungen entfernt. Die bereitzustellende technische Dokumentation wurde leicht vereinfacht.

In Bezug auf die Qualitätskontrolle stellen die Kompromisse klar, dass die KI-Entwickler, die bereits über ein Qualitätsmanagementsystem nach internationalen Standards verfügen, die bestehenden Systeme an die Anforderungen der KI-Verordnung anpassen könnten.

Umfang

Der Kompromiss stellt klar, dass Open-Source-KI-Modelle nicht in den Anwendungsbereich der Verordnung fallen, es sei denn, sie werden als Teil eines größeren Hochrisikosystems, einer verbotenen Praxis oder eines Systems, das Deep Fakes produziert, auf den Markt gebracht oder in Betrieb genommen.

Folgenabschätzung zu den Grundrechten

Der Vorschlag der Ko-Berichterstatter, eine Folgenabschätzung für die Grundrechte für KI-Nutzungen einzuführen, die in Bereiche fallen, die als besonders gefährdet gelten, wurde beibehalten. Allerdings wurden die Mindestelemente leicht reduziert und ein Carve-out für Systeme zur Verwaltung kritischer Infrastrukturen hinzugefügt.

Anerkennung der Konformitätsbewertung

KI-Lösungen, insbesondere solche mit erheblichem Risiko, müssen einem Konformitätsbewertungsverfahren unterzogen werden. Der EU-Gesetzgeber will, dass die Kommission Abkommen über gegenseitige Anerkennung mit anderen Ländern mit vergleichbarem Konformitätsbewertungsniveau schließt.

Sicherheitskomponente

Die KI-Systeme, die als Sicherheitskomponenten von Produkten fungieren, die unter die EU-Rechtsvorschriften fallen, wie Spielzeug und Industriemaschinen, gelten als einem hohen Risiko ausgesetzt, Schäden zu verursachen. Die Definition von Sicherheitsbauteilen wurde geändert, um sie auf die Vermeidung von Risiken für die Gesundheit und Sicherheit von Personen zu beschränken.

Technische Standards

Die führenden Abgeordneten fordern von der Kommission gemeinsame Spezifikationen zu den Anforderungen an Hochrisikosysteme im Bereich des Grundrechtsschutzes. Diese gemeinsamen Spezifikationen würden aufgehoben, sobald sie in die einschlägigen technischen Normen aufgenommen würden.

[Edited by Alice Taylor]


source site

Leave a Reply