EU-Länder denken über Optionen zum KI-Gesetz nach, während eine Pattsituation beim Stiftungsmodell droht – EURACTIV.com

Die spanische EU-Ratspräsidentschaft bat um Rückmeldungen zu einer Reihe weniger kontroverser Punkte, nachdem die Verhandlungen zum KI-Gesetz mit dem Europäischen Parlament bei den Stiftungsmodellen auf ein Hindernis gestoßen waren.

Das KI-Gesetz ist ein Gesetzesvorschlag zur Regulierung künstlicher Intelligenz auf der Grundlage ihrer Schadensfähigkeit. Das Dossier befindet sich derzeit in der letzten Phase des Gesetzgebungsverfahrens, den sogenannten Trilogverhandlungen zwischen EU-Rat, Parlament und Kommission.

Am Freitag (10. November) berichtete Euractiv, wie die Vertreter des EU-Parlaments eine technische Sitzung verließen, nachdem die spanische Präsidentschaft unter dem Druck Frankreichs und Deutschlands versucht hatte, vom Ansatz zur Regulierung von Stiftungsmodellen abzuweichen.

Die EU-Länder hatten bis Montag Zeit, schriftliche Kommentare abzugeben, bevor sie die Angelegenheit am Freitag (17. November) auf einer Sitzung der Telekommunikations-Arbeitsgruppe, einem technischen Gremium des Rates, erörterten. Es wird erwartet, dass einige Optionen bis dahin in Umlauf gebracht werden.

Euractiv geht davon aus, dass die Präsidentschaft direkt mit den betroffenen Ländern über eine mögliche, für das Europäische Parlament akzeptable Lösung verhandelt. Unterdessen stört diese Pattsituation die ohnehin straffe Agenda, da das Kapitel über Fundamentmodelle eigentlich bei der technischen Sitzung am Donnerstag vereinbart werden sollte.

In der Zwischenzeit haben die Spanier auch ein Konsultationspapier mit einigen politisch weniger brisanten Vorschlägen des Europäischen Parlaments in Umlauf gebracht, um das Feedback der Mitgliedstaaten einzuholen und ihre Flexibilität zu bewerten.

Die Frist für die Einreichung schriftlicher Stellungnahmen zu diesen Themen lief am Dienstag (14. November) ab.

Verantwortlichkeiten entlang der KI-Wertschöpfungskette

Der wichtigste Aspekt des Konsultationspapiers betrifft die Verantwortlichkeiten entlang der KI-Wertschöpfungskette.

Bemerkenswerterweise wurde das Papier geteilt, bevor Frankreich und Deutschland sich vehement gegen jegliche Verpflichtung zu Stiftungsmodellen aussprachen. Dennoch scheint der Ansatz der Präsidentschaft darin zu bestehen, diesen Teil von den Bestimmungen des Stiftungsmodells getrennt zu halten.

Im ursprünglichen Kommissionsvorschlag wurden die Pflichten von Händlern, Importeuren und Nutzern in einem bestimmten Artikel detailliert beschrieben, den der Rat zugunsten von Bedingungen gestrichen hat, unter denen auch andere Personen den Pflichten eines Anbieters unterliegen müssen.

Die Parlamentarier behielten den ursprünglichen Artikel bei und erweiterten ihn um Verpflichtungen, um sicherzustellen, dass nachgelagerte Wirtschaftsanbieter, die ein allgemeines KI-System wie ChatGPT anpassen, die Anforderungen des KI-Gesetzes erfüllen können.

Der Vorsitz stellte fest, dass dieser Ansatz über die Version des Rates hinausgeht, aber wichtig sein könnte, um sicherzustellen, dass Anbieter von KI-Systemen mit hohem Risiko die gesetzlichen Anforderungen erfüllen können.

Spanien schlug mehrere Zwischenoptionen vor. Eine Möglichkeit wäre, die Version des Parlaments zu akzeptieren, aber die Verweise auf die Interaktion bei den relevanten EU-Harmonisierungsvorschriften aus dem Mandat des Rates einzuführen.

Eine weitere Möglichkeit besteht darin, die Pflicht zu Stiftungsmodellen zu streichen, da diese nach dem neuen Stiftungsmodell-Ansatz ohnehin gilt.

Schließlich schlug die Präsidentschaft vor, die Verpflichtung der Kommission zur Erstellung von Mustervertragsbedingungen oder den Verweis auf Geschäftsgeheimnisse aus dem Text der Abgeordneten zu streichen.

Unfaire Vertragsbedingungen

Besorgniserregend für die Beziehung zwischen Allzweck-KI-Anbietern und den nachgelagerten Wirtschaftsteilnehmern sind weiterhin Bestimmungen, die das Parlament vorschlägt, um zu verhindern, dass erstere den letzteren unfaire Vertragsbedingungen auferlegen.

„Während die Absicht darin besteht, Missbrauch durch große Unternehmen gegenüber kleineren Unternehmen zu verhindern, scheint es, dass der Artikel nicht in den Anwendungsbereich der Verordnung fällt. Auch diese Aussage basiert auf den ersten Rückmeldungen der Delegationen“, heißt es in dem Papier weiter.

Hier besteht die Möglichkeit, den Vorschlag nur anzunehmen oder abzulehnen.

Folgenabschätzung der Grundrechte

Linke Europaabgeordnete schlugen die Verpflichtung für Nutzer von Hochrisiko-KI-Systemen vor, eine Folgenabschätzung für die Grundrechte durchzuführen. Spanien stimmte einer abgeschwächten Fassung dieses Vorschlags zu, jedoch nur für öffentliche Einrichtungen.

Allerdings ist die Frage, ob private Unternehmen erfasst werden sollten, noch offen, wobei einige EU-Länder diesen breiteren Anwendungsbereich zwar bevorzugen und das Europäische Parlament bereit wäre, einer Abschaffung der Verpflichtung der Nutzer, im Gegenzug eine öffentliche Konsultation für potenziell betroffene Gruppen durchzuführen, zuzustimmen.

Allgemeine Grundsätze

Das Mandat des Europäischen Parlaments führt eine Reihe allgemeiner Grundsätze ein, die alle KI-Betreiber bei der Entwicklung und Nutzung von KI-Systemen nach besten Kräften befolgen sollten. Diese Grundsätze würden auch in den Anträgen für technische Standards verankert.

„Die Präsidentschaft ist der Ansicht, dass die Mitgliedstaaten Bedenken hinsichtlich dieses Artikels haben könnten, da seine Bestimmungen den risikobasierten Ansatz gefährden und den Standardisierungsprozess unnötig belasten könnten“, heißt es in dem Papier.

Madrid äußerte sich ebenfalls skeptisch gegenüber der Maßnahme und argumentierte, dass einige dieser Grundsätze bereits in der bestehenden Gesetzgebung enthalten seien und dass unklar sei, warum sie in jedem KI-System eingeführt werden sollten.

Zu den Optionen gehören die vollständige Annahme oder Ablehnung dieser Grundsätze, die Zustimmung, sie nur in die Präambel des Gesetzes aufzunehmen oder sie als Richtschnur für die Entwicklung von Verhaltenskodizes zu betrachten. Unabhängig davon werden die EU-Länder gefragt, ob es akzeptabel ist, dass die Grundsätze in die Standardisierungsanfragen aufgenommen werden.

KI-Kompetenz

Die Abgeordneten führten eine Formulierung ein, die EU- und nationale Institutionen verpflichtet, Maßnahmen zur Entwicklung ausreichender KI-Kompetenz zu fördern und gleichzeitig Anbieter und Betreiber von KI-Anwendungen zu verpflichten, sicherzustellen, dass ihre Mitarbeiter über ausreichende Kenntnisse darüber verfügen.

Auch hier hat der Vorsitz neben der Annahme oder Ablehnung dieses Vorschlags vorgeschlagen, ihn in die Präambel des Textes aufzunehmen, was jedoch nicht rechtsverbindlich ist. Darüber hinaus wird in dem Papier die Frage gestellt, ob es akzeptabel ist, diese Dispositionen zur KI-Kompetenz auf andere Teile des Textes zu übertragen, etwa solche in Bezug auf Transparenz, menschliche Aufsicht oder Verhaltenskodizes.

[Edited by Nathalie Weatherald]

Lesen Sie mehr mit EURACTIV


source site

Leave a Reply