Spanische Präsidentschaft unternimmt letzten Vermittlungsversuch zu Stiftungsmodellen – EURACTIV.com

Die spanische EU-Ratspräsidentschaft hat ein überarbeitetes Mandat für Verhandlungen mit dem Europäischen Parlament über die heikle Frage der Regulierung von Stiftungsmodellen im Rahmen des bevorstehenden KI-Gesetzes vorgelegt.

Das KI-Gesetz ist ein Flaggschiffgesetz zur Regulierung künstlicher Intelligenz auf der Grundlage ihrer Fähigkeit, Schaden anzurichten. Das Dossier befindet sich in der letzten Phase des Gesetzgebungsprozesses, den sogenannten Trilogen, bei denen EU-Kommission, Rat und Parlament über die Regelungen verhandeln.

Die politischen Entscheidungsträger der EU wollen beim nächsten politischen Trilog am 6. Dezember eine Einigung abschließen. Im Vorfeld dieser wichtigen Ernennung benötigt Spanien, das im Namen der EU-Länder verhandelt, ein überarbeitetes Mandat.

Euractiv berichtete über den ersten Teil des Mandats zum Kapitel Strafverfolgung, das am Mittwoch (29. November) im Ausschuss der Ständigen Vertreter erörtert wird.

Der zweite Teil des Mandats wurde am Montag verteilt, der Teil zu den Stiftungsmodellen wurde jedoch am Dienstagabend separat geteilt. Es wird am Freitag auf Botschafterebene besprochen.

Foundation-Modelle

Die Regeln für Basismodelle und leistungsstarke Arten künstlicher Intelligenz wie GPT-4 von OpenAI, das ChatGPT antreibt, sind zu einem Knackpunkt in den Verhandlungen geworden. Beim letzten Trilog schien es einen Konsens über einen abgestuften Ansatz für Stiftungsmodelle mit strengeren Verpflichtungen für die Mächtigsten zu geben.

Vor drei Wochen gerieten die Verhandlungen jedoch ins Stocken, weil sich Frankreich mit Unterstützung Deutschlands und Italiens zunehmend gegen verbindliche Regeln für diese Modelle außer Verhaltenskodizes aussprach.

Letzte Woche versuchte die Kommission, einen Mittelweg zu finden, indem sie horizontale Regeln für alle GPAI-Modelle (General Purpose AI) und Verhaltenskodizes für die Topmodelle vorschlug. Die Präsidentschaft übermittelte den nationalen Delegierten den gleichen Kommissionstext mit einer geringfügigen Änderung.

Allerdings forderte das EU-Parlament in einem von Euractiv veröffentlichten Arbeitspapier strengere Regeln für diese Modelle. Die Präsidentschaft hat den Kompromiss der Kommission größtenteils beibehalten. Am Sonntag (19. November) verteilte die Europäische Kommission einige Elemente aus dem Arbeitspapier des Parlaments, stellte diese jedoch vor.

Der Designationsprozess zur Kennzeichnung von GPAI-Modellen als systemisch risikobehaftet wurde weitgehend beibehalten. Dennoch gibt es zwei quantitative Schwellenwerte: Die für die Schulung genutzte Rechenleistung beträgt mehr als 10–26 und die Zahl der Geschäftsanwender in der EU beträgt mehr als 10.000.

Auch horizontale Verpflichtungen für alle GPAI-Modelle wurden beibehalten, einschließlich der Sicherstellung, dass KI-generierte Inhalte als künstlich generiert oder manipuliert erkennbar sind. Es wurde eine Anforderung hinzugefügt, die die Modellbewertung nach standardisierten Protokollen vorschreibt.

In Bezug auf das Urheberrecht verlangt der Wortlaut weiterhin, dass Modellanbieter „angemessene Maßnahmen“ ergreifen, um den gesetzlichen Anforderungen nachzukommen, und eine ausreichend detaillierte Zusammenfassung der Trainingsdaten und Urheberrechtsrichtlinien veröffentlichen.

Für GPAI-Modelle mit systemischen Risiken schreibt der Text der Kommission interne Maßnahmen und einen Regulierungsdialog mit der Kommission vor, um potenzielle systemische Risiken zu identifizieren und zu mindern, mit der zusätzlichen Anforderung, angemessene Cybersicherheitsniveaus sicherzustellen.

Modellanbieter können die Einhaltung der horizontalen und systemspezifischen Verpflichtungen durch die Einhaltung von Verhaltensregeln nachweisen.

Darüber hinaus schlägt die Präsidentschaft vor, Anbieter von GPAI-Systemen wie ChatGPT zu zwingen, alle relevanten Informationen für nachgelagerte Wirtschaftsteilnehmer bereitzustellen, um den Verpflichtungen des KI-Gesetzes nachzukommen. Wenn die GPAI-Systemanbieter den Einsatz in einem Hochrisikoszenario zulassen, müssen sie dies angeben und die entsprechenden Anforderungen einhalten.

Die nationalen Delegierten werden gefragt, ob der vorgeschlagene Text akzeptabel wäre, wenn sie bei der Aufnahme von Verweisen auf Energieeffizienz in die Verhaltenskodizes für Modelle mit systemischen Risiken flexibel wären, und ob sie die Ausnahme von Open-Source-Modellen akzeptieren würden.

Führung

Zum Thema Governance forderte die Präsidentschaft Verhandlungen mit einem Mandat, das den Kommissionsvorschlag von letzter Woche weitgehend unverändert ließ.

Dieser neue Ansatz wird durch die neue Regelung für leistungsstarke KI-Modelle notwendig und konzentriert sich auf ein KI-Büro, das innerhalb der Kommission „gehostet“ wird und über eine „starke Verbindung“ zur wissenschaftlichen Gemeinschaft verfügt.

Das Europäische Gremium für künstliche Intelligenz, das nationale Autoritäten bündelt, würde eine Koordinierungsplattform und ein Beratungsgremium der Kommission bleiben. Der Rat möchte die Flexibilität bei der Ernennung mehrerer zuständiger Behörden auf nationaler Ebene wahren.

Zugriff auf Quellcode

Die Präsidentschaft forderte außerdem ein überarbeitetes Mandat für weniger umstrittene Teile des Gesetzentwurfs.

Im ursprünglichen Vorschlag wurden Marktüberwachungsbehörden und Konformitätsbewertungsstellen ermächtigt, Zugang zum Quellcode zu verlangen, wenn sie die Konformität von Hochrisiko-KI-Systemen mit den Anforderungen des KI-Gesetzes bewerten.

Während das EU-Parlament diese Möglichkeit gestrichen hat, ist die Präsidentschaft der Ansicht, dass „es wichtig ist, diese Möglichkeit zumindest beizubehalten, damit Marktüberwachungsbehörden unter begrenzten Bedingungen Zugang zu Quellen haben können.“

Strafen

Bezüglich des Sanktionsregimes schlägt die Präsidentschaft vor, sich auf halbem Weg mit den Abgeordneten zu treffen. Die Bußgelder werden als Prozentsatz des weltweiten Jahresumsatzes des Unternehmens oder als vorher festgelegter Betrag festgesetzt, je nachdem, welcher Betrag höher ist.

Das Präsidium schlug 6,5 % für Verstöße gegen die verbotenen KI-Anwendungen, 3 % für Verstöße gegen die Pflichten des KI-Gesetzes und 1,5 % für die Bereitstellung falscher Informationen vor.

Inkrafttreten

Was die Frage betrifft, wann das KI-Regelwerk Wirkung zeigen wird, hat der Vorsitz vorgeschlagen, dass die Verordnung zwei Jahre nach ihrem Inkrafttreten gelten sollte, mit Ausnahme des Teils zu den Konformitätsbewertungsstellen, der Governance und den Strafen, der zwölf Monate vorgezogen wird.

KI-Kompetenz

Es wurde vereinbart, dass KI-Anbieter und -Betreiber Maßnahmen ergreifen sollten, um ein ausreichendes Maß an KI-Kompetenz bei ihren Mitarbeitern sicherzustellen. Im Gegensatz dazu wurde der Verweis auf Maßnahmen auf nationaler und EU-Ebene gestrichen.

Lesen Sie mehr mit EURACTIV


source site

Leave a Reply