Führende Europaabgeordnete schlagen erste Kriterien zur Einstufung von Stiftungsmodellen als „High-Impact“ vor – EURACTIV.com

Die EU-Gesetzgeber, die an der Spitze der Arbeit am KI-Regelwerk standen, schlugen eine erste Reihe von Kriterien vor, um die leistungsstärksten Basismodelle zu identifizieren, die einem bestimmten Regime folgen müssen.

Das KI-Gesetz ist ein wegweisendes EU-Gesetz zur Regulierung künstlicher Intelligenz auf der Grundlage ihres Schadenspotenzials für Menschen. Das Dossier befindet sich derzeit in der letzten Phase des Gesetzgebungsprozesses, den sogenannten Trilogen, in denen EU-Kommission, Parlament und Rat die endgültigen Bestimmungen ausarbeiten.

Einer der Knackpunkte in dieser späten Phase der Verhandlungen war die Auseinandersetzung mit Basismodellen wie GPT-4, auf denen mehrere KI-Anwendungen aufbauen können, wie etwa der berühmteste Chatbot der Welt, ChatGPT.

Am Dienstag (7. November) enthüllte Euractiv exklusiv, dass die spanische EU-Ratspräsidentschaft, die die Verhandlungen im Namen des Rates leitet, einen ersten Entwurf von Verpflichtungen für Stiftungsmodelle, einschließlich der mächtigsten, mit der Bezeichnung „High-Impact“ in Umlauf gebracht hat.

Am Mittwoch teilten die Büros der Ko-Berichterstatter des Europäischen Parlaments, Dragoș Tudorache und Brando Benifei, den Abgeordneten eine Reaktion auf den Entwurf der Präsidentschaft mit. Der Text der Ko-Berichterstatter wird am Donnerstag bei einem politischen Treffen besprochen.

Klassifizierung der höchsten Stufe

Ein entscheidender Aspekt dieses mehrstufigen Ansatzes ist die Art und Weise, wie „High-Impact“-Grundlagenmodelle vom Rest getrennt werden. Im Vorschlag des Rates wurde die Kommission damit beauftragt, innerhalb von 18 Monaten nach Inkrafttreten des Gesetzes sekundäre Rechtsvorschriften zu erarbeiten, um diese Schwellenwerte festzulegen.

Für die führenden Europaabgeordneten sind diese Kriterien zu wichtig, um sie allein der Kommission zu überlassen. Daher schlugen sie vier erste Kriterien vor, anhand derer im Falle einer Bestätigung konkrete Schwellenwerte festgelegt werden müssen.

Die Kriterien sind die Größe der für das Training verwendeten Datenproben, die Größe der das Modell darstellenden Parameter, der für das Training verwendete Rechenaufwand, gemessen in Gleitkommaoperationen, und einige Leistungsbenchmarks, die noch vollständig ausgearbeitet werden müssen.

In diesem Szenario müsste die Kommission innerhalb von 18 Monaten eine Methode zur Bewertung dieser Schwellenwerte entwickeln. Darüber hinaus wäre die EU-Exekutive befugt, die Schwellenwerte anzupassen, beispielsweise wenn technologische Entwicklungen die Menge der Datenproben verringern, die zum Trainieren eines leistungsstarken Basismodells erforderlich sind.

Es bleibt zur Diskussion, ob alle Schwellenwerte eingehalten werden sollten oder ob ein Paar ausreichen würde. Nach dem Vorbild des Digital Services Act wollen die Parlamentarier, dass die Anbieter Auskunft über die vorgegebenen Schwellenwerte geben.

Dennoch könnte die Kommission ihre Benennungsentscheidung auch auf andere Informationen stützen, die sie im Rahmen der Offenlegungspflichten erhält. Die Bezeichnung werde entfallen, wenn das Modell mindestens ein Jahr lang die relevanten Schwellenwerte unterschreite, heißt es im Text der Abgeordneten.

Für die führenden Europaabgeordneten ist eine Definition wirkungsvoller Stiftungsmodelle nicht erforderlich, da ihre Benennung auf den Schwellenwerten basieren wird.

Pflichten für Anbieter leistungsstarker Stiftungsmodelle

Die Ko-Berichterstatter schlugen außerdem einige Änderungen an den Verpflichtungen für Anbieter von Modellen mit großer Wirkung vor. Es wurde eine Präzisierung hinzugefügt, dass die Verpflichtungen unabhängig davon gelten, ob sie unter freien und Open-Source-Lizenzen zur Verfügung gestellt werden.

Die führenden Europaabgeordneten wollen, dass hochwirksame Stiftungsmodelle in der öffentlichen EU-Datenbank registriert werden, die ursprünglich für Nutzer von KI-Systemen konzipiert war, bei denen ein erhebliches Risiko besteht, Schaden anzurichten.

Als zusätzliche Verpflichtung wurde vorgeschlagen, dass diese leistungsstarken Modelle relevante Ressourcennutzungs- und Abfallstandards anwenden sollten.

Der Vorschlag der Präsidentschaft sieht vor, dass diese Anbieter potenzielle systemische Risiken bewerten müssen. Der Gesetzgeber schlug vor, zu den systemischen Risiken alle vorhersehbaren negativen Auswirkungen auf die Ausübung von Grundrechten, geschlechtsspezifische Gewalt sowie den Schutz der öffentlichen Gesundheit, der Umwelt und Minderjähriger hinzuzufügen.

Was die Risikominderung betrifft, wollen die Abgeordneten das AI Office damit beauftragen, einen jährlichen Bericht zu veröffentlichen, der die wichtigsten wiederkehrenden Risiken identifiziert, die besten Praktiken zur Risikominderung aufzeigt und systemische Risiken pro Mitgliedsstaat aufschlüsselt.

Foundation-Modelle

Der vorliegende Ansatz besteht darin, einige horizontale Verpflichtungen für alle Stiftungsmodelle festzulegen. Allerdings halten die Ko-Berichterstatter die Definition des Rates für Stiftungsmodelle für unklar, da einige Elemente mit generativer KI verwechselt werden könnten.

Im Text des Parlaments wird klargestellt, dass diese Pflichten gelten, bevor das Modell auf den Markt kommt. Die von den Spaniern eingeführten Querverweise zum EU-Urheberrecht wurden in einen speziellen Artikel für generative KI verschoben.

Generative KI

Die führenden Europaabgeordneten schlugen einen neuen Artikel mit Ex-ante-Verpflichtungen für generative Basismodelle und KI-Systeme vor, die in der Lage sind, synthetische Audio-, Bild-, Video- oder Textinhalte auf der Grundlage von aus Daten gelernten Korrelationen und Mustern zu generieren.

Für die Parlamentarier müssen die Ergebnisse dieser Systeme als künstlich erzeugt oder manipuliert in maschinenlesbarer Form gekennzeichnet werden.

Darüber hinaus müssten die Anbieter „das Basismodell oder das KI-System so schulen und gegebenenfalls entwerfen und entwickeln, dass angemessene Schutzmaßnahmen gegen die Generierung von Inhalten gewährleistet sind, die gegen das Unionsrecht verstoßen, unbeschadet der Grundrechte, einschließlich der Freiheiten.“ des Ausdrucks“.

Die Bestimmungen der spanischen Präsidentschaft, die diese Anbieter verpflichten, eine detaillierte Zusammenfassung der zum Trainieren des Modells verwendeten Inhalte bereitzustellen und nachzuweisen, dass sie angemessene Maßnahmen zur Einhaltung des Urheberrechts ergreifen, blieben unberührt.

Dennoch wurde der Absatz über die Einrichtung von Funktionen, die die Opt-out-Entscheidungen der Inhaltsersteller respektieren, entfernt.

Schließlich fordert der Text die Anbieter auf, „sicherzustellen, dass ihre technischen Lösungen wirksam, interoperabel, robust und zuverlässig sind, soweit dies technisch machbar ist, und dabei die Besonderheiten und Einschränkungen verschiedener Arten von Inhalten zu berücksichtigen“.

Allzweck-KI

Die Ko-Berichterstatter schlugen vor, Allzweck-KI als „ein KI-System zu definieren, das in einer Vielzahl von Anwendungen eingesetzt und an diese angepasst werden kann, für die es nicht absichtlich und speziell entwickelt wurde“.

Hinsichtlich der Pflichten bestehen die Ko-Berichterstatter darauf, den Text des Parlaments zu den Verantwortlichkeiten entlang der gesamten KI-Wertschöpfungskette der Anbieter beizubehalten.

[Edited by Zoran Radosavljevic]

Lesen Sie mehr mit EURACTIV


source site

Leave a Reply