Spanische Ratspräsidentschaft schlägt Verpflichtungen für Stiftungsmodelle im EU-KI-Gesetz vor – EURACTIV.com

Die spanische EU-Ministerratspräsidentschaft hat im Rahmen der Verhandlungen zum KI-Gesetz eine Reihe von Pflichten für Stiftungsmodelle und General Purpose AI entworfen.

Spanien führt derzeit im Namen der EU-Regierungen die Verhandlungen über das Gesetz über künstliche Intelligenz, einen bahnbrechenden Gesetzesvorschlag zur Regulierung von KI auf der Grundlage ihres Schadenspotenzials. Das Dossier befindet sich derzeit in der letzten Phase des Gesetzgebungsprozesses, den sogenannten Trilogen zwischen EU-Rat, Parlament und Kommission.

Seit dem kometenhaften Aufstieg von ChatGPT, einem weltberühmten Chatbot, der auf dem GPT-4-Modell von OpenAI basiert, haben die politischen Entscheidungsträger in der EU Schwierigkeiten zu definieren, wie diese Art von künstlicher Intelligenz unter die KI-Verordnung der EU fallen soll.

Mitte Oktober enthüllte Euractiv, dass die Überlegungen der politischen Entscheidungsträger zu einem abgestuften Ansatz mit einem strengeren Regime für die leistungsstärksten Stiftungsmodelle wie GPT-4 tendieren. Am Sonntag übermittelte die spanische Ratspräsidentschaft den anderen EU-Ländern die erste entwickelte Version des Gesetzestextes zur Rückmeldung, die Euractiv vorliegt.

Foundation-Modelle

Das Foundation-Modell ist definiert als „ein großes KI-Modell, das auf einer großen Datenmenge trainiert wird und in der Lage ist, ein breites Spektrum unterschiedlicher Aufgaben kompetent auszuführen, darunter beispielsweise die Erstellung von Videos, Texten, Bildern, die Konversation in lateraler Sprache, Berechnen oder Generieren von Computercode“.

Diese Modelle müssen Transparenzpflichten erfüllen, d. h. den Anbietern von KI-Systemen eine aktuelle technische Dokumentation zur Verfügung stellen, in der die Kapazitäten und Einschränkungen der Basismodelle erläutert werden, sowie eine Reihe von Elementen, die in einem Anhang detailliert beschrieben werden.

Darüber hinaus müssen Anbieter von Stiftungsmodellen nachweisen, dass sie angemessene Maßnahmen ergriffen haben, um sicherzustellen, dass die Schulung des Modells im Einklang mit dem EU-Recht zum Urheberrecht erfolgt ist, insbesondere mit der Bestimmung, die Data-Mining-Aktivitäten von Inhalten erfordert, die online öffentlich zugänglich gemacht werden die Zustimmung der Rechteinhaber zu verlangen, auch mit maschinenlesbaren Mitteln, wenn Rechteinhaber sich von der Urheberrechtsausnahme für Text- und Data-Mining abgemeldet haben.

Daher müssen die Entwickler des Stiftungsmodells ein System einrichten, um die Opt-out-Entscheidungen der Inhaltsersteller zu respektieren.

Eine weitere Verpflichtung besteht in der Veröffentlichung einer hinreichend detaillierten Zusammenfassung der für das Training des Stiftungsmodells verwendeten Inhalte und des Umgangs des Anbieters mit urheberrechtlichen Aspekten auf der Grundlage einer von der Europäischen Kommission zu entwickelnden Vorlage.

Wirkungsvolle Fundamentmodelle

Bei der letzten Verhandlungssitzung einigten sich die EU-Politiker auf die Einführung einer strengeren Regelung für „High-Impact“-Stiftungsmodelle.

Ein „High-Impact“-Grundlagenmodell ist definiert als „jedes Grundmodell, das mit großen Datenmengen trainiert wurde und über eine weit über dem Durchschnitt von Grundmodellen liegende Komplexität, Fähigkeiten und Leistung verfügt, das systemische Risiken entlang der Wertschöpfungskette verbreiten kann, unabhängig davon, ob solche bestehen.“ „in ein Hochrisikosystem integriert oder nicht“.

Innerhalb von 18 Monaten nach Inkrafttreten des KI-Gesetzes muss die Kommission Durchführungsrechtsakte oder delegierte Rechtsakte erlassen, um den Schwellenwert für die Einstufung eines Stiftungsmodells als „hochwirksam“ im Einklang mit Markt- und Technologieentwicklungen festzulegen.

Die EU-Exekutive wird in Absprache mit dem AI Office die Stiftungsmodelle benennen, die diese Schwellenwerte erfüllen.

In den Einleitungsbestimmungen des Gesetzes, die klarstellen, wie die Artikel zu interpretieren sind, wird erläutert, was ein KI-Modell ist und wie es aufgebaut ist. Außerdem werden Verweise auf die wissenschaftliche Gemeinschaft, die Interaktion zwischen Datensätzen und Grundlagenmodellen und wie KI-Anwendungen aussehen können, gegeben darauf gebaut.

Zu den Verpflichtungen für diese systemischen Modelle gehört die kontradiktorische Überprüfung, ein Prozess, der als Red-Teaming bekannt ist. Es bleibt noch zu diskutieren, wie diese Überprüfungspflicht auf hochwirksame Basismodelle angewendet werden soll, die als System kommerzialisiert werden, das Komponenten wie traditionelle Software integriert, wie es bei GPT-4 der Fall ist.

Wichtig ist, dass die EU-Länder darüber diskutieren, ob Red-Teaming durch externe Experten durchgeführt werden muss. Die Präsidentschaft geht davon aus, dass der Anbieter dies tun kann, da auch diese Modelle einer Prüfung unterzogen werden.

Das KI-Büro kann Unterlagen anfordern, die belegen, dass das Modell dem KI-Gesetz entspricht, und auf begründeten Antrag eine unabhängige Prüfung anordnen, um die Übereinstimmung des Modells mit dem KI-Gesetz und etwaigen Verpflichtungen im Rahmen der unterzeichneten Verhaltenskodizes zu bewerten, zu denen die Kommission ermutigen sollte erstellen.

Eine als „möglicherweise zusätzlich“ gekennzeichnete Verpflichtung umfasst die Verpflichtung der Anbieter von Stiftungsmodellen mit großer Auswirkung, ein System zur Überwachung schwerwiegender Vorfälle und damit verbundener Korrekturmaßnahmen einzurichten.

Darüber hinaus müssen hochwirksame Basismodelle die systemischen Risiken in der EU bewerten, einschließlich der Risiken, die sich aus der Integration in ein KI-System ergeben, und zwar mindestens einmal jährlich seit der Markteinführung und für jede neue Version, die veröffentlicht wird.

Die Risikobewertung sollte die Verbreitung illegaler oder schädlicher Inhalte und alle vernünftigerweise vorhersehbaren negativen Auswirkungen in Bezug auf schwere Unfälle oder die Beeinträchtigung demokratischer Prozesse umfassen.

Die Kommission ist befugt, die Bestimmungen zu Stiftungsmodellen und High-Impact-Stiftungsmodellen an Markt- und Technologieentwicklungen anzupassen.

Allzweck-KI

Die letzte Schicht besteht aus Allzweck-KI-Systemen wie ChatGPT, die als Systeme gedacht sind, „die auf einem KI-Modell basieren können, zusätzliche Komponenten wie herkömmliche Software enthalten können und über eine Benutzeroberfläche die Fähigkeit haben, eine Vielzahl von Zwecken zu erfüllen.“ zur direkten Nutzung sowie zur Integration in andere KI-Systeme.“

Der spanische Ratsvorsitz schlug Verpflichtungen für Anbieter allgemeiner KI-Systeme vor, wenn sie Lizenzvereinbarungen mit nachgelagerten Wirtschaftsteilnehmern abschließen, die das System für einen oder mehrere risikoreiche Anwendungsfälle einsetzen könnten.

Zu diesen Verpflichtungen gehört die Angabe der risikoreichen Verwendungszwecke, für die das System verwendet werden darf, in den Anweisungen sowie die Bereitstellung technischer Dokumentation und aller Informationen, die für den nachgelagerten KI-Anbieter zur Einhaltung der Hochrisikoanforderungen relevant sind.

Die Anbieter von General Purpose AI-Systemen können auch bestimmte risikoreiche Anwendungen verbieten. In diesem Fall müssen sie alle erforderlichen und verhältnismäßigen Maßnahmen ergreifen, um mögliche Missbräuche aufzudecken und durchzusetzen.

[Edited by Nathalie Weatherald]

Lesen Sie mehr mit EURACTIV


source site

Leave a Reply