EU-Kommission versucht, den abgestuften Ansatz wiederzubeleben und sich auf allgemeine KI umzustellen – EURACTIV.com

Die Europäische Kommission hat am Sonntag (19. November) einen möglichen Kompromiss zum KI-Gesetz in Umlauf gebracht, um den Stillstand bei Basismodellen zu überwinden, indem sie den abgestuften Ansatz auf Allzweck-KI anwendet und Verhaltenskodizes für Modelle mit systemischen Risiken einführt.

Das KI-Gesetz ist ein bahnbrechender Gesetzentwurf zur Regulierung künstlicher Intelligenz auf der Grundlage ihrer potenziellen Risiken. Der Gesetzesvorschlag befindet sich derzeit in der letzten Phase des Gesetzgebungsprozesses, den sogenannten Trilogen, zwischen EU-Kommission, Rat und Parlament.

In den letzten Wochen haben sich die beteiligten EU-Politiker über die Regulierung leistungsstarker Basismodelle wie GPT-4 gestritten, das den berühmtesten Chatbot der Welt, ChatGPT, antreibt, einen vielseitigen Systemtyp namens General Purpose AI.

Am 10. November berichtete Euractiv darüber, dass die gesamte Gesetzgebung nach dem Konflikt zu scheitern drohte, da sich die drei größten Volkswirtschaften Europas gegen den ursprünglich auf Basismodellen vorgesehenen abgestuften Ansatz aussprachen und sich gegen jede Regulierung außer Verhaltenskodizes wehrten.

Für das Europäische Parlament ist es jedoch keine Option, keine Verpflichtungen für Stiftungsmodelle einzugehen. Die an dem Dossier beteiligten Abgeordneten treffen sich am Dienstag (21. November), um über Stiftungsmodelle, Governance und Strafverfolgung zu diskutieren.

Am Sonntag teilte die EU-Exekutive einen Kompromiss mit den Ko-Berichterstattern des Europäischen Parlaments mit, die ihn am Montag ihren Kollegen mitteilten. Der Text behält den abgestuften Ansatz bei, konzentriert sich jedoch auf allgemeine KI, schwächt die Verpflichtungen ab und führt Verhaltenskodizes ein.

GPAI-Modelle und -Systeme

Der Text stellt im Vergleich zu dem, was von der spanischen Ratspräsidentschaft verbreitet wurde, eine erhebliche Überarbeitung dar, und die führenden Abgeordneten des Europäischen Parlaments haben Anfang des Monats Feedback gegeben. Im Kern wird nun zwischen General Purpose AI (GPAI)-Modellen und -Systemen unterschieden.

„‚Allzweck-KI-Modell‘ bezeichnet ein KI-Modell, das dazu in der Lage ist, auch wenn es mit einer großen Datenmenge unter Verwendung von Selbstüberwachung im großen Maßstab trainiert wird [competently] Sie erfüllen eine Vielzahl unterschiedlicher Aufgaben, unabhängig davon, wie das Modell auf den Markt gebracht wird“, heißt es in der neuen Definition.

Im Gegensatz dazu würde ein GPAI-System „auf einem KI-Modell basieren, das in der Lage ist, eine Vielzahl von Zwecken zu erfüllen, sowohl für die direkte Nutzung als auch für die Integration in andere KI-Systeme.“

Die Idee ist, dass GPAI-Modelle systemische Risiken im Zusammenhang mit „Grenzfähigkeiten“ mit sich bringen können, die auf „geeigneten“ technischen Werkzeugen und Methoden basieren. In den Anmerkungen stellen die Ko-Berichterstatter die Terminologie und die Unbestimmtheit des Textes in Frage.

Neben diesem qualitativen Kriterium klassifiziert der Entwurf GPAI-Modelle mit systemischen Risiken zunächst anhand eines quantitativen Schwellenwerts: dem für ihr Training verwendeten Rechenaufwand, gemessen im Gleitkommabetrieb, einem Maß für die Computerleistung, größer als 10~26.

Die Kommission wäre befugt, sekundäre Rechtsvorschriften zu erlassen, um technische Elemente von GPAI-Modellen weiter zu spezifizieren und die Benchmarks mit der Markt- und Technologieentwicklung auf dem neuesten Stand zu halten.

Die Ko-Berichterstatter äußerten sich dazu und fragten, ob die Kommission damit beauftragt werden könne, die Definition von GPAI-Modellen zu aktualisieren und zusätzliche Formulierungen vorzuschlagen, die die EU-Exekutive dazu verpflichten, innerhalb von 18 Monaten nach Inkrafttreten der Verordnung eine Methodik zur Bewertung der Rechentrainingsfähigkeiten zu entwickeln.

Ähnlich wie beim Digital Services Act sollten die GPAI-Modellanbieter, die diesen Schwellenwert erreichen, die Kommission benachrichtigen. Allerdings sieht der Text die Möglichkeit für die Anbieter vor, eine Ausnahme zu beantragen, mit der Begründung, ihr Modell verfüge nicht über Grenztauglichkeit – eine Regelung, die die Ko-Berichterstatter offenbar für unnötig halten.

Die Kommission könnte auch aus eigener Initiative GPAI-Modelle benennen, die systemische Risiken darstellen.

Pflichten für GPAI-Modelle

Der Text enthält einige horizontale Verpflichtungen für alle GPAI-Modelle, die eine aktuelle technische Dokumentation durch Modellkarten erfordern würden – ein Vorschlag, der auch im französisch-deutsch-italienischen Non-Paper enthalten ist.

Die Modellkarten würden Informationen zum Trainingsprozess, Bewertungsstrategien und ausreichende Informationen für nachgelagerte Wirtschaftsakteure enthalten, die auf dem Modell ein neues KI-System aufbauen möchten, um dem KI-Gesetz zu entsprechen. Eine Mindestanzahl an Elementen ist in einem Anhang aufgeführt.

Zum Urheberrecht heißt es im Text lediglich, dass die Modellanbieter eine Richtlinie zur Einhaltung der Urheberrechtsrichtlinie, insbesondere des Rechtsvorbehalts, umsetzen müssen. Es müsste eine „ausreichend detaillierte Zusammenfassung“ der zum Trainieren des Modells eingespeisten Inhalte veröffentlicht werden.

Synthetisch generierte Inhalte wie Texte und Bilder müssen in maschinenlesbarer Form gekennzeichnet und als künstlich generiert oder manipuliert erkennbar sein.

Pflichten für GPAI-Modelle mit systemischen Risiken

Zu den weiteren Anforderungen an die Modelle mit systemischen Risiken gehören die Festlegung interner Maßnahmen und die Zusammenarbeit mit der Kommission zur Ermittlung potenzieller systemischer Risiken und zur Entwicklung möglicher Abhilfemaßnahmen, unter anderem durch einen Verhaltenskodex im Einklang mit internationalen Ansätzen.

Diese Anbieter müssten außerdem alle schwerwiegenden Vorkommnisse und entsprechende Korrekturmaßnahmen im Auge behalten und diese gegebenenfalls unverzüglich der Kommission oder den nationalen Behörden melden.

Verhaltenskodizes

Ein neuer Artikel ist den Verhaltenskodizes gewidmet, deren Ausarbeitung die EU-Exekutive erleichtern sollte – was eine Antwort auf das von Frankreich angeführte Non-Paper zu sein scheint, in dem Verhaltenskodizes im Einklang mit den im Rahmen des Hiroshima-Prozesses der G7 aufgestellten Grundsätzen gefordert wurden.

Die Verhaltenskodizes sollten mindestens die Transparenzpflichten für alle GPAI-Modelle abdecken, wie z. B. Modellkarten und Zusammenfassungsvorlagen, die Identifizierung systemischer Risiken auf EU-Ebene sowie die Risikobewertung und Risikominderungsmaßnahmen – einschließlich einer möglichen Ausbreitung entlang der Wertschöpfungskette.

Bei der Ausarbeitung der Verhaltenskodizes würden die relevanten GPAI-Modellanbieter und nationalen Behörden mit Unterstützung der Zivilgesellschaft und anderer Interessengruppen einbezogen. Die Kodizes sollten wichtige Leistungsindikatoren und eine regelmäßige Berichterstattung über die Umsetzung der Verpflichtungen umfassen.

Die Kommission könnte einen Verhaltenskodex genehmigen, von dem angenommen wird, dass er zur Anwendung des KI-Gesetzes beiträgt, was dazu führt, dass die beitretenden Mitglieder davon ausgehen, dass sie die Verpflichtungen der Verordnung einhalten. Mögliche Sanktionen erwähnt der Text nicht.

[Edited by Nathalie Weatherald]

Lesen Sie mehr mit EURACTIV


source site

Leave a Reply