Die Abgeordneten schließen sich zusammen und fordern strengere Regeln für leistungsstarke KI-Modelle – EURACTIV.com

Die an den Verhandlungen über das KI-Regelwerk der EU beteiligten Europaabgeordneten haben am Freitag (23. November) ein Arbeitspapier verteilt, in dem sie ihren vorgeschlagenen Ansatz zur Regulierung der leistungsstärksten Modelle der künstlichen Intelligenz detailliert beschreiben.

Das KI-Gesetz, ein bahnbrechender Gesetzentwurf zur Regulierung von KI auf der Grundlage ihres Schadenspotenzials, befindet sich in der letzten Phase des Gesetzgebungsprozesses. EU-Kommission, Parlament und Rat sind in „Trilogen“ zusammengekommen, um die endgültigen Bestimmungen auszuarbeiten.

In dieser späten Phase der Verhandlungen streiten sich die politischen Entscheidungsträger der EU über den Ansatz für Basismodelle, leistungsstarke Arten von KI wie OpenAIs GPT-4, der den berühmtesten Chatbot der Welt, ChatGPT, antreibt.

Bei einem politischen Trilog Mitte Oktober schien es einen Konsens über einen abgestuften Ansatz zu geben, mit horizontalen Verpflichtungen für alle Stiftungsmodelle und zusätzlichen Anforderungen für die Modelle, von denen angenommen wird, dass sie ein systemisches Risiko für die Gesellschaft darstellen.

Vor zwei Wochen berichtete Euractiv jedoch, dass das weltweit erste umfassende KI-Gesetz in Gefahr sei, nachdem sich Frankreich, Deutschland und Italien jeglicher Verpflichtung zu Stiftungsmodellen widersetzten, was das Parlament dazu veranlasste, den Verhandlungstisch zu verlassen.

Die drei größten Volkswirtschaften Europas teilten daher ihre Ansichten in einem Non-Paper mit, in dem sie dafür plädierten, vom technologieneutralen und risikobasierten Ansatz des KI-Gesetzes abzuweichen und stattdessen Verhaltenskodizes einzuführen.

Am Montag enthüllte Euractiv einen Kompromisstext der Europäischen Kommission, der versucht, den abgestuften Ansatz mit abgeschwächten Transparenzpflichten für alle Stiftungsmodelle und Verhaltenskodizes für diejenigen mit systemischem Risiko wiederzubeleben.

Der überarbeitete abgestufte Ansatz wurde auf internen Ratssitzungen am Mittwoch und Donnerstag diskutiert, wobei Frankreich weiterhin skeptisch blieb und Deutschland und Italien eine weniger kompromisslose Haltung zeigten.

Die meisten Mitgliedstaaten betrachteten den Text der Kommission als einen Schritt in die richtige Richtung, obwohl es weiterhin Vorbehalte hinsichtlich der Definitionen und der weit gefassten Formulierungen im Zusammenhang mit dem Sekundärrecht gab.

Allerdings hat es der Vermittlungsversuch der EU-Exekutive schwerer, im Europäischen Parlament akzeptiert zu werden, das den abgestuften Ansatz bereits als einen abgeschwächten Kompromiss ansah, sich aber schließlich dem Prinzip einer stärkeren Konzentration auf die folgenreichsten Modelle zuwandte.

„Im Parlament gibt es eine eindeutige Mehrheitsposition, die vielleicht begrenzte, aber klare Verpflichtungen für die Entwickler der leistungsstärksten Modelle fordert“, sagte Brando Benifei, einer der Europaabgeordneten, die das Dossier anführten, gegenüber ANSA und warnte, dass sonst keine politische Einigung möglich sei gefunden werden.

Das Thema sollte am Freitag in einem technischen Trilog besprochen werden. Die Diskussion wurde jedoch auf Montag verschoben, da die spanische Präsidentschaft der Ansicht war, dass sie noch kein Verhandlungsmandat habe.

Unterdessen haben die in diesem Dossier federführenden Abgeordneten ihren Kollegen ein von Euractiv eingesehenes Arbeitspapier vorgelegt, das eine Reihe verbindlicher Verpflichtungen für Anbieter von Stiftungsmodellen festlegt, die ein systemisches Risiko darstellen.

Zu den Verpflichtungen gehören interne Evaluierungen und Tests, einschließlich Red-Team-Bewertungen, Cybersicherheitsmaßnahmen, technische Dokumentation und Energieeffizienzstandards.

„Für das Parlament ist es wichtig zu betonen, dass diese Verpflichtungen nur für den ursprünglichen Entwickler der designierten Modelle der Systemrisikokategorie (d. h. OpenAI, Anthropic, StabilityAI, Meta) gelten würden, nicht aber für die nachgelagerten Entwickler, die das Modell überarbeiten oder verfeinern.“ “ heißt es in dem Dokument.

Das KI-Büro wäre dann in der Lage, die technische Dokumentation und Modellbewertung zu überprüfen und Sanktionen zu verhängen, falls gegen die Anforderungen der Verordnung verstoßen wird.

Die beiden Lagerparteien befürworten diese verbindlichen Anforderungen, denn auch der konservative Europaabgeordnete Axel Voss bezeichnete einen inakzeptablen Ansatz, der ausschließlich auf Selbstverpflichtungen beruhte, und erklärte, dass Mindeststandards Transparenz, Cybersicherheit und Informationspflichten abdecken sollten.

„Wir können unsere Augen nicht vor den Risiken verschließen“ sagte er auf X.

Das Parlament möchte die horizontalen Transparenzanforderungen beibehalten, zu denen die Bereitstellung von Modellkarten mit detaillierten Angaben zum Schulungsprozess und allen relevanten Informationen gehört, um den Verpflichtungen des KI-Gesetzes für nachgelagerte Wirtschaftsteilnehmer nachzukommen, die ein KI-System auf dem Modell aufbauen.

Die grüne Abgeordnete Kim Van Sparrentak sagte gegenüber Contexte, der französisch-deutsch-italienische Ansatz sei „absurd“ und wies darauf hin, dass diese Argumentation mit der von Big-Tech-Unternehmen identisch sei und dass unverbindliche Initiativen in der Vergangenheit kaum Ergebnisse gebracht hätten.

In dem Arbeitspapier akzeptieren die Parlamentarier die Idee von EU-Verhaltenskodizes, allerdings nur als Ergänzung zu den horizontalen Transparenzanforderungen für alle Stiftungsmodelle und könnten beispielsweise zur Festlegung der Best Practices der Branche bei der Risikobewertung genutzt werden.

Darüber hinaus wollen die Abgeordneten den Entwurfsprozess dieser Verhaltenskodizes auf KMU, die Zivilgesellschaft und die Wissenschaft ausweiten, ein Grundsatz, der aus der Ratsversion des Kommissionskompromisses gestrichen wurde.

In Bezug auf die Frage, wo die Grenze bei Modellen zu ziehen ist, von denen angenommen wird, dass sie ein systemisches Risiko aufweisen, wird in dem Arbeitspapier dargelegt, dass die EU-Gesetzgeber sich nicht mit einem einzigen quantitativen Schwellenwert zufrieden geben, der auf dem von der Kommission vorgeschlagenen Rechenaufwand für das Training eines Modells basiert.

Nach einer Einschätzung von Forschern der Stanford University möchte das Parlament, dass die Benennung auf mehreren Kriterien wie den Fähigkeiten des Modells, der Anzahl der Benutzer, der finanziellen Investition, den Modalitäten und den Freigabestrategien basiert.

Die Idee besteht darin, dem KI-Büro einen Ermessensspielraum bei der Beurteilung zu geben, ob ein Modell ein systemisches Risiko für die Gesellschaft auf der Grundlage dieser voreingestellten Kriterienliste darstellt, die überarbeitet werden kann, um mit den Markt- und Technologieentwicklungen Schritt zu halten.

„Wir brauchen Schutzmaßnahmen für diese Modelle wegen ihrer Auswirkungen, wegen ihrer Vielseitigkeit und der Tatsache, dass wir sie bald in vielen Produkten und Dienstleistungen um uns herum finden werden.“ sagte Mitberichterstatter des Parlaments Dragoș Tudorache.

[Edited by Alice Taylor]

Lesen Sie mehr mit EURACTIV


source site

Leave a Reply