EU-Politiker betreten die letzte Meile für das Regelwerk zur künstlichen Intelligenz – EURACTIV.com

Das weltweit erste umfassende KI-Gesetz geht in die möglicherweise letzten Wochen intensiver Verhandlungen. Allerdings müssen die EU-Institutionen ihren Ansatz für die wirksamsten „Stiftungsmodelle“ und die Bestimmungen im Bereich der Strafverfolgung noch ausarbeiten.

Aus dem hochrangigen Treffen zwischen EU-Rat, Parlament und Kommission kam kein weißer Rauch. Die interinstitutionellen Verhandlungen – oder Trilog, wie es im EU-Jargon genannt wird – begannen am Dienstagabend (24. Oktober) und zogen sich bis in die frühen Morgenstunden des Mittwochs.

Die politischen Entscheidungsträger der EU einigten sich auf die Bestimmungen zur Klassifizierung von KI-Anwendungen mit hohem Risiko und gaben allgemeine Hinweise zum Umgang mit leistungsstarken Stiftungsmodellen und zu der Frage, wer sie beaufsichtigen sollte, kratzten jedoch kaum an der Oberfläche, was Verbote und Strafverfolgung betrifft.

Alle Augen sind nun auf den nächsten Trilog am 6. Dezember gerichtet, bei dem eine politische Einigung erwartet, aber nicht garantiert wird. Mittlerweile sind neun technische Treffen geplant, um den Text zu einigen der komplexesten und folgenreichsten Aspekte des KI-Gesetzes festzulegen.

Klassifizierungsregeln für KI-Systeme mit hohem Risiko

Das KI-Gesetz verfolgt einen risikobasierten Ansatz, bei dem die KI-Modelle, die ein erhebliches Risiko für die Gesundheit, Sicherheit und Grundrechte der Menschen darstellen können, strengen Verpflichtungen wie Risikomanagement und Datenverwaltung entsprechen müssen.

Im ursprünglichen Vorschlag wurden alle KI-Lösungen, die in eine vorab festgelegte Liste kritischer Anwendungsfälle fallen, als hochriskant eingestuft. Beim vorherigen Trilog am 2. Oktober wurde jedoch ein mögliches Filtersystem auf den Tisch gelegt, das es KI-Entwicklern ermöglicht, von dieser strengeren Regelung ausgenommen zu werden.

Die Kriterien wurden einer erheblichen Feinabstimmung und einer negativen rechtlichen Prüfung durch das Büro des Europäischen Parlaments unterzogen. Dennoch stimmt der vereinbarte Text größtenteils mit dem Text überein, über den Euractiv zuvor berichtet hatte.

Die einzige Ausnahmebedingung, die geändert wurde, bezieht sich auf die Erkennung von Abweichungen von Entscheidungsmustern, mit der Präzisierung, dass das KI-System „nicht dazu bestimmt sein darf, die zuvor durchgeführte menschliche Bewertung ohne ordnungsgemäße menschliche Überprüfung zu ersetzen oder zu beeinflussen“. ”

In dem aus dem letzten Trilog resultierenden Text wird die Kommission damit beauftragt, eine umfassende Liste praktischer Beispiele für Anwendungsfälle mit hohem und ohne hohem Risiko zu erstellen. Die Bedingungen, unter denen die EU-Exekutive die Ausnahmebedingungen ändern kann, werden von den Juristen-Übersetzern noch verfeinert.

In einem von Euractiv eingesehenen Entwurf wird die Kommission nur dann neue Filter hinzufügen können, wenn es konkrete und verlässliche Beweise dafür gibt, dass KI-Systeme in die Hochrisikokategorie fallen, ohne ein erhebliches Risiko für Menschen darzustellen.

Umgekehrt wird die EU-Exekutive die Kriterien nur dann streichen können, wenn dies zur Aufrechterhaltung des gleichen Schutzniveaus in der EU erforderlich ist.

Foundation-Modelle

Die kapillare Verbreitung von ChatGPT, einem Chatbot, der auf GPT-3.5 und GPT-4 von OpenAI basiert, störte die Verhandlungen über das KI-Gesetz und zwang die politischen Entscheidungsträger, herauszufinden, wie sie mit diesen leistungsstarken Modellen umgehen sollen.

Letzte Woche berichtete Euractiv, dass der Ansatz auf mehreren Ebenen basiere. Die Idee besteht darin, horizontale Verpflichtungen für alle Grundmodelle vorzusehen, nämlich Transparenz und Unterstützung nachgelagerter Wirtschaftsakteure bei der Einhaltung der KI-Verordnung.

Der abgestufte Ansatz scheint breite Unterstützung zu finden, aber die Hauptfrage ist, wie die oberste Stufe der „sehr leistungsfähigen“ Stiftungsmodelle wie GPT-4 definiert werden kann, die einer Ex-ante-Überprüfung und Risikominderungsmaßnahmen unterliegen.

Die Terminologie könnte sich auf „High-Impact“-Modelle verschieben, um den Fokus auf die systemischen Risiken zu verdeutlichen, die diese Modelle mit sich bringen können. Die allgemeine Vereinbarung besteht darin, mehrere Kriterien zu entwickeln, anhand derer ein Stiftungsmodell als „hochwirksam“ eingestuft werden kann.

Mögliche Kriterien, die im Umlauf sind, betreffen die Rechenleistung, die Menge an Trainingsdaten und die wirtschaftlichen Ressourcen der KI-Anbieter. Bedenken beziehen sich jedoch hauptsächlich darauf, wie dieser Ansatz für einen sich rasant verändernden Markt zukunftssicher gemacht werden kann.

Auch Forscher führender Universitäten wie Stanford beraten zu diesem Thema. Es wird erwartet, dass die EU-Verhandlungsführer in den kommenden Tagen neue Entwürfe ausarbeiten und diesen Ansatz schwarz auf weiß festhalten.

Im Hinblick auf die Governance besteht zunehmend Konsens darüber, dass die Durchsetzung von KI-Modellen, die systemische Risiken bergen, zentralisiert werden sollte, ähnlich wie im Digital Services Act (DSA).

Dies wird eine der Hauptaufgaben des AI-Büros sein, das der Kommission unterstellt sein wird, jedoch „funktionale Unabhängigkeit“ besitzt. Ebenfalls im Anschluss an das DSA hat die Kommission die Einführung einer Verwaltungsgebühr zur Finanzierung des neuen Personalbedarfs vorgeschlagen.

Allerdings stehen die Abgeordneten der Verwaltungsgebühr skeptisch gegenüber und halten die Parallelität zum DSA, das sich auf Dienstleistungen konzentriert – während das AI-Gesetz sich an der Produktsicherheitsgesetzgebung orientiert – in diesem Fall nicht für anwendbar.

Verbote und Strafverfolgung

Das Kapitel, in dem es darum geht, welche KI-Anwendungen verboten werden sollten und welche Ausnahmen den Strafverfolgungsbehörden vorbehalten bleiben sollten, ist dort, wo die Unterschiede zwischen den EU-Ländern und den Europaabgeordneten weiter auseinander liegen, und könnte zu einem Knaller werden, da beide Institutionen in ihren Positionen äußerst starr sind.

Das Einzige, was aus dem letzten Trilog klar hervorging, war, dass die Verhandlungsführer verschiedene Aspekte prüfen, um ein Paket zu schnüren, das die Verbote, Ausnahmen für die Strafverfolgung, die Folgenabschätzung für Grundrechte und Umweltbestimmungen zusammenfasst.

[Edited by Nathalie Weatherald]

Lesen Sie mehr mit EURACTIV


source site

Leave a Reply