Das EU-KI-Gesetz wird nicht zukunftssicher sein, es sei denn, es reguliert Allzweck-KI-Systeme – EURACTIV.com

Der ursprüngliche Ausschluss von Mehrzwecksystemen mit künstlicher Intelligenz (KI) aus den von der EU vorgeschlagenen KI-Gesetz, veröffentlicht im April 2021, riskiert, die Grundrechte und die Sicherheit zu gefährden. Während der erste Teilkompromißtext eine eingeführt hat Artikel bei Allzweck-KI-Systemen geht es immer noch nicht um die Schäden, die sich aus diesen Systemen ergeben, schreibt Kris Shrishak.

Kris Shrishak ist Technology Fellow beim Irish Council for Civil Liberties.

Risto Uuk ist Politikforscher am Future of Life Institute.

Sie haben vielleicht gehört, dass Meta, früher bekannt als Facebook, kürzlich ein großes Sprachmodell veröffentlicht hat, mit dem jeder Forscher experimentieren kann. Meta gibt zu dass dieses System eine hohe Neigung hat, giftige Sprache zu erzeugen und schädliche Stereotypen zu verstärken. Und doch wird im kommenden KI-Gesetz die gesamte Verantwortung für die Gewährleistung der Sicherheit solcher Systeme, die auch als Allzweck-KI-Systeme bezeichnet werden, den Benutzern übertragen.

Allzweck-KI-Systeme sind Systeme, die eine Vielzahl von Funktionen ausführen können. Dazu gehören, ohne darauf beschränkt zu sein, Bild- oder Spracherkennung, Audio- oder Videoerzeugung, Mustererkennung, Fragenbeantwortung und Übersetzung.

Dadurch können die Systeme für eine Vielzahl spezialisierter Anwendungen wie Chatbots, Anzeigengenerierungssysteme, Entscheidungsassistenten und Spambots eingesetzt werden. Tatsächlich haben diese Systeme so viele potenzielle Verwendungen, dass die meisten noch entdeckt werden müssen, und während viele von ihnen den Benutzern Vorteile bringen, sind einige mit hohem Risiko verbunden und müssen daher möglicherweise verboten werden.

Einige dieser Systeme haben sich bereits verbreitet extremistische Inhalteausgestellt Anti-muslimische Voreingenommenheitund versehentlich aufgedeckt persönliche Daten. Ein Chatbot, der auf einem Allzweck-KI-System basiert, hat beispielsweise jemanden dazu ermutigt Selbstmord begehen.

Angesichts der Tatsache, dass Allzweck-KI-Systeme im Guten wie im Schlechten wahrscheinlich die Zukunft der KI sein werden, werden wir zwangsläufig mehr Vorfälle wie diese sehen.

Die Pflichten von Allzweck-KI-Systemanbietern sollten in erster Linie auf die Entwickler fallen. Anstatt zu empfehlen, dass die Entwickler von Allzweck-KI-Systemen rechtlich für die Gewährleistung ihrer Sicherheit verantwortlich sind, weist der vom Rat vorgeschlagene Artikel jedoch die gesamte Verantwortung den Benutzern zu.

Wenn beispielsweise eine Abteilung in der belgischen Regierung ein Allzweck-KI-System verwendet, um wesentliche öffentliche Dienstleistungen zu erbringen, ist sie allein für das Verhalten des Chatbots verantwortlich, obwohl sie fast keine Kontrolle über die Fehler und Vorurteile hat, die er möglicherweise aufweist.

Dies schafft eine Reihe von Problemen. Viele Data-Governance-Anforderungen, insbesondere Bias-Überwachung, -Erkennung und -Korrektur, erfordern den Zugriff auf die Datensätze, auf denen KI-Systeme trainiert werden.

Diese Datensätze sind jedoch im Besitz der Entwickler und nicht des Nutzers, der das Allzweck-KI-System „für einen vorgesehenen Zweck in Betrieb“ nimmt. Für Benutzer dieser Systeme wird es daher einfach nicht möglich sein, diese Data-Governance-Anforderungen zu erfüllen.

Darüber hinaus wird es für kleine europäische Unternehmen kostengünstiger und weniger belastend sein, wenn die Entwickler von Allzweck-KI-Systemen (von denen sich die meisten außerhalb der EU befinden) verpflichtet sind, die gesetzlichen Verpflichtungen einzuhalten und ihre Systeme danach zu überwachen zum Einsatz kommen. Nur wenige Unternehmen können es sich leisten, Milliarden von Dollar oder Euro für die Entwicklung von Allzweck-KI-Systemen auszugeben, da dieser Prozess einen enormen Rechenaufwand erfordert.

Im Gegensatz, Hunderte von Unternehmen (darunter viele KMU) verwenden Allzweck-KI-Systeme. Die Regulierung bestimmter Anwendungsfälle, wenn viele von ihnen auf nur einer Handvoll Allzweck-KI-Systemen basieren, ist nicht kosteneffektiv.

Entwickler von Allzweck-KI-Systemen sollten in dieser Gesetzgebung als Anbieter behandelt werden, während Unternehmen, die diese Systeme für bestimmte Anwendungen verwenden, genau als Nutzer behandelt werden sollten. Das Kürzliche Bericht aus den beiden führenden Ausschüssen des Europäischen Parlaments vermag dies ebenfalls nicht zu klären. Wir empfehlen, dass die Europäische Union die Verantwortung ausdrücklich den Entwicklern von Allzweck-KI-Systemen zuweist.

Alle Allzweck-KI-Systeme sollten gründlich bewertet werden, bevor sie auf den Markt gebracht werden, und danach kontinuierlich überwacht werden.

Nur eine Handvoll Allzweck-KI-Systeme werden die Quellen von Fehlern und Verzerrungen in Hunderten von Spezialanwendungen sein. Denn ein einziges Allzweck-KI-System, etwa zur Sprachverarbeitung wie das von Meta, kann als Grundlage für viele weitere, auf den Kunden zugeschnittene Systeme dienen.

Fehler und Vorurteile in einem solchen System könnten Medienartikel, Bildungsmaterialien und Chatbots sowie andere Bereiche betreffen, die nur entdeckt würden, wenn kleine europäische Unternehmen mit diesen Systemen experimentieren. Aus diesem Grund sollten alle Allzweck-KI-Systeme gründlich bewertet werden, bevor sie auf den Markt gebracht werden, und danach kontinuierlich überwacht werden.

Darüber hinaus haben Allzweck-KI-Systeme viele verschiedene Verwendungszwecke, deren Sicherheit nicht durch die Regulierung des Benutzers allein gewährleistet ist. Fehler und Verzerrungen im System führen zu erheblichen nachgelagerten Schäden, da der Benutzer nicht über die erforderlichen Ressourcen, den erforderlichen Zugriff und die Fähigkeit verfügt, die Sicherheit zu gewährleisten.

Um mit unserem früheren Beispiel fortzufahren: Eine Abteilung in der belgischen Regierung, die ein Allzweck-KI-System ohne Zugang zu ausreichenden Rechenressourcen, Datensätzen und dem Verständnis des Designs dieser Systeme verwendet, wird zur Verantwortung gezogen, ist aber nicht in der Lage, die Sicherheit zu gewährleisten .

Vor allem empfehlen wir den Entwicklern, sicherzustellen, dass ihre Allzweck-KI-Systeme die Anforderungen erfüllen, die im Vorschlag für ein KI-Gesetz für KI-Systeme mit hohem Risiko festgelegt sind. Darüber hinaus sollten die Entwickler und Benutzer regelmäßig bewerten, ob diese KI-Systeme neue Risiken aufweisen, einschließlich derer, die bei der Untersuchung neuer Anwendungsfälle entdeckt wurden. Die Entwickler sollten auch ihre Allzweck-KI-Systeme zusammen mit der Benutzerliste in der EU-Datenbank registrieren.

Nur mit all diesen Änderungen können wir das KI-Gesetz zukunftsfähig machen.


source site