Die inoffizielle Position der USA zu den bevorstehenden EU-Vorschriften für künstliche Intelligenz – EURACTIV.com

Die Vereinigten Staaten drängen auf eine engere Definition der künstlichen Intelligenz, eine breitere Ausnahme für allgemeine KI und eine individualisierte Risikobewertung im KI-Gesetz, so ein Dokument, das EURACTIV vorliegt.

Das Non-Paper ist vom Oktober 2022 datiert und wurde gezielt an Regierungsbeamte in einigen EU-Hauptstädten und an die Europäische Kommission verschickt. Er folgt einem Großteil der Ideen und Formulierungen des ersten Feedbacks, das im vergangenen März an die EU-Gesetzgeber gesendet wurde.

„Viele unserer Kommentare sind auf unsere wachsende Zusammenarbeit in diesem Bereich im Rahmen des US-EU Trade and Technology Council (TTC) und Bedenken darüber zurückzuführen, ob das vorgeschlagene Gesetz die weitere Zusammenarbeit unterstützen oder einschränken wird“, heißt es in dem Dokument.

Das Dokument ist eine Reaktion auf die Fortschritte, die die tschechische EU-Ratspräsidentschaft im vergangenen Monat bei der KI-Verordnung erzielt hat. Ein Sprecher der US-Vertretung bei der Europäischen Union lehnte die Bitte von EURACTIV um Stellungnahme ab.

KI-Definition

Während die Amerikaner ihre Unterstützung für die Änderungen zeigten, die die tschechische Ratspräsidentschaft vorgenommen hat, um die Definition der künstlichen Intelligenz zu präzisieren, warnten sie davor, dass die Definition „immer noch Systeme umfasst, die nicht ausgereift genug sind, um besondere Aufmerksamkeit im Rahmen der KI-fokussierten Gesetzgebung zu verdienen, wie z. B. handgefertigte Regeln -basierte Systeme.“

Um eine übermäßige Inklusion zu vermeiden, schlägt das Non-Paper vor, eine engere Definition zu verwenden, die den Geist der Definition der Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD) aufgreift und klarstellt, was eingeschlossen ist und was nicht.

Allzweck-KI

Das Non-Paper empfiehlt unterschiedliche Haftungsregeln für die Anbieter von Allzweck-KI-Systemen, großen Modellen, die an verschiedene Aufgaben angepasst werden können, und den Benutzern solcher Modelle, die sie möglicherweise für Anwendungen mit hohem Risiko einsetzen.

Der tschechische Ratsvorsitz schlug vor, dass die Kommission die Verpflichtungen der KI-Verordnung zu einem späteren Zeitpunkt über einen Durchführungsrechtsakt an die Besonderheiten der Allzweck-KI anpassen sollte.

Im Gegensatz dazu warnt die US-Regierung, dass sich die Auferlegung von Risikomanagement-Verpflichtungen für diese Anbieter als „sehr aufwändig, technisch schwierig und in einigen Fällen unmöglich“ erweisen könnte.

Darüber hinaus widerspricht das Non-Paper der Vorstellung, dass Allzweck-KI-Anbieter mit ihren Nutzern zusammenarbeiten müssten, um ihnen bei der Einhaltung des KI-Gesetzes zu helfen, einschließlich der Offenlegung vertraulicher Geschäftsinformationen oder Geschäftsgeheimnisse, wenn auch mit angemessenen Sicherheitsvorkehrungen.

Die führenden Anbieter von Allzweck-KI-Systemen sind große amerikanische Unternehmen wie Microsoft und IBM.

Systeme mit hohem Risiko

Bei der Einstufung eines Anwendungsfalls als Hochrisiko plädierte die US-Regierung für eine individuellere Risikobewertung, die Bedrohungsquellen, Schwachstellen, das wahrscheinliche Auftreten des Schadens und seine Bedeutung berücksichtigen sollte.

Menschenrechte hingegen sind nur in bestimmten Kontexten zu beurteilen. Sie plädierten auch für einen Beschwerdemechanismus für Unternehmen, die glauben, dass sie fälschlicherweise als risikoreich eingestuft wurden.

Für die internationale Zusammenarbeit möchte Washington, dass die Standards des National Institute of Standards and Technology (NIST) eine Alternative zu den in der KI-Verordnung vorgeschriebenen Selbsteinschätzungen sein können.

In dem Non-Paper heißt es auch, dass „in Bereichen, die nach dem Gesetz als „hohes Risiko“ gelten, viele US-Regierungsbehörden wahrscheinlich aufhören werden, Informationen zu teilen, anstatt zu riskieren, dass streng geheime Methoden weiter verbreitet werden, als ihnen lieb ist“.

Während das Dokument den Ansatz der tschechischen Ratspräsidentschaft unterstützt, eine zusätzliche Ebene für die Klassifizierung von Systemen mit hohem Risiko hinzuzufügen, warnt es auch davor, dass es zu Unstimmigkeiten mit dem Regulierungssystem der Medizinprodukteverordnung kommen könnte.

Führung

Die Vereinigten Staaten drängen auf eine wichtigere Rolle des KI-Ausschusses, der die zuständigen nationalen Behörden der EU zusammenfasst, im Vergleich zu den Behörden der einzelnen Länder. Sie schlagen auch eine ständige Untergruppe innerhalb des Vorstands mit Interessenvertretern vor.

Da der Vorstand für die Beratung zu technischen Spezifikationen, harmonisierten Normen und der Entwicklung von Richtlinien zuständig sein wird, wünscht sich Washington zumindest in dieser Untergruppe eine Formulierung, die Vertreter gleichgesinnter Länder zulässt.

Die Europäische Kommission verschließt den Nicht-EU-Ländern zunehmend die Tür zur Standardentwicklung, während die USA auf mehr bilaterale Zusammenarbeit drängen.

Internationale Kooperation

Dem Non-Paper zufolge könnte die Verordnung die Zusammenarbeit mit Drittländern verhindern, da sie Behörden außerhalb der EU abdeckt, die sich auf den Block auswirken, es sei denn, es gibt ein internationales Abkommen über die Strafverfolgung und justizielle Zusammenarbeit.

Die Sorge ist, dass die US-Regierung die Zusammenarbeit mit den EU-Behörden für das Grenzkontrollmanagement einstellen könnte, das das AI-Gesetz als von der Strafverfolgung getrennt betrachtet.

Ein weiterer angesprochener Punkt ist, dass der Verweis auf „Vereinbarungen“ als zu eng empfunden wird, da es Jahre dauern könnte, bis verbindliche Vereinbarungen über die KI-Zusammenarbeit abgeschlossen werden. Auch die bestehende Zusammenarbeit bei der Strafverfolgung könnte darunter leiden, da sie auch außerhalb formeller Vereinbarungen stattfindet.

Darüber hinaus schlägt das Non-Paper eine flexiblere Ausnahme für den Einsatz biometrischer Erkennungstechnologien in Fällen vor, in denen eine „glaubwürdige“ Bedrohung wie etwa ein Terroranschlag besteht, da eine strenge Formulierung die praktische Zusammenarbeit zur Gewährleistung der Sicherheit öffentlicher Großveranstaltungen verhindern könnte .

Quellcode

Im Mai schloss die französische Ratspräsidentschaft die Möglichkeit für Marktüberwachungsbehörden ein, uneingeschränkten Zugang zum Quellcode von Systemen mit hohem Risiko zu erhalten, wenn dies „notwendig“ ist, um ihre Konformität mit dem KI-Regelwerk zu bewerten.

Was „notwendig“ ist, muss für Washington besser definiert werden, eine Liste transparenter Kriterien sollte angewendet werden, um subjektive und widersprüchliche Entscheidungen in der gesamten EU zu vermeiden, und das Unternehmen sollte die Möglichkeit haben, gegen die Entscheidung Berufung einzulegen.

[Edited by Nathalie Weatherald]


source site

Leave a Reply