Das Standardisierungsgremium fordert eine KI-Definition und -Kategorisierung als Standard – EURACTIV.com

Das European Telecommunications Standards Institute (ETSI) schlug in einem Schreiben an die Europäische Kommission, das EURACTIV erhalten hat, vor, die Definition von KI und die Kategorisierung von Anwendungen mit hohem Risiko technischen Standards zu überlassen.

ETSI ist eine der drei europäischen Normungsorganisationen, die einen Entwurf einer Normungsanfrage von der Europäischen Kommission erhalten haben, um die Anforderungen des Gesetzes über künstliche Intelligenz (KI) umzusetzen.

„Die EG [European Commission] hat im Rahmen des Entwurfs des KI-Gesetzes eine hervorragende Reihe von Einschränkungen auf hoher Ebene und von oben nach unten entworfen, um sicherzustellen, dass KI sicher ist, und um die digitale Transformation der EU zu erleichtern. ETSI freut sich, gebeten worden zu sein, den Entwurf des Standardisierungsantrags zu kommentieren“, heißt es in dem Schreiben.

Standardisierungsgremien wurde vorgeworfen, undurchsichtige Institutionen mit geringer Vertretung der Zivilgesellschaft zu sein, insbesondere da sie definieren, wie die KI-Regeln in der Praxis funktionieren werden.

Die Antwort von ETSI auf die Anfrage der Kommission, die EURACTIV erhalten hat, soll einerseits diese Bedenken ausräumen, andererseits aber auch weitere Impulse geben.

Umfang und Ablauf

Das Standardisierungsgremium stellt fest, dass viele Aspekte der KI-Standards Auswirkungen auf Sicherheit und Menschenrechte haben werden. Daher wäre es unerlässlich, gesellschaftliche Akteure einzubeziehen, um ihre Ansichten über eine sogenannte „Rückkopplungsschleife“ systematisch in den Prozess einfließen zu lassen.

Gleichzeitig wird in der Antwort betont, dass die Definitionen die meisten Bereiche abdecken, da die Rechtsvorschriften horizontal sind; Daher müssen die Normungsgremien sicherstellen, dass sie über die technischen Normen hinweg konsistent sind.

Daher empfiehlt ETSI, dass die Standardisierungsorganisationen auch beauftragt werden, einen technischen Standard für die Begriffe und Definitionen zu entwickeln, beginnend mit, aber nicht beschränkt auf das KI-Gesetz.

Um Konsistenz zu gewährleisten, würden diese Definitionen alle drei Monate mit den anderen harmonisierten Standards unter dem KI-Gesetz gestrafft.

Die Definition von KI ist derzeit einer der umstrittensten Punkte der politischen Diskussionen sowohl im EU-Parlament als auch im Rat, die dann ins Leere laufen würden.

Für Kris Shrishak, Technology Fellow beim Irish Council for Civil Liberties (ICCL), wäre es undemokratisch, eine politische Entscheidung an technische Gremien zu delegieren.

Das Papier stellt fest, dass die Liefertermine sehr ehrgeizig seien, „wenn man beispielsweise bedenkt, dass zahlreiche Experten festgestellt haben, dass sich grundlegende Aspekte der Überprüfung von Transparenz, Zuverlässigkeit usw. noch in der Forschungsphase befinden“, Verpflichtung, die Arbeit so weit wie möglich zu unterstützen .

Risikomanagement

ETSI weist darauf hin, dass es einen vermeintlichen oder tatsächlichen Widerspruch zwischen der vertikalen Gesetzgebung in Sektoren wie Gesundheit oder Landwirtschaft und den horizontalen Anforderungen des KI-Gesetzes geben könnte. Dennoch sollte es möglich sein, bestehende Zuverlässigkeitsstandards auf KI im Großen und Ganzen anzuwenden.

Die Herausforderung besteht jedoch darin, dass es keine a priori Möglichkeit gibt, ein KI-System einer bestimmten Risikokategorie zuzuordnen, die von den konkreten Anwendungsfällen abhängt. „A priori zu kategorisieren ist nicht die Aufgabe des Normgebers. ABER das Standardisierungsgremium kann und sollte beschreiben, wie diese Kategorisierung vorgenommen wird“, heißt es in der Antwort.

Auch die Delegierung der Kategorisierung von Hochrisikosystemen an Fachgremien hat sich als umstritten erwiesen, da dies eine wertorientierte Bewertung impliziert.

Um die Komplexität weiter zu erhöhen, betont ETSI, dass das Risiko eines KI-Systems möglicherweise nicht offensichtlich ist, selbst wenn es einem technischen Standard entspricht. Da KI-Systeme miteinander interagieren können, auch wenn sie einzeln ein geringes Risiko haben, können sich diese Risiken in einer Anwendung mit hohem Risiko kumulieren.

Angleichung an bestehende Standards

In Bezug auf Data Governance und Qualität ist ETSI der Ansicht, dass die Richtlinien mit hochrangigen Richtlinien von internationalen Standardisierungsgremien wie ISO und IEC kombiniert werden sollten. Ebenso sollte die Definition von Transparenz weiter verfeinert werden, aber immer noch in Übereinstimmung mit ISO und IEC.

Hinsichtlich der Meldepflichten empfiehlt ETSI, wie bereits in anderen Branchen, standardisierte, maschinenlesbare Formate zu verwenden, die die Arbeit der Aufsichtsbehörden erleichtern.

In Bezug auf die menschliche Aufsicht stellt die Standardisierungsorganisation fest, dass dies immer noch ein aktives Forschungsgebiet ist, daher könnte eine erste Lösung darin bestehen, die menschliche Überprüfung auf die Protokolle des KI-Systems zu beschränken, wobei später weitere Anleitungen bereitgestellt werden.

Konformitätsbewertung

Während die technischen KI-Standards die in der bevorstehenden Verordnung zum Ausdruck gebrachten Konzepte operationalisieren sollen, wird der Konformitätsbewertungsstandard den Compliance-Prozess für alle anderen Standards unterstützen.

In diesem Zusammenhang empfiehlt ETSI, dass ein Mechanismus zur Nachverfolgung von Erfahrungen aus Markteinführungen für Vorfälle und Beinahe-Vorfälle aufgrund von Verstößen gegen die Anforderungen eingerichtet wird. Es sollte ein Tool eingerichtet werden, um Updates zu veröffentlichen, die dazu dienen, Fehler zu beheben, die über die Meldung von Vorfällen entdeckt wurden.

Darüber hinaus sollten die Konformitätsentscheidungen der Bewertungsstellen regelmäßig gesammelt und die Informationen mit der Normungsorganisation geteilt werden, um die zeitnahe Aktualisierung der Normen zu erleichtern.

Die Mittel zur Bestimmung von Risiko und Konformität sollten regelmäßig überprüft werden, da sich beide Konzepte mit der Zeit weiterentwickeln können. Insbesondere weist das Gremium darauf hin, dass KI-Lösungen auf statistischen Methoden beruhen. Daher muss ihre Konformität mit statistischen Methoden wie Vertrauensschwellen bewertet werden.

ETSI und die Europäische Kommission waren nicht sofort für eine Stellungnahme erreichbar.

[Edited by Alice Taylor]


source site

Leave a Reply