Aufbau einer agilen Governance, die mit der Innovationsgeschwindigkeit Schritt hält – EURACTIV.com

Stiftungsmodelle, Governance und Marktkonzentration stehen ganz oben auf der Liste der Anliegen der Interessengruppen, während sich die politischen Entscheidungsträger der EU auf die Fertigstellung des weltweit ersten KI-Gesetzes vorbereiten.

Das KI-Gesetz ist eine Flaggschiff-Gesetzgebungsinitiative zur Regulierung künstlicher Intelligenz auf der Grundlage ihres Schadenspotenzials. Alle Augen sind derzeit auf die sogenannten „Trilog“-Verhandlungen zwischen EU-Kommission, Rat und Parlament gerichtet, die den Fall abschließen sollen.

In der Zwischenzeit haben Interessenvertreter auf mehrere Bedenken im Zusammenhang mit dem KI-Gesetz hingewiesen, die von der Zukunftssicherheit seiner Governance-Struktur bis hin zum Trend der Marktkonzentration und der Regulierung der leistungsstärksten KI-Modelle reichen.

Führung

„Ich denke, der Schwerpunkt muss auf dem Aufbau einer agilen Governance liegen, die mit der Innovationsgeschwindigkeit Schritt halten kann“, sagte Paula Gürtler, wissenschaftliche Mitarbeiterin beim Think Tank CEPS, letzte Woche auf einer von Euractiv veranstalteten Veranstaltung.

Für Gütler ist die KI-Global Governance ein überfüllter Raum und zitiert die OECD-KI-Prinzipien von 2019, den G7-Hiroshima-Prozess, die G20-Führungserklärung von Osaka und die UNESCO-Empfehlungen zu KI.

Nach Ansicht von Gütler ist dies eine Chance für „größeres Potenzial für die internationale Zusammenarbeit im Bereich KI“, hauptsächlich in drei Bereichen: Wissensaustausch, Bewältigung extraterritorialer Auswirkungen der KI-Regulierung und Gewährleistung gemeinsamer Vorteile zwischen Gemeinschaften.

Marktkonzentration

„Es besteht eine sehr große Möglichkeit und ein sehr großes Risiko extremer Oligopole“ auf dem KI-Markt, warnte Marco Bianchini, Ökonom und Koordinator der Digital for SME Global Initiative bei der OECD, im selben Gremium.

Dies gebe Anlass zur Sorge, erklärt Gütler: „Die Kluft zwischen den Algorithmen ist etwas, auf das man achten muss.“ Letztlich müsse KI nicht nur aus Risikoperspektive, sondern auch im Hinblick auf KI-Enabler betrachtet werden, damit die Technologie dies könne kommt allen zugute.

Foundation-Modelle

Mit Blick auf den KI-Sektor aus dieser Perspektive äußerten einige Redner ihre Skepsis gegenüber dem Selbstregulierungsansatz, den Frankreich, Deutschland und Italien für die leistungsstärksten KI-Modelle vorangetrieben haben.

„Ich glaube, ich stehe Verhaltenskodizes und Selbstregulierung generell eher skeptisch gegenüber“, sagte Gütler.

Ihrer Ansicht nach kann man Unternehmen nicht zutrauen, sich selbst zu regulieren, da ihr Hauptziel die Gewinnmaximierung ist. Er forderte ein Gremium, das die Aufsicht über Entwicklerunternehmen übernimmt.

Bianchini sagte, dass die EU-Debatte über die Regulierung von Stiftungsmodellen polarisiert sei und das Europäische Parlament auf eine viel strengere Regelung als die von den drei größten Volkswirtschaften Europas geforderten Verhaltenskodizes dränge.

Allerdings gebe es diese Diskussion darüber, ob und wie Stiftungsmodelle reguliert werden sollten, auch in anderen Teilen der Welt und zitierte dabei Kanada und die Vereinigten Staaten, sagte Bianchini.

Der Europaabgeordnete Ibán García del Blanco fügte hinzu: „Ich bin auch skeptisch gegenüber der Selbstregulierung, aber ich denke, wir können die Bedingungen schaffen, unter denen wir die Selbstregulierung auf eine Weise fördern können, die profitabler ist als nicht.“

García del Blanco drängte darauf, in das KI-Gesetz einige allgemeine Grundsätze für alle KI-Modelle einzuführen, die den ethischen Einsatz von KI leiten sollen.

Gütler antwortete, sie sei nicht überzeugt und erklärte, dass allgemeine Konzepte wie Gleichheit und Fairness viel Spielraum für Interpretationen ließen, was für Endnutzer schädlich sein könne. Sie schlug die Einführung von Zertifizierungssystemen vor, die viel weniger Interpretationsspielraum lassen.

Bianchini fügte hinzu, dass Innovationen in der KI „in beide Richtungen“ erfolgten, und erklärte, dass man Basismodelle erstellen könnte, um die Einhaltung gesetzlicher Vorschriften anderer Basismodelle zu überwachen.

[Edited by Luca Bertuzzi/Nathalie Weatherald]

Lesen Sie mehr mit EURACTIV


source site

Leave a Reply