Das AI Insight Forum des Senats prüft, wer für KI-Schäden haftbar ist

Das AI Insight Forum der US-Regierung diskutierte Lösungen für die KI-Sicherheit, einschließlich der Frage, wie man erkennt, wer für schädliche KI-Ergebnisse verantwortlich ist, und wie man für diese Schäden haftbar gemacht werden kann. Das Komitee hörte eine Lösung aus der Sicht der Open-Source-KI-Community, vorgetragen vom Präsidenten der Mozilla Foundation, Mark Surman.

Bisher wurde das Senate AI Insight Forum von den dominanten Unternehmens-Gatekeepern von KI, Google, Meta, Microsoft und OpenAI dominiert.

Infolgedessen fand ein Großteil der Diskussion aus ihrer Sicht statt.

Das erste AI Insight Forum, das am 13. September 2023 stattfand, wurde von Senatorin Elizabeth Warren (D-MA) dafür kritisiert, dass es sich um ein Treffen unter Ausschluss der Öffentlichkeit handelte, das von den Technologiegiganten der Unternehmen dominiert wurde, die am meisten von der Einflussnahme auf die Ergebnisse des Ausschusses profitieren würden.

Der Mittwoch bot der Open-Source-Community die Gelegenheit, ihre Meinung dazu darzulegen, wie eine Regulierung aussehen sollte.

Mark Surman, Präsident der Mozilla Foundation

Die Mozilla-Stiftung ist eine gemeinnützige Organisation, die sich dafür einsetzt, das Internet offen und zugänglich zu halten. Es war kürzlich einer der Spender des 200-Millionen-Dollar-Fonds zur Unterstützung einer Koalition von öffentlichem Interesse, die sich der Förderung von KI zum Wohle der Allgemeinheit widmet. Die Mozilla Foundation hat außerdem Mozilla.ai erstellt, das ein Open-Source-KI-Ökosystem pflegt.

Mark Surmans Ansprache vor dem Senatsforum konzentrierte sich auf fünf Punkte:

  1. Anreize für Offenheit und Transparenz schaffen
  2. Haftung gerecht verteilen
  3. Wir setzen uns standardmäßig für den Datenschutz ein
  4. Investition in Technologien zur Verbesserung der Privatsphäre
  5. Gerechte Verteilung der Haftung

Von diesen fünf Punkten ist der Punkt über die Haftungsverteilung besonders interessant, weil er einen Weg aufzeigt, wie man die Schuldige identifizieren kann, wenn etwas mit der KI schiefgeht, und die schuldige Partei haftbar machen kann.

Das Problem, den Schuldigen zu ermitteln, ist nicht so einfach, wie es zunächst scheint.

Mozillas Ankündigung erläuterte diesen Punkt:

„Die Komplexität von KI-Systemen erfordert einen differenzierten Haftungsansatz, der die gesamte Wertschöpfungskette berücksichtigt, von der Datenerfassung bis zur Modellbereitstellung.

Die Haftung sollte nicht konzentriert, sondern so verteilt werden, dass sie widerspiegelt, wie KI entwickelt und auf den Markt gebracht wird.

Anstatt nur auf die Anwender dieser Modelle zu schauen, die oft nicht in der Lage sind, die zugrunde liegenden Ursachen potenzieller Schäden zu mildern, würde ein ganzheitlicherer Ansatz Praktiken und Prozesse im gesamten Entwicklungs-„Stack“ regulieren.“

Der Entwicklungsstapel ist ein Verweis auf die Technologien, die zur Erstellung von KI zusammenarbeiten, einschließlich der Daten, die zum Trainieren der grundlegenden Modelle verwendet werden.

Surman nutzte in seinen Ausführungen das Beispiel eines Chatbots, der medizinische Ratschläge auf der Grundlage eines von einem anderen Unternehmen erstellten und dann von dem medizinischen Unternehmen verfeinerten Modells anbietet.

Wer haftet, wenn der Chatbot schädliche Ratschläge gibt? Das Unternehmen, das die Technologie entwickelt hat, oder das Unternehmen, das das Modell verfeinert hat?

Surmans Aussage erläuterte weiter:

„Unsere Arbeit am EU-KI-Gesetz in den letzten Jahren hat gezeigt, wie schwierig es ist, die Schuldigen zu identifizieren und die Verantwortung entlang der KI-Wertschöpfungskette zu übertragen.

Von Trainingsdatensätzen über Basismodelle bis hin zu Anwendungen, die dasselbe Modell verwenden, können Risiken an verschiedenen Punkten und auf verschiedenen Ebenen während der Entwicklung und Bereitstellung auftreten.

Dabei geht es nicht nur darum, wo der Schaden entsteht, sondern auch darum, wer ihn am besten eindämmen kann.“

Rahmen für die Auferlegung der Haftung für KI-Schäden

Surmans Erklärung vor dem Senatsausschuss betont, dass jeder Rahmen, der entwickelt wird, um zu klären, welches Unternehmen für Schäden verantwortlich ist, die gesamte Entwicklungskette berücksichtigen sollte.

Er weist darauf hin, dass dazu nicht nur die Berücksichtigung aller Ebenen des Entwicklungsstapels gehört, sondern auch die Art und Weise, wie die Technologie genutzt wird. Der Punkt ist, dass die Haftung davon abhängt, wer am besten in der Lage ist, diesen Schaden im Sinne dessen, was Surman als „“ bezeichnet, zu mildern. Wertschöpfungskette.“

Das heißt, wenn ein KI-Produkt halluziniert (was bedeutet, dass es lügt und falsche Tatsachen erfindet), ist das Unternehmen, das diesen Schaden am besten abmildern kann, dasjenige, das das grundlegende Modell erstellt hat, und in geringerem Maße dasjenige, das das Modell verfeinert und einsetzt.

Surman schloss diesen Punkt mit den Worten:

„Jeder Rahmen zur Auferlegung von Haftung muss dieser Komplexität Rechnung tragen.

Was benötigt wird, ist ein klarer Prozess zur Steuerung.

Die Regulierung sollte daher dabei helfen, Schäden zu entdecken und zu melden (unabhängig davon, in welchem ​​Stadium sie wahrscheinlich auftreten), die Ursachen zu identifizieren (was technische Fortschritte bei Transformatormodellen erfordert) und einen Mechanismus dafür bereitzustellen Machen Sie die Verantwortlichen dafür verantwortlich, die zugrunde liegenden Ursachen für diese Entwicklungen zu beheben oder nicht.

Wer ist für KI-Schäden verantwortlich?

Der Präsident der Mozilla Foundation, Mark Surman, bringt hervorragende Argumente dazu vor, wie die Zukunft der Regulierung aussehen sollte. Er erörterte Fragen der Privatsphäre, die wichtig sind.

Von besonderem Interesse ist jedoch die Frage der Haftung und die einzigartigen Ratschläge, die vorgeschlagen werden, um herauszufinden, wer verantwortlich ist, wenn die KI schief geht.

Lesen Sie den offiziellen Blogbeitrag von Mozilla:

Mozilla tritt dem neuesten AI Insight Forum bei

Lesen Sie die Kommentare von Mozilla-Präsident Mark Surman zum Senate AI Insight Forum:

AI Insight Forum: Datenschutz & Haftung (PDF)

Ausgewähltes Bild von Shutterstock/Ron Adar

source site

Leave a Reply