KI-Modelle spucken Fotos von echten Menschen und urheberrechtlich geschützte Bilder aus

Stable Diffusion ist Open Source, was bedeutet, dass jeder es analysieren und untersuchen kann. Imagen ist geschlossen, aber Google hat den Forschern Zugriff gewährt. Singh sagt, dass die Arbeit ein großartiges Beispiel dafür ist, wie wichtig es ist, der Forschung Zugang zu diesen Modellen für die Analyse zu geben, und er argumentiert, dass Unternehmen mit anderen KI-Modellen wie ChatGPT von OpenAI ähnlich transparent sein sollten.

Obwohl die Ergebnisse beeindruckend sind, sind sie mit einigen Einschränkungen verbunden. Die Bilder, die die Forscher extrahieren konnten, tauchten mehrfach in den Trainingsdaten auf oder waren im Vergleich zu anderen Bildern im Datensatz sehr ungewöhnlich, sagt Florian Tramèr, Assistenzprofessor für Informatik an der ETH Zürich, der Teil der Gruppe war.

Menschen, die ungewöhnlich aussehen oder ungewöhnliche Namen haben, haben ein höheres Risiko, auswendig gelernt zu werden, sagt Tramèr.

Die Forscher konnten nur relativ wenige exakte Kopien der Fotos von Einzelpersonen aus dem KI-Modell extrahieren: Nur eines von einer Million Bildern war laut Webster eine Kopie.

Aber das ist immer noch besorgniserregend, sagt Tramèr: „Ich hoffe wirklich, dass sich niemand diese Ergebnisse ansieht und sagt: ‚Oh, eigentlich sind diese Zahlen gar nicht so schlecht, wenn es nur eins zu einer Million ist.‘“

„Die Tatsache, dass sie größer als Null sind, ist entscheidend“, fügt er hinzu.

source site

Leave a Reply