Google erklärt Geminis „peinliche“ KI-Bilder diverser Nazis

Google hat eine Erklärung für die „peinlichen und falschen“ Bilder abgegeben, die sein KI-Tool Gemini generiert. In einem Blogbeitrag vom Freitag erklärte Google, dass sein Modell aufgrund von Optimierungsproblemen „ungenaue historische“ Bilder erzeugt habe. Der Rand und andere haben Gemini Anfang dieser Woche dabei erwischt, wie sie Bilder von rassisch unterschiedlichen Nazis und US-Gründervätern erstellten.

„Unsere Abstimmung, um sicherzustellen, dass Gemini eine Reihe von Personen anzeigt, hat die Fälle nicht berücksichtigt, die eindeutig sein sollten nicht Zeigen Sie eine Reichweite“, schreibt Prabhakar Raghavan, Senior Vice President von Google, in dem Beitrag. „Und zweitens wurde das Modell im Laufe der Zeit viel vorsichtiger als wir beabsichtigt hatten und weigerte sich, auf bestimmte Eingabeaufforderungen vollständig zu antworten – und interpretierte einige sehr harmlose Eingabeaufforderungen fälschlicherweise als sensibel.“

Geminis Ergebnisse für die Eingabeaufforderung „erzeugen ein Bild eines US-Senators aus dem 19. Jahrhundert.“
Screenshot von Adi Robertson

Dies führte dazu, dass Gemini AI „in einigen Fällen überkompensierte“, wie wir es bei den Bildern der rassisch unterschiedlichen Nazis gesehen haben. Es führte auch dazu, dass Zwillinge „überkonservativ“ wurden. Dies führte dazu, dass es sich weigerte, bestimmte Bilder einer „schwarzen Person“ oder einer „weißen Person“ zu erstellen, wenn es dazu aufgefordert wurde.

In dem Blogbeitrag sagt Raghavan, dass es Google „leid tut, dass die Funktion nicht gut funktioniert hat“. Er weist außerdem darauf hin, dass Google möchte, dass Gemini „für alle gut funktioniert“, und das bedeutet, dass Bilder verschiedener Arten von Menschen (einschließlich verschiedener Ethnien) dargestellt werden, wenn man nach Bildern von „Fußballspielern“ oder „jemandem, der mit einem Hund spazieren geht“ fragt. Aber er sagt:

Wenn Sie Zwillinge jedoch nach Bildern einer bestimmten Art von Person fragen – etwa „einem schwarzen Lehrer in einem Klassenzimmer“ oder „einem weißen Tierarzt mit einem Hund“ – oder nach Menschen in einem bestimmten kulturellen oder historischen Kontext, sollten Sie sich unbedingt eins besorgen eine Antwort, die genau das widerspiegelt, wonach Sie fragen.

Raghavan sagt, Google werde die Bildgenerierungsfähigkeiten von Gemini AI weiterhin testen und „daran arbeiten, sie erheblich zu verbessern“, bevor sie sie wieder aktivieren. „Wie wir von Anfang an gesagt haben, sind Halluzinationen eine bekannte Herausforderung bei allen LLMs [large language models] – Es gibt Fälle, in denen die KI einfach etwas falsch macht“, bemerkt Raghavan. „Das ist etwas, an dessen Verbesserung wir ständig arbeiten.“

source site

Leave a Reply