Google verhängt weitere Beschränkungen für KI-Übersichten, nachdem es den Leuten gesagt hatte, sie sollten Pizza mit Kleber bestreichen

Liz Reid, die Leiterin von Google Search, hat zugegeben, dass die Suchmaschine des Unternehmens nach ihrer Einführung in den USA einige „seltsame, ungenaue oder nicht hilfreiche KI-Übersichten“ zurückgegeben hat. Die Führungskraft veröffentlichte in einem Blogbeitrag eine Erklärung für Googles eigenartigere, KI-generierte Antworten und kündigte dort auch an, dass das Unternehmen Sicherheitsvorkehrungen getroffen hat, die dazu beitragen sollen, dass die neue Funktion genauere und weniger memewürdige Ergebnisse liefert.

Reid verteidigte Google und wies darauf hin, dass einige der ungeheuerlichsten Antworten auf die KI-Übersicht, die im Umlauf sind, wie etwa Behauptungen, dass es sicher sei, Hunde im Auto zurückzulassen, gefälscht seien. Der virale Screenshot, der die Antwort auf die Frage „Wie viele Steine ​​soll ich essen?“ zeigt, ist echt, aber sie sagte, dass Google auf eine Antwort kam, weil eine Website einen satirischen Inhalt zu diesem Thema veröffentlichte. „Bevor diese Screenshots viral gingen, stellte praktisch niemand Google diese Frage“, erklärte sie, also verlinkte die KI des Unternehmens auf diese Website.

Die Vizepräsidentin von Google bestätigte auch, dass AI Overview den Leuten riet, Käse mit Klebstoff an der Pizza zu befestigen, basierend auf Inhalten aus einem Forum. Sie sagte, Foren lieferten normalerweise „authentische Informationen aus erster Hand“, könnten aber auch zu „weniger hilfreichen Ratschlägen“ führen. Die Führungskraft erwähnte die anderen viralen AI Overview-Antworten nicht, aber als Die Washington Post Berichten zufolge teilte die Technologie den Benutzern auch mit, dass Barack Obama Muslim sei und dass man viel Urin trinken sollte, um Nierensteine ​​leichter ausscheiden zu können.

Reid sagte, das Unternehmen habe die Funktion vor der Einführung ausgiebig getestet, aber „es gibt nichts Besseres, als wenn Millionen von Menschen die Funktion bei vielen neuartigen Suchanfragen nutzen.“ Google konnte offenbar Muster erkennen, bei denen seine KI-Technologie nicht richtig funktionierte, indem es sich Beispiele seiner Antworten in den letzten Wochen ansah. Auf der Grundlage seiner Beobachtungen hat das Unternehmen dann Schutzmaßnahmen eingeführt, indem es zunächst seine KI optimierte, um Humor und satirische Inhalte besser erkennen zu können. Außerdem hat es seine Systeme aktualisiert, um das Hinzufügen von benutzergenerierten Antworten in Übersichten, wie etwa Social-Media- und Forumsbeiträgen, einzuschränken, die den Leuten irreführende oder sogar schädliche Ratschläge geben könnten. Darüber hinaus hat es „Auslösebeschränkungen für Abfragen hinzugefügt, bei denen sich KI-Übersichten als nicht so hilfreich erwiesen“ und hat aufgehört, KI-generierte Antworten für bestimmte Gesundheitsthemen anzuzeigen.

source site

Leave a Reply