Kann GPT-4 die menschlichen Kosten für die Moderation von Inhalten senken? OpenAI glaubt das

OpenAI gab bekannt, dass es ein KI-System mit GPT-4 entwickelt hat, um die Moderation von Inhalten auf Online-Plattformen zu unterstützen.

Das Unternehmen gibt an, dass dieses System eine schnellere Iteration von Richtlinienänderungen und eine einheitlichere Inhaltskennzeichnung ermöglicht als die herkömmliche, von Menschen geleitete Moderation.

OpenAI sagte in seiner Ankündigung:

„Die Moderation von Inhalten spielt eine entscheidende Rolle für die Aufrechterhaltung der Gesundheit digitaler Plattformen. Ein Inhaltsmoderationssystem mit GPT-4 führt zu einer viel schnelleren Iteration von Richtlinienänderungen und verkürzt den Zyklus von Monaten auf Stunden.“

Dieser Schritt zielt darauf ab, die Konsistenz bei der Inhaltskennzeichnung zu verbessern, Richtlinienaktualisierungen zu beschleunigen und die Abhängigkeit von menschlichen Moderatoren zu verringern.

Es könnte sich auch positiv auf die psychische Gesundheit menschlicher Moderatoren auswirken und das Potenzial von KI zum Schutz der psychischen Gesundheit im Internet verdeutlichen.

Herausforderungen bei der Inhaltsmoderation

OpenAI erklärte, dass die Moderation von Inhalten eine herausfordernde Arbeit sei, die akribischen Aufwand, ein differenziertes Verständnis des Kontexts und eine kontinuierliche Anpassung an neue Anwendungsfälle erfordere.

Traditionell wurden diese arbeitsintensiven Aufgaben menschlichen Moderatoren übertragen. Sie überprüfen große Mengen benutzergenerierter Inhalte, um schädliche oder unangemessene Materialien zu entfernen.

Dies kann eine geistig anstrengende Arbeit sein. Der Einsatz von KI für diese Aufgabe könnte möglicherweise die menschlichen Kosten für die Moderation von Online-Inhalten senken.

Wie das KI-System von OpenAI funktioniert

Das neue System von OpenAI zielt darauf ab, menschliche Moderatoren zu unterstützen, indem es GPT-4 verwendet, um Inhaltsrichtlinien zu interpretieren und Moderationsurteile zu fällen.

Politikexperten verfassen zunächst Inhaltsrichtlinien und kennzeichnen Beispiele, die mit der Richtlinie übereinstimmen.

GPT-4 weist dann die Labels denselben Beispielen zu, ohne die Antworten des Prüfers zu sehen.

Durch den Vergleich der Labels von GPT-4 mit menschlichen Labels kann OpenAI mehrdeutige Richtliniendefinitionen verfeinern und die KI neu trainieren, bis sie die Richtlinien zuverlässig interpretiert.

Beispiel

In einem Blogbeitrag zeigt OpenAI, wie ein menschlicher Prüfer Richtlinien klären kann, wenn er mit einer von GPT-4 einem Inhalt zugewiesenen Kennzeichnung nicht einverstanden ist.

Im folgenden Beispiel hat ein menschlicher Prüfer etwas als K3 (Förderung gewaltfreien Schadens) eingestuft, aber der GPT-4 war der Ansicht, dass es nicht gegen die Richtlinie zu illegalem Verhalten verstößt.

Screenshot von: openai.com/blog/using-gpt-4-for-content-moderation, August 2023.

Wenn GPT-4 erklärt, warum eine andere Bezeichnung gewählt wurde, kann der menschliche Prüfer verstehen, wo Richtlinien unklar sind.

Sie stellten fest, dass GPT-4 die Nuance fehlte, dass Eigentumsdiebstahl als Förderung gewaltfreier Schädigung im Sinne der K3-Richtlinie gelten würde.

Diese Interaktion verdeutlicht, wie die menschliche Aufsicht KI-Systeme weiter trainieren kann, indem sie Richtlinien in Bereichen klarstellt, in denen das Wissen der KI unvollständig ist.

Sobald die Richtlinie verstanden ist, kann GPT-4 zur Moderation von Inhalten in großem Maßstab eingesetzt werden.

Von OpenAI hervorgehobene Vorteile

OpenAI skizzierte mehrere Vorteile, die das KI-gestützte Moderationssystem seiner Meinung nach bietet:

  • Konsistentere Kennzeichnung, da sich die KI schnell an Richtlinienänderungen anpasst
  • Schnellere Feedbackschleife zur Verbesserung von Richtlinien, wodurch Aktualisierungszyklen von Monaten auf Stunden verkürzt werden
  • Reduzierte mentale Belastung für menschliche Moderatoren

Zu diesem letzten Punkt sollte OpenAI erwägen, die potenziellen Vorteile der KI-Moderation für die psychische Gesundheit hervorzuheben, wenn es möchte, dass die Menschen die Idee unterstützen.

Die Verwendung von GPT-4 zur Moderation von Inhalten anstelle von Menschen könnte vielen Moderatoren helfen, da sie ihnen das Ansehen traumatischen Materials ersparen.

Diese Entwicklung könnte die Notwendigkeit für menschliche Moderatoren verringern, sich direkt mit beleidigenden oder schädlichen Inhalten auseinanderzusetzen, und somit ihre mentale Belastung verringern.

Einschränkungen und ethische Überlegungen

Von OpenAI anerkannte Urteile von KI-Modellen können unerwünschte Verzerrungen enthalten, daher müssen die Ergebnisse überwacht und validiert werden. Es wurde betont, dass Menschen bei komplexen Moderationsfällen „auf dem Laufenden“ bleiben sollten.

Das Unternehmen erforscht Möglichkeiten zur Verbesserung der Fähigkeiten von GPT-4 und möchte KI nutzen, um neu auftretende Inhaltsrisiken zu identifizieren, die als Grundlage für neue Richtlinien dienen können.


Ausgewähltes Bild: sun ok/Shutterstock


source site

Leave a Reply