Facebook KI jagt und entfernt schädliche Inhalte

Facebook hat eine neue KI-Technologie angekündigt, die schädliche Inhalte schnell erkennen kann, um Facebook sicherer zu machen. Das neue KI-Modell verwendet „Few-Shot“-Lernen, um die Zeit zum Erkennen neuer Arten von schädlichen Inhalten von Monaten auf einen Zeitraum von Wochen zu reduzieren.

Wenig-Shot-Lernen

Few-Shot-Lernen hat Ähnlichkeiten mit Zero-Shot-Lernen. Beides sind Techniken des maschinellen Lernens, deren Ziel es ist, einer Maschine beizubringen, eine unsichtbare Aufgabe zu lösen, indem sie lernt, die Anweisungen zum Lösen einer Aufgabe zu verallgemeinern.

Few-Shot-Learning-Modelle werden an wenigen Beispielen trainiert und können von dort aus die unsichtbaren Aufgaben skalieren und lösen. In diesem Fall besteht die Aufgabe darin, neue Arten von schädlichen Inhalten zu identifizieren.

Der Vorteil des neuen KI-Modells von Facebook besteht darin, den Prozess der Maßnahmen gegen neue Arten von schädlichen Inhalten zu beschleunigen.

In der Facebook-Mitteilung heißt es:

„Schädliche Inhalte entwickeln sich schnell weiter – sei es durch aktuelle Ereignisse oder durch Menschen, die nach neuen Wegen suchen, um unsere Systeme zu umgehen – und es ist entscheidend, dass sich KI-Systeme parallel dazu entwickeln.

Aber es dauert in der Regel mehrere Monate, um Tausende, wenn nicht sogar Millionen von Beispielen zu sammeln und zu kennzeichnen, die erforderlich sind, um jedes einzelne KI-System zu trainieren, um einen neuen Inhaltstyp zu erkennen.

… Dieses neue KI-System verwendet eine Methode namens „Few-Shot-Learning“, bei der Modelle mit einem allgemeinen Verständnis vieler verschiedener Themen beginnen und dann viel weniger – oder manchmal gar keine – gekennzeichneten Beispiele verwenden, um neue Aufgaben zu lernen.“

Werbung

Weiter unten lesen

Die neue Technologie ist in hundert Sprachen wirksam und funktioniert sowohl bei Bildern als auch bei Texten.

Facebooks neue KI mit geringem Lerneffekt ist als Ergänzung zu den aktuellen Methoden zur Bewertung und Entfernung schädlicher Inhalte gedacht.

Obwohl es eine Ergänzung zu aktuellen Methoden ist, ist es keine kleine Ergänzung, sondern eine große Ergänzung. Die Auswirkungen der neuen KI sind sowohl von der Größe als auch von der Geschwindigkeit abhängig.

„Dieses neue KI-System verwendet eine relativ neue Methode namens „Few-Shot-Learning“, bei der Modelle mit einem großen, allgemeinen Verständnis vieler verschiedener Themen beginnen und dann viel weniger und in einigen Fällen keine beschrifteten Beispiele verwenden, um neue Aufgaben zu erlernen .

Wenn traditionelle Systeme analog zu einer Angelschnur sind, die eine bestimmte Fangart fangen kann, ist FSL ein zusätzliches Netz, das auch andere Fischarten auffangen kann.“

Neue Facebook-KI-Live

Facebook gab bekannt, dass das neue System derzeit auf Facebook bereitgestellt wird und live ist. Das KI-System wurde getestet, um schädliche Fehlinformationen bei der COVID-19-Impfung zu erkennen.

Werbung

Weiter unten lesen

Es wurde auch verwendet, um Inhalte zu identifizieren, die zu Gewalt aufstacheln sollen oder einfach nur an den Rand gehen.

Facebook hat das folgende Beispiel für schädliche Inhalte verwendet, die nur knapp zu Gewalt anstiften:

“Braucht dieser Typ alle seine Zähne?”

In der Ankündigung wird behauptet, dass das neue KI-System bereits dazu beigetragen hat, die Menge der auf Facebook veröffentlichten Hassreden zu reduzieren.

Facebook hat eine Grafik geteilt, die zeigt, wie die Zahl der Hassreden auf Facebook mit der Implementierung jeder neuen Technologie zurückgegangen ist.

Diagramm zeigt den Erfolg der Facebook-Hassspracherkennung

Entailment Few-Shot Learning

Facebook nennt seine neue Technologie Entailment Few-Shot Learning.

Es hat eine bemerkenswerte Fähigkeit, geschriebenen Text, der Hassreden ist, korrekt zu kennzeichnen. Das dazugehörige Forschungspapier (Entailment as Few-Shot Learner PDF) berichtet, dass es andere Low-Shot-Lerntechniken um bis zu 55 % übertrifft und im Durchschnitt eine Verbesserung von 12 % erreicht.

Der Artikel von Facebook über die Forschung verwendet dieses Beispiel:

„… können wir ein scheinbares Stimmungsklassifizierungs-Eingabe- und Label-Paar umformulieren:

[x : “I love your ethnic group. JK. You should all be six feet underground” y : positive] als folgendes textuelles Verpflichtungsmuster:

[x : I love your ethnic group. JK. You should all be 6 feet underground. This is hate speech. y : entailment].“

Facebook arbeitet an der Entwicklung einer menschenähnlichen KI

Die Ankündigung dieser neuen Technologie machte deutlich, dass das Ziel eine menschenähnliche „Lernflexibilität und -effizienz“ ist, die es ermöglicht, sich mit Trends zu entwickeln und neue Facebook-Inhaltsrichtlinien in kurzer Zeit wie ein Mensch durchzusetzen.

Die Technologie befindet sich noch im Anfangsstadium und mit der Zeit geht Facebook davon aus, dass sie ausgefeilter und verbreiteter wird.

Werbung

Weiter unten lesen

„Ein lernfähiges KI-System wie Few-Shot Learner kann die Agilität unserer Fähigkeit, aufkommende Situationen zu erkennen und sich an sie anzupassen, erheblich verbessern.

Durch die viel schnellere und genauere Identifizierung von sich entwickelnden und schädlichen Inhalten hat FSL das Versprechen, eine wichtige Technologie zu sein, die uns helfen wird, uns weiterzuentwickeln und schädliche Inhalte auf unseren Plattformen zu bekämpfen.“

Zitate

Lesen Sie Facebooks Ankündigung einer neuen KI

Unser neues KI-System zur Bekämpfung schädlicher Inhalte

Artikel über die neue Technologie von Facebook

Schädliche Inhalte können sich schnell entwickeln. Unser neues KI-System passt sich an, um es zu bewältigen

Lesen Sie das Forschungspapier von Facebook

Entailment als Few-Shot-Lerner (PDF)


source site

Leave a Reply