Vertrauen Sie großen Sprachmodellen auf eigene Gefahr

Laut Meta kann die Galactica „wissenschaftliche Arbeiten zusammenfassen, mathematische Probleme lösen, Wiki-Artikel erstellen, wissenschaftlichen Code schreiben, Moleküle und Proteine ​​kommentieren und vieles mehr.“ Aber kurz nach dem Start war es für Außenstehende ziemlich einfach prompt das Modell, um „wissenschaftliche Forschung“ über die Vorteile von Homophobie, Antisemitismus, Selbstmord, Glasessen, Weißsein oder Mannsein zu liefern. Unterdessen wurden Zeitungen über AIDS oder Rassismus blockiert. Charmant!

Wie mein Kollege Will Douglas Heaven in seiner Geschichte über das Debakel schreibt: „Metas Fehltritt – und seine Hybris – zeigen einmal mehr, dass Big Tech einen blinden Fleck hinsichtlich der schwerwiegenden Einschränkungen großer Sprachmodelle hat.“

Der Start von Galactica war nicht nur verfrüht, sondern zeigt auch, wie unzureichend die Bemühungen der KI-Forscher waren, große Sprachmodelle sicherer zu machen.

Meta könnte zuversichtlich gewesen sein, dass Galactica die Konkurrenz bei der Erstellung von wissenschaftlich klingenden Inhalten übertroffen hat. Aber seine eigene Prüfung des Modells auf Voreingenommenheit und Wahrhaftigkeit hätte das Unternehmen davon abhalten sollen, es in die Wildnis zu entlassen.

Eine gängige Methode, mit der Forscher versuchen, große Sprachmodelle weniger wahrscheinlich zu machen, dass sie giftige Inhalte ausspucken, besteht darin, bestimmte Schlüsselwörter herauszufiltern. Aber es ist schwierig, einen Filter zu erstellen, der all die nuancierten Arten einfangen kann, wie Menschen unangenehm sein können. Das Unternehmen hätte sich eine Menge Ärger erspart, wenn es mehr kontradiktorische Tests der Galactica durchgeführt hätte, bei denen die Forscher versucht hätten, sie dazu zu bringen, so viele verschiedene voreingenommene Ergebnisse wie möglich wiederzukäuen.

Die Forscher von Meta haben das Modell auf Vorurteile und Wahrhaftigkeit untersucht, und obwohl es etwas besser abschnitt als Konkurrenten wie GPT-3 und Metas eigenes OPT-Modell, lieferte es viele voreingenommene oder falsche Antworten. Und es gibt auch einige andere Einschränkungen. Das Modell wird mit frei zugänglichen wissenschaftlichen Ressourcen trainiert, aber viele wissenschaftliche Arbeiten und Lehrbücher sind hinter Paywalls eingeschränkt. Dies führt zwangsläufig dazu, dass Galactica lückenhaftere Sekundärquellen verwendet.

Die Galactica scheint auch ein Beispiel für etwas zu sein, wofür wir KI nicht wirklich brauchen. Es sieht nicht so aus, als würde es sogar Metas erklärtes Ziel erreichen, Wissenschaftlern zu helfen, schneller zu arbeiten. Tatsächlich müssten sie viel zusätzliche Anstrengungen unternehmen, um zu überprüfen, ob die Informationen aus dem Modell korrekt sind oder nicht.

Es ist wirklich enttäuschend (und doch völlig überraschend), dass große KI-Labore, die es eigentlich besser wissen müssten, solche fehlerhaften Technologien hochspielen. Wir wissen, dass Sprachmodelle dazu neigen, Vorurteile zu reproduzieren und Unwahrheiten als Tatsachen zu behaupten. Wir wissen, dass sie „halluzinieren“ oder Inhalte erfinden können, wie z. B. Wiki-Artikel über die Geschichte der Bären im Weltraum. Aber das Debakel war zumindest für eine Sache nützlich. Es erinnerte uns daran, dass das einzige, was große Sprachmodelle mit Sicherheit „wissen“, ist, wie Wörter und Sätze gebildet werden. Alles andere ist Vermutung.


source site

Leave a Reply