KI-Durchbrüche sind eine Frage der Meinung, nicht der Tatsachen

Letzte Woche schien es, als sei OpenAI – die geheime Firma hinter ChatGPT – aufgebrochen worden. Der Vorstand des Unternehmens hatte plötzlich CEO Sam Altman entlassen, Hunderte von Mitarbeitern protestierten, Altman wurde wieder eingestellt und die Medien analysierten die Geschichte aus allen möglichen Blickwinkeln. Doch die Berichterstattung täuscht über die Tatsache hinweg, dass unser Blick in den wichtigsten Teil des Unternehmens immer noch so grundsätzlich begrenzt ist: Wir wissen nicht wirklich, wie OpenAI seine Technologie entwickelt, und wir verstehen auch nicht genau, wie Altman die Arbeit an zukünftigen, leistungsfähigeren Projekten geleitet hat Generationen.

Dies wurde am vergangenen Mittwoch deutlich, als Reuters und Die Information berichtete, dass vor Altmans Entlassung mehrere leitende Forscher Bedenken hinsichtlich eines vermeintlich gefährlichen Durchbruchs geäußert hatten. Es ging um einen Algorithmus namens Q* (ausgesprochen „Q-star“), der angeblich nachweislich bestimmte mathematische Probleme auf Grundschulniveau löst, die es zuvor noch nicht gab. Obwohl dies wenig beeindruckend klingt, glaubten einige Forscher innerhalb des Unternehmens Berichten zufolge, dass dies ein frühes Anzeichen dafür sein könnte, dass der Algorithmus seine Denkfähigkeit verbessert – mit anderen Worten, indem er Logik zur Lösung neuartiger Probleme einsetzt.

Mathematik wird oft als Maßstab für diese Fähigkeit herangezogen; Für Forscher ist es einfach, ein neuartiges Problem zu definieren, und das Erreichen einer Lösung sollte theoretisch ein Verständnis abstrakter Konzepte sowie eine schrittweise Planung erfordern. Eine solche Argumentation gilt als eine der wichtigsten fehlenden Zutaten für intelligentere, universellere KI-Systeme oder das, was OpenAI „künstliche allgemeine Intelligenz“ nennt. Nach Angaben des Unternehmens wäre ein solches theoretisches System bei den meisten Aufgaben besser als Menschen und könnte zu einer existenziellen Katastrophe führen, wenn es nicht richtig kontrolliert würde.

Ein OpenAI-Sprecher äußerte sich nicht zu Q*, sagte mir aber, dass die Bedenken der Forscher die Maßnahmen des Vorstands nicht beschleunigt hätten. Zwei mit dem Projekt vertraute Personen, die aus Angst vor Konsequenzen anonym bleiben wollten, bestätigten mir, dass OpenAI tatsächlich an dem Algorithmus gearbeitet und ihn auf mathematische Probleme angewendet hat. Doch im Gegensatz zu den Befürchtungen einiger ihrer Kollegen äußerten sie ihre Skepsis, dass dies als ein Durchbruch hätte angesehen werden können, der großartig genug war, um existentielle Angst auszulösen. Ihr Zweifel unterstreicht eine Tatsache, die in der KI-Forschung seit langem gilt: KI-Fortschritte sind in dem Moment, in dem sie stattfinden, in der Regel sehr subjektiv. Es dauert lange, bis sich ein Konsens darüber bildet, ob ein bestimmter Algorithmus oder eine bestimmte Forschungsarbeit tatsächlich ein Durchbruch war, da immer mehr Forscher darauf aufbauen und belegen, wie reproduzierbar, effektiv und breit anwendbar die Idee ist.

Nehmen Sie den Transformer-Algorithmus, der großen Sprachmodellen und ChatGPT zugrunde liegt. Als Google-Forscher den Algorithmus im Jahr 2017 entwickelten, wurde er als wichtige Entwicklung angesehen, aber nur wenige Menschen ahnten, dass er für die heutige generative KI so grundlegend und folgenreich sein würde. Erst als OpenAI den Algorithmus mit riesigen Datenmengen und Rechenressourcen auflud, folgte der Rest der Branche und nutzte ihn, um die Grenzen der Bild-, Text- und jetzt sogar Videogenerierung zu erweitern.

In der KI-Forschung – und eigentlich in der gesamten Wissenschaft – basieren Aufstieg und Fall von Ideen nicht auf reiner Meritokratie. Normalerweise üben die Wissenschaftler und Unternehmen mit den meisten Ressourcen und den größten Lautsprechern den größten Einfluss aus. Über diese Einheiten bildet sich ein Konsens, was effektiv bedeutet, dass sie die Richtung der KI-Entwicklung bestimmen. Innerhalb der KI-Branche ist die Macht bereits in wenigen Unternehmen gebündelt – Meta, Google, OpenAI, Microsoft und Anthropic. Dieser unvollkommene Prozess der Konsensbildung ist der beste, den wir haben, aber er wird noch begrenzter, weil die Forschung, die einst weitgehend offen durchgeführt wurde, jetzt im Geheimen stattfindet.

Als sich Big Tech im letzten Jahrzehnt des enormen Kommerzialisierungspotenzials von KI-Technologien bewusst wurde, bot es fette Vergütungspakete an, um Akademiker von Universitäten abzuwerben. Viele AI Ph.D. Kandidaten warten nicht mehr auf ihren Abschluss, bevor sie in ein Unternehmenslabor einsteigen. Viele Forscher, die im akademischen Bereich bleiben, erhalten von denselben Unternehmen Fördermittel oder sogar eine doppelte Anstellung. Ein Großteil der KI-Forschung findet mittlerweile innerhalb oder in Verbindung mit Technologieunternehmen statt, die einen Anreiz haben, ihre besten Fortschritte zu verbergen, um besser mit ihren Geschäftskonkurrenten konkurrieren zu können.

OpenAI hat argumentiert, dass seine Geheimhaltung zum Teil darauf zurückzuführen sei, dass alles, was den Weg zur Superintelligenz beschleunigen könnte, sorgfältig gehütet werden sollte; Andernfalls könnte eine Gefahr für die Menschheit entstehen, heißt es. Das Unternehmen hat aber auch offen zugegeben, dass es durch Geheimhaltung seinen Wettbewerbsvorteil wahren kann. „GPT-4 ist nicht einfach zu entwickeln“, sagte Ilya Sutskever, Chefwissenschaftler von OpenAI Der Rand März. „Es hat ziemlich lange gedauert, bis die gesamte OpenAI-Gruppe zusammengearbeitet hat, um dieses Ding zu produzieren. Und es gibt viele, viele Unternehmen, die dasselbe tun wollen.“

Seit die Nachricht von Q* bekannt wurde, haben viele Forscher außerhalb von OpenAI darüber spekuliert, ob der Name eine Anspielung auf andere bestehende Techniken in diesem Bereich ist, wie etwa Q-Learning, eine Technik zum Trainieren von KI-Algorithmen durch Versuch und Irrtum, und A*, ein Algorithmus zum Durchsuchen einer Reihe von Optionen, um die beste zu finden. Der OpenAI-Sprecher würde nur sagen, dass das Unternehmen ständig recherchiert und an neuen Ideen arbeitet. Ohne zusätzliches Wissen und ohne die Möglichkeit für andere Wissenschaftler, die Robustheit und Relevanz von Q* im Laufe der Zeit zu bestätigen, kann jeder, einschließlich der Forscher, die an dem Projekt gearbeitet haben, nur Hypothesen darüber aufstellen, wie groß die Sache tatsächlich ist – und erkennen dass der Begriff Durchbruch wurde nicht durch wissenschaftlichen Konsens festgelegt, sondern von einer kleinen Gruppe von Mitarbeitern aufgrund ihrer eigenen Meinung festgelegt.

source site

Leave a Reply