Die Leute, die dafür bezahlt werden, KI zu trainieren, lagern ihre Arbeit aus … an KI

Kein Wunder, dass einige von ihnen Tools wie ChatGPT nutzen, um ihr Verdienstpotenzial zu maximieren. Aber wie viele? Um das herauszufinden, hat ein Forscherteam der Eidgenössischen Technischen Hochschule (EPFL) 44 Personen auf der Gig-Work-Plattform Amazon Mechanical Turk angeheuert, um 16 Auszüge aus medizinischen Forschungsarbeiten zusammenzufassen. Anschließend analysierten sie ihre Antworten mithilfe eines von ihnen selbst trainierten KI-Modells, das nach verräterischen Signalen der ChatGPT-Ausgabe sucht, beispielsweise mangelnder Abwechslung bei der Wortwahl. Sie extrahierten auch die Tastenanschläge der Arbeiter, um herauszufinden, ob sie ihre Antworten kopiert und eingefügt hatten, ein Indikator dafür, dass sie ihre Antworten woanders generiert hatten.

Sie schätzten, dass zwischen 33 % und 46 % der Arbeitnehmer KI-Modelle wie ChatGPT von OpenAI verwendet hatten. Laut den Autoren der Studie, die auf arXiv veröffentlicht wurde und noch einer Peer-Review unterzogen werden muss, wird dieser Prozentsatz wahrscheinlich noch weiter steigen, da ChatGPT und andere KI-Systeme leistungsfähiger und leichter zugänglich werden.

„Ich glaube nicht, dass es das Ende der Crowdsourcing-Plattformen ist. Es verändert einfach die Dynamik“, sagt Robert West, Assistenzprofessor an der EPFL und Mitautor der Studie.

Die Verwendung von KI-generierten Daten zum Trainieren von KI könnte zu weiteren Fehlern in bereits fehleranfälligen Modellen führen. Große Sprachmodelle stellen falsche Informationen regelmäßig als Tatsachen dar. Wenn sie falsche Ausgaben erzeugen, die wiederum zum Trainieren anderer KI-Modelle verwendet werden, können die Fehler von diesen Modellen absorbiert und mit der Zeit verstärkt werden, was es immer schwieriger macht, ihre Ursprünge herauszufinden, sagt Ilia Shumailov, ein Nachwuchswissenschaftler im Computerbereich Wissenschaft an der Universität Oxford, der nicht an dem Projekt beteiligt war.

Schlimmer noch: Es gibt keine einfache Lösung. „Das Problem besteht darin, dass man bei der Verwendung künstlicher Daten Fehler aus Missverständnissen der Modelle und statistischen Fehlern erhält“, sagt er. „Sie müssen sicherstellen, dass Ihre Fehler die Ausgabe anderer Modelle nicht verzerren, und es gibt keine einfache Möglichkeit, dies zu tun.“

Die Studie unterstreicht die Notwendigkeit neuer Methoden zur Überprüfung, ob Daten von Menschen oder KI produziert wurden. Es verdeutlicht auch eines der Probleme, die sich aus der Tendenz von Technologieunternehmen ergeben, sich auf Gig-Worker zu verlassen, die die lebenswichtige Arbeit der Bereinigung der in KI-Systeme eingespeisten Daten erledigen.

„Ich glaube nicht, dass alles zusammenbrechen wird“, sagt West. „Ich denke aber, dass die KI-Community genau untersuchen muss, welche Aufgaben am anfälligsten für Automatisierung sind, und Wege finden muss, dies zu verhindern.“

source site

Leave a Reply