Das Jahr, in dem KI das Internet gefressen hat

Vor etwas mehr als einem Jahr schien die Welt sich des Versprechens und der Gefahren der künstlichen Intelligenz bewusst zu werden, als OpenAI ChatGPT herausbrachte, eine Anwendung, die es Benutzern ermöglicht, auf einzigartige menschliche Weise mit einem Computer zu kommunizieren. Innerhalb von fünf Tagen hatte der Chatbot eine Million Nutzer. Innerhalb von zwei Monaten verzeichnete es monatlich hundert Millionen Nutzer – eine Zahl, die sich mittlerweile fast verdoppelt hat. Nennen wir es das Jahr, in dem viele von uns gelernt haben, mit Robotern zu kommunizieren, etwas zu erschaffen, zu betrügen und mit ihnen zusammenzuarbeiten.

Kurz nach der Veröffentlichung von ChatGPT veröffentlichte Google seinen eigenen Chatbot, Bard; Microsoft hat das OpenAI-Modell in seine Bing-Suchmaschine integriert. Meta debütierte mit LLaMA; und Anthropic brachte Claude heraus, einen „KI-Assistenten der nächsten Generation für Ihre Aufgaben, unabhängig von der Größenordnung“. Plötzlich schien das Internet fast lebendig zu sein. Es war nicht so, dass KI an sich neu war: Tatsächlich ist künstliche Intelligenz zu einem so alltäglichen Teil unseres Lebens geworden, dass wir sie kaum noch erkennen, wenn ein Netflix-Algorithmus einen Film empfiehlt, ein Kreditkartenunternehmen automatisch betrügerische Aktivitäten erkennt oder Amazons Alexa liefert eine Zusammenfassung der Morgennachrichten.

Aber während diese KIs im Hintergrund arbeiten, oft auf skriptgesteuerte und spröde Weise, sind Chatbots reaktionsschnell und improvisatorisch. Sie sind auch unvorhersehbar. Wenn wir sie um Hilfe bitten, ihnen Fragen zu Dingen stellen, die wir nicht kennen, oder sie um kreative Hilfe bitten, erzeugen sie oft Dinge, die vorher nicht existierten, scheinbar aus dem Nichts. Gedichte, Literaturrezensionen, Essays, Forschungsarbeiten und Theaterstücke mit drei Akten werden in einfacher, unverkennbar menschlicher Sprache vorgetragen. Es ist, als wäre der Gott in der Maschine nach unserem Bild geschaffen worden. Bitten Sie ChatGPT, ein Lied über selbstfahrende Autos im Stil von Johnny Cash zu schreiben, und Sie erhalten möglicherweise einen Text wie diesen:

Fahre alleine, aber ich bin nie allein,
Habe meine KI auf der Schrotflinte reiten lassen, stabil wie ein Stein.
Auf der endlosen Straße, unter dem so riesigen Himmel,
Ein Geisterfahrer am Steuer, Fußspuren der Vergangenheit.

Bitten Sie ihn, ein Lied über selbstfahrende Autos im Stil von Giuseppe Verdi zu schreiben, und ChatGPT setzt die Szene in Szene, in der ein Tenor singt:

Ecco la carrozza senza cavallo! (Seht die Kutsche ohne Pferd!)
Scivola nella notte, silenziosa come il fato. (Es gleitet durch die Nacht, still wie das Schicksal.)
L’ingegno dell’uomo, l’orgoglio del progresso, (Der Einfallsreichtum des Menschen, der Stolz des Fortschritts)
In diesem Tanz haben wir unser Schicksal bestimmt. (In diesem Stahltanz weben wir unser Schicksal.)

Obwohl es unwahrscheinlich ist, dass sie viele Auszeichnungen gewinnen werden, zumindest bisher, lassen Chatbots wie ChatGPT unsere Smart-Geräte dumm klingen. Sie beherrschen nicht nur Fremdsprachen, sondern auch Programmiersprachen; Sie können umfangreiche Rechts- und Finanzdokumente schnell zusammenfassen. Sie beginnen, medizinische Probleme zu diagnostizieren. Sie können die Anwaltsprüfung ohne Studium bestehen. Auf der anderen Seite könnten wir zu der Annahme verleitet werden, dass KI-Modelle tatsächlich – und nicht künstlich – intelligent sind und dass sie die Bedeutung und Implikationen der von ihnen bereitgestellten Inhalte verstehen. Sie nicht. Sie sind, in den Worten der Linguistin Emily Bender und drei Co-Autoren, „stochastische Papageien“. Es sollte nicht vergessen werden, dass KI, bevor sie als intelligent gelten konnte, einen großen Teil der menschlichen Intelligenz verschlingen musste. Und bevor wir lernten, mit Robotern zusammenzuarbeiten, musste den Robotern beigebracht werden, mit uns zusammenzuarbeiten.

Um überhaupt zu verstehen, wie diese Chatbots funktionieren, mussten wir neues Vokabular beherrschen, von „großen Sprachmodellen“ (LLMs) und „neuronalen Netzen“ bis hin zu „Verarbeitung natürlicher Sprache“ (NLP) und „generativer KI“. Mittlerweile haben wir Kennen Sie die Grundzüge: Chatbots haben das Internet verschlungen und es mit einer Art maschinellem Lernen analysiert, das das menschliche Gehirn nachahmt; Sie reihen Wörter statistisch aneinander, basierend darauf, welche Wörter und Phrasen normalerweise zusammengehören. Dennoch bleibt der schiere Erfindungsreichtum der künstlichen Intelligenz weitgehend unergründlich, wie wir herausgefunden haben, als Chatbots „halluzinierten“.

Bard von Google hat beispielsweise Informationen über das James-Webb-Teleskop erfunden. Bing von Microsoft bestand darauf, dass die Sängerin Billie Eilish bei der Super Bowl-Halbzeitshow 2023 aufgetreten sei. „Ich habe nicht verstanden, dass ChatGPT Fälle fabrizieren kann“, sagte ein Anwalt, dessen Schriftsatz vor dem Bundesgericht voller falscher Zitate und erfundener Gerichtsgutachten von ChatGPT war. (Das Gericht verhängte eine Geldstrafe von fünftausend Dollar.) Im Kleingedruckten räumt ChatGPT ein, dass es möglicherweise nicht zuverlässig ist: „ChatGPT kann Fehler machen. Erwägen Sie, wichtige Informationen zu überprüfen.“ Seltsamerweise deutet eine aktuelle Studie darauf hin, dass ChatGPT im letzten Jahr weniger genau geworden ist, wenn es darum geht, bestimmte Aufgaben auszuführen. Forscher vermuten, dass dies etwas mit dem Material zu tun hat, auf dem es trainiert. Da OpenAI jedoch nicht mitteilt, was es zum Trainieren seines LLM verwendet, handelt es sich lediglich um eine Vermutung.

Das Wissen, dass Chatbots Fehler machen, hat High-School- und College-Studenten nicht davon abgehalten, zu den eifrigsten Early Adopters zu gehören, die Chatbots zum Recherchieren und Verfassen ihrer Arbeiten, zum Vervollständigen von Problemstellungen und zum Schreiben von Code nutzen. (Während der Abschlusswoche letzten Mai ging ein Student von mir durch die Bibliothek und sah, dass fast jeder Laptop für ChatGPT geöffnet war.) Mehr als die Hälfte der jungen Leute, die an einer aktuellen Junior Achievement-Umfrage teilnahmen, gaben an, einen Chatbot zu verwenden Bei den Schularbeiten zu helfen, war ihrer Ansicht nach Betrug. Dennoch sagte fast die Hälfte, dass sie es wahrscheinlich nutzen würden.

Die Schulleitungen waren nicht weniger konfliktreich. Sie konnten sich offenbar nicht entscheiden, ob Chatbots Mittel zur Täuschung oder Werkzeuge zum Lernen sind. Im Januar verbot David Banks, der Schulkanzler von New York City, ChatGPT; sagte ein Sprecher der Zeitung Washington Post dass der Chatbot „keine Fähigkeiten zum kritischen Denken und zur Problemlösung aufbaut, die für den akademischen und lebenslangen Erfolg unerlässlich sind.“ Vier Monate später hob Banks das Verbot auf, nannte es „reflexartig“ und angstbasiert und sagte, dass es „das Potenzial generativer KI zur Unterstützung von Schülern und Lehrern sowie die Realität, an der unsere Schüler teilnehmen, außer Acht lässt.“ wird in einer Welt funktionieren, in der das Verständnis generativer KI von entscheidender Bedeutung ist.“ Dann gab es einen Professor an der Texas A&M, der beschloss, ChatGPT zu nutzen, um Studenten auszumerzen, die mit ChatGPT betrogen hatten. Nachdem der Bot festgestellt hatte, dass die gesamte Klasse dies getan hatte, drohte der Professor damit, alle im Stich zu lassen. Das Problem war, dass ChatGPT halluzinierte. (Es gibt andere KI-Programme, um Betrüger zu fangen; die Chatbot-Erkennung ist eine Wachstumsbranche.) In gewisser Weise sind wir alle diese Professoren, die Betatests von Produkten durchführen, deren Fähigkeiten wir möglicherweise überschätzen, falsch interpretieren oder einfach nicht verstehen.

Künstliche Intelligenz wird bereits zur Erstellung von Finanzberichten, Anzeigentexten und Sportnachrichten eingesetzt. Im März sagte Greg Brockman, Mitbegründer von OpenAI und dessen Präsident, freudig voraus, dass Chatbots in Zukunft auch dabei helfen würden, Drehbücher für Filme zu schreiben und Szenen umzuschreiben, die den Zuschauern nicht gefielen. Zwei Monate später streikte die Writers Guild of America und forderte einen Vertrag, der uns alle vor miesen KI-generierten Filmen schützen würde. Sie spürten, dass jede KI-Plattform, die in vielen menschlichen Bereichen glaubwürdige Arbeit leisten kann, eine existenzielle Bedrohung für die Kreativität selbst darstellen könnte.

Während Drehbuchautoren im September über ein Ende ihres fünfmonatigen Streiks verhandelten, nachdem sie die Studios davon überzeugt hatten, auf KI-Drehbücher zu verzichten, reichte die Authors Guild zusammen mit einer Gruppe prominenter Romanautoren eine Sammelklage gegen OpenAI ein. Sie behaupteten, dass das Unternehmen bei der Säuberung des Internets ihre urheberrechtlich geschützten Werke ohne Zustimmung oder Entschädigung genutzt habe. Obwohl die Autoren angesichts der wenig offenen Politik von OpenAI zur Weitergabe ihrer Trainingsdaten nicht sicher wissen konnten, dass das Unternehmen sich ihre Bücher angeeignet hatte, wurde in der Beschwerde darauf hingewiesen, dass ChatGPT frühzeitig auf Anfragen zu bestimmten Büchern mit wörtlichen Zitaten reagierte , „was darauf hindeutet, dass das zugrunde liegende LLM diese Bücher vollständig aufgenommen haben muss.“ (Jetzt wurde der Chatbot so umgeschult, dass er sagt: „Ich kann keine wörtlichen Auszüge aus urheberrechtlich geschützten Texten bereitstellen.“) Einige Unternehmen verkaufen jetzt Eingabeaufforderungen, um Benutzern dabei zu helfen, sich als bekannte Autoren auszugeben. Und ein Schriftsteller, der sich mühelos nachahmen lässt, ist möglicherweise nicht viel wert.

source site

Leave a Reply