Der Download: Die Grenzen der KI | MIT Technology Review

Der neue Chatbot der Weltgesundheitsorganisation wurde am 2. April mit den besten Absichten gestartet. Der virtuelle Avatar namens SARAH sollte Millionen Menschen auf der ganzen Welt Gesundheitstipps geben, wie sie sich gesund ernähren, mit dem Rauchen aufhören, Stress abbauen und vieles mehr. Doch wie alle Chatbots kann SARAH bei seinen Antworten patzen. Es stellte sich schnell heraus, dass er falsche Informationen lieferte. In einem Fall lieferte er eine Liste mit falschen Namen und Adressen für nicht existierende Kliniken in San Francisco.

Chatbot-Fehler sind mittlerweile ein bekanntes Meme. Metas kurzlebiger Wissenschafts-Chatbot Galactica verfasste akademische Arbeiten und generierte Wiki-Artikel über die Geschichte der Bären im Weltraum. Im Februar wurde Air Canada dazu verpflichtet, eine Rückerstattungsrichtlinie einzuhalten, die von seinem Kundenservice-Chatbot erfunden wurde. Letztes Jahr wurde ein Anwalt mit einer Geldstrafe belegt, weil er Gerichtsdokumente voller gefälschter Gerichtsgutachten und Rechtszitate eingereicht hatte, die von ChatGPT erfunden worden waren.

Diese Tendenz, Dinge zu erfinden – auch Halluzination genannt – ist eines der größten Hindernisse für die weitere Verbreitung von Chatbots. Warum tun sie das? Und warum können wir das nicht ändern? Lesen Sie die ganze Geschichte.

—Will Douglas Heaven

Wills Artikel ist der neueste Eintrag in MIT Technology Review Explains, unserer Serie, die die komplexe, chaotische Welt der Technologie erklärt, um Ihnen zu helfen, zu verstehen, was als nächstes kommt. Sie können sich den Rest der Serie hier.

Die Geschichte stammt auch aus der kommenden Zeitschriftenausgabe des MIT Technology Review, die sich mit dem Thema „Spielen“ beschäftigt. Sie soll am Mittwoch, den 26. Juni, online gehen. Wenn Sie es also noch nicht getan haben, abonnieren Jetzt, um eine Kopie zu erhalten, wenn es eintrifft.

Warum Künstler weniger Angst vor KI haben

Klopf, klopf. Wer ist da? Eine KI mit generischen Witzen. Forscher von Google DeepMind haben 20 professionelle Komiker gebeten, beliebte KI-Sprachmodelle zu verwenden, um Witze und Comedy-Auftritte zu schreiben. Ihre Ergebnisse waren gemischt. Obwohl die Tools ihnen dabei halfen, erste Entwürfe zu erstellen und ihre Routinen zu strukturieren, war die KI nicht in der Lage, etwas zu produzieren, das originell, anregend oder – was entscheidend ist – lustig war.

Die Studie ist symptomatisch für einen breiteren Trend: Wir erkennen die Grenzen dessen, was KI für Künstler leisten kann. Sie kann einige der langweiligen, banalen und formelhaften Aspekte des kreativen Prozesses übernehmen, aber sie kann die Magie und Originalität, die Menschen mitbringen, nicht ersetzen. Lesen Sie die ganze Geschichte.

source site

Leave a Reply