Pädagogen erforschen KI-Systeme, um die Schüler im Zeitalter von ChatGPT ehrlich zu halten

Einem neuen Bericht zufolge hat ein Unternehmen für Bildungssoftware ein Programm entwickelt, mit dem Schulen und Universitäten feststellen können, ob Schüler KI verwenden, um ihre Tests und Aufsätze zu vervollständigen.

Das Unternehmen Turn It In hat eine lange Geschichte in der Entwicklung von Tools, mit denen Pädagogen Plagiate erkennen können. Das Unternehmen hat sich nun einem KI-System zugewandt, das effektiv feststellen kann, ob Schüler für ihre eigene Arbeit verantwortlich sind oder ob sie sich an eine KI wie ChatGPT gewandt haben.

Laut einem an der University of Southern California durchgeführten Test ist das Tool von Turn It In jedoch nicht narrensicher. Dr. Karen North, Professorin an der Universität, fand laut einem Bericht von NBC News heraus, dass das Tool zwar eine große Menge von KI-generierten Essays erkennen kann, einige jedoch vorbeischleichen und andere authentische Werke unter falscher Flagge erscheinen.

ALLES WAS SIE ÜBER KÜNSTLICHE INTELLIGENZ WISSEN MÜSSEN: WOZU WIRD SIE VERWENDET?

Einige Schüler im ganzen Land haben sich an ChatGPT gewandt, um Hausaufgaben zu fälschen, was ein massives Problem für Pädagogen darstellt. (MARCO BERTORELLO/AFP über Getty Images)

Bildung ist nur einer der unzähligen Bereiche, von denen Experten sagen, dass KI bereits jetzt einen massiven Einfluss hat oder in den kommenden Jahren haben wird.

Das Interesse an KI explodierte nach der Veröffentlichung von OpenAIs ChatGPT Ende letzten Jahres, einem Konversationstool, das Benutzer auffordern können, alle Arten von schriftlichen Arbeiten zu verfassen, von College-Aufsätzen bis hin zu Filmskripten.

MARK WEINSTEIN: DREI MÖGLICHKEITEN, KI JETZT ZU REGULIEREN, BEVOR ES ZU SPÄT IST

Doch so weit fortgeschritten sie ist, so sagen Experten, ist sie erst der Anfang, wie KI eingesetzt werden kann. Angesichts des enormen Potenzials haben einige Branchenführer einen Brief unterzeichnet, in dem sie zu einer Entwicklungspause auffordern, damit verantwortungsvolle Grenzen und Best Practices eingeführt werden können.

Sam Altman, CEO von OpenAI, sagte, dass Sicherheit bei der Entwicklung von KI wichtig sei, argumentierte jedoch, dass eine Pause in der Entwicklung nicht die Lösung sei.

Sam Altman, CEO von OpenAI, sagte, dass Sicherheit bei der Entwicklung von KI wichtig sei, argumentierte jedoch, dass eine Pause in der Entwicklung nicht die Lösung sei. (JASON REDMOND/AFP über Getty Images)

KLICKEN SIE HIER, UM DIE FOX NEWS APP ZU ERHALTEN

Dennoch argumentierte Sam Altman, der OpenAI leitet, letzte Woche, dass eine solche Pause nicht der richtige Weg sei, um das Problem anzugehen.

„Ich denke, dass es wirklich wichtig ist, mit Vorsicht vorzugehen und in Sicherheitsfragen strenger vorzugehen“, sagte er in einem Interview. “Der Brief, glaube ich, ist nicht der optimale Weg, ihn anzusprechen.”

source site

Leave a Reply