KI kann härtere Strafen und strengere Urteile verhängen als Menschen: Studie

Laut einer neuen Studie von MIT-Forschern kann künstliche Intelligenz bei Urteilen nicht mit Menschen mithalten und neigt eher dazu, härtere Strafen und Bestrafungen für Regelverstöße zu verhängen.

Das Ergebnis könnte Auswirkungen auf die reale Welt haben, wenn KI-Systeme eingesetzt werden, um die Wahrscheinlichkeit eines Rückfalls eines Straftäters vorherzusagen, was zu längeren Gefängnisstrafen oder einer höheren Kaution führen könnte, heißt es in der Studie.

Forscher der Universität Massachusetts sowie kanadischer Universitäten und gemeinnütziger Organisationen untersuchten Modelle des maschinellen Lernens und stellten fest, dass KI, wenn sie nicht richtig trainiert wird, schwerwiegendere Entscheidungen trifft als Menschen.

Die Forscher erstellten vier hypothetische Codeeinstellungen, um Szenarien zu schaffen, in denen Menschen möglicherweise gegen Regeln verstoßen, beispielsweise die Unterbringung eines aggressiven Hundes in einem Apartmentkomplex, in dem bestimmte Rassen verboten sind, oder die Verwendung obszöner Sprache in einem Kommentarbereich im Internet

Anschließend beschrifteten die menschlichen Teilnehmer die Fotos oder Texte und nutzten ihre Antworten zum Trainieren von KI-Systemen.

„Ich denke, die meisten Forscher im Bereich künstliche Intelligenz/maschinelles Lernen gehen davon aus, dass die menschlichen Urteile in Daten und Etiketten voreingenommen sind, aber dieses Ergebnis sagt etwas Schlimmeres aus“, sagte Marzyeh Ghassemi, Assistenzprofessorin und Leiterin der Healthy ML Group in der Informatik und Labor für künstliche Intelligenz am MIT.

„Diese Modelle reproduzieren nicht einmal bereits voreingenommene menschliche Urteile, weil die Daten, auf denen sie trainiert werden, einen Fehler aufweisen“, fuhr Ghassemi fort. „Menschen würden die Merkmale von Bildern und Texten anders kennzeichnen, wenn sie wüssten, dass diese Merkmale für ein Urteil verwendet werden.“

MUSK warnt vor den Auswirkungen von KI auf Wahlen und fordert US-Aufsicht: „Dinge werden seltsam … schnell“

Laut einer neuen Studie kann künstliche Intelligenz härtere Entscheidungen treffen als Menschen, wenn sie mit der Entscheidungsfindung beauftragt wird. (iStock)

Unternehmen im ganzen Land und auf der ganzen Welt haben mit der Implementierung von KI-Technologie begonnen oder erwägen den Einsatz der Technologie zur Unterstützung bei alltäglichen Aufgaben, die normalerweise von Menschen erledigt werden.

Die neue Forschung unter der Leitung von Ghassemi untersuchte, wie genau KI „das menschliche Urteilsvermögen reproduzieren kann“. Die Forscher stellten fest, dass KI-Systeme eine menschenähnlichere Reaktion erzielen, wenn Menschen Systeme mit „normativen“ Daten trainieren – bei denen Menschen einen potenziellen Verstoß explizit kennzeichnen – als wenn sie mit „beschreibenden Daten“ trainiert werden.

Wie Deepfakes kurz davor stehen, die politische Verantwortung zu zerstören

Unter beschreibenden Daten versteht man dann, wenn Menschen Fotos oder Text sachlich beschriften, etwa indem sie das Vorhandensein von frittiertem Essen auf einem Foto eines Esstellers beschreiben. Wenn deskriptive Daten verwendet werden, prognostizieren KI-Systeme häufig Verstöße, etwa das Vorhandensein von frittiertem Essen, das gegen eine hypothetische Regel an einer Schule verstößt, die frittiertes Essen oder Mahlzeiten mit hohem Zuckergehalt verbietet, heißt es in der Studie.

KI-Foto

In dieser Abbildung vom 31. März 2023 sind Wörter der künstlichen Intelligenz zu sehen. (REUTERS/Dado Ruvic/Illustration)

Die Forscher erstellten hypothetische Codes für vier verschiedene Situationen, darunter: Essensbeschränkungen in der Schule, Kleiderordnung, Haustierregeln in Wohnungen und Regeln für Online-Kommentarbereiche. Anschließend forderten sie Menschen auf, sachliche Merkmale eines Fotos oder Textes zu kennzeichnen, beispielsweise das Vorhandensein von Obszönitäten in einem Kommentarbereich, während eine andere Gruppe gefragt wurde, ob ein Foto oder Text gegen eine hypothetische Regel verstoße.

Die Studie zeigte beispielsweise Menschen Fotos von Hunden und fragte, ob die Welpen gegen die Richtlinien eines hypothetischen Apartmentkomplexes gegen die Haltung aggressiver Hunderassen auf dem Gelände verstießen. Anschließend verglichen die Forscher die Antworten der Befragten unter dem Dach normativer und deskriptiver Daten und stellten fest, dass Menschen basierend auf deskriptiven Daten mit einer um 20 % höheren Wahrscheinlichkeit einen Hund meldeten, der gegen die Regeln eines Apartmentkomplexes verstoßen hatte.

KI könnte zum „Terminator“ werden und nach den darwinistischen Regeln der Evolution die Oberhand über den Menschen gewinnen, warnt ein Bericht

Anschließend trainierten die Forscher ein KI-System mit den normativen Daten und ein weiteres mit den deskriptiven Daten zu den vier hypothetischen Einstellungen. Die Studie ergab, dass das auf deskriptiven Daten trainierte System eher einen potenziellen Regelverstoß fälschlicherweise vorhersagte als das normative Modell.

Gerichtssaal und Hammer

In einem Gerichtssaal mit Blick auf den Hammer. (iStock)

„Das zeigt, dass die Daten wirklich wichtig sind“, sagte Aparna Balagopalan, eine Doktorandin der Elektrotechnik und Informatik am MIT, die bei der Erstellung der Studie mitgewirkt hat, gegenüber MIT News. „Es ist wichtig, den Trainingskontext an den Bereitstellungskontext anzupassen, wenn Sie Modelle trainieren, um zu erkennen, ob eine Regel verletzt wurde.“

Die Forscher argumentierten, dass Datentransparenz dabei helfen könnte, dass KI hypothetische Verstöße vorhersagt oder Systeme sowohl mit deskriptiven Daten als auch mit einer kleinen Menge normativer Daten trainiert.

Krypto-Kriminelle aufgepasst: KI ist hinter Ihnen her

„Die Möglichkeit, dies zu beheben, besteht darin, transparent anzuerkennen, dass wir, wenn wir menschliches Urteilsvermögen reproduzieren wollen, nur Daten verwenden dürfen, die in diesem Umfeld gesammelt wurden“, sagte Ghassemi gegenüber MIT News.

„Andernfalls werden wir mit Systemen enden, die extrem strenge Moderationen haben, viel strenger als das, was Menschen tun würden. Menschen würden Nuancen erkennen oder eine andere Unterscheidung treffen, während diese Modelle dies nicht tun.“

Eine Illustration der Logos von ChatGPT und Google Bard

Eine Illustration der Logos von ChatGPT und Google Bard (Jonathan Raa/NurPhoto über Getty Images)

Der Bericht kommt zu einem Zeitpunkt, zu dem in einigen Berufsbranchen Befürchtungen aufkommen, dass KI Millionen von Arbeitsplätzen vernichten könnte. Ein Bericht von Goldman Sachs Anfang des Jahres ergab, dass generative KI weltweit 300 Millionen Arbeitsplätze ersetzen und beeinträchtigen könnte. Eine weitere Studie des Outplacement- und Executive-Coaching-Unternehmens Challenger, Gray & Christmas ergab, dass der KI-Chatbot ChatGPt mindestens 4,8 Millionen amerikanische Arbeitsplätze ersetzen könnte.

KLICKEN SIE HIER, UM DIE FOX NEWS-APP ZU ERHALTEN

Ein KI-System wie ChatGPT ist in der Lage, menschliche Konversationen basierend auf menschlichen Eingabeaufforderungen nachzuahmen. Laut einem aktuellen Arbeitspapier des National Bureau of Economic Research hat sich das System bereits für einige professionelle Branchen als vorteilhaft erwiesen, beispielsweise für Kundendienstmitarbeiter, die ihre Produktivität mit Hilfe von OpenAIs Generative Pre-trained Transforme steigern konnten.

source site

Leave a Reply