Zu den Anwälten, die ChatGPT nutzten, gehörten auch gefälschte Rechtsrecherchen, die von KI-Chatbots erstellt wurden

Zwei entschuldigende Anwälte antworteten auf einen verärgerten Richter am Bundesgericht in Manhattan und beschuldigten ChatGPT am Donnerstag, sie dazu verleitet zu haben, fiktive Rechtsrecherchen in eine Gerichtsakte einzubeziehen.

Den Anwälten Steven A. Schwartz und Peter LoDuca droht eine mögliche Strafe, weil sie eine Klage gegen eine Fluggesellschaft eingereicht haben, die Verweise auf frühere Gerichtsverfahren enthielt, die Schwartz für real hielt, in Wirklichkeit aber von dem auf künstlicher Intelligenz basierenden Chatbot erfunden wurden.

Schwartz erklärte, dass er das bahnbrechende Programm nutzte, um nach rechtlichen Präzedenzfällen zu suchen, die den Fall eines Kunden gegen die kolumbianische Fluggesellschaft Avianca wegen einer Verletzung auf einem Flug im Jahr 2019 stützten.

In einer Blindstudie wurde festgestellt, dass CHATGPT eine bessere medizinische Beratung bietet als echte Ärzte: „Das wird bahnbrechend sein“

Der Chatbot, der die Welt mit seiner Produktion essayartiger Antworten auf Eingabeaufforderungen von Benutzern fasziniert, schlug mehrere Fälle vor, bei denen es um Flugunfälle ging, die Schwartz mit den in seiner Anwaltskanzlei üblichen Methoden nicht finden konnte.

Das Problem war, dass einige dieser Fälle nicht real waren oder Fluggesellschaften betrafen, die nicht existierten.

Schwartz sagte dem US-Bezirksrichter P. Kevin Castel, er gehe „von der falschen Vorstellung aus, dass diese Website diese Fälle aus einer Quelle beziehe, zu der ich keinen Zugang habe“.

Er sagte, er habe es „kläglich versäumt“, Nachforschungen anzustellen, um sicherzustellen, dass die Zitate korrekt seien.

„Ich habe nicht verstanden, dass ChatGPT Fälle fabrizieren kann“, sagte Schwartz.

Die ChatGPT-App wird am 18. Mai 2023 in New York auf einem iPhone angezeigt. Ein Bundesrichter in Manhattan entscheidet, ob zwei Anwälte sanktioniert werden sollen, die ChatGPT beschuldigt haben, sie dazu verleitet zu haben, gefälschte juristische Recherchen einzubeziehen. (AP Photo/Richard Drew, Datei)

Microsoft hat rund 1 Milliarde US-Dollar in OpenAI investiert, das Unternehmen hinter ChatGPT.

Sein Erfolg, der zeigt, wie künstliche Intelligenz die Art und Weise, wie Menschen arbeiten und lernen, verändern könnte, hat bei manchen Ängste hervorgerufen. Hunderte von Branchenführern unterzeichneten im Mai einen Brief, in dem sie warnten: „Die Eindämmung des Risikos des Aussterbens durch KI sollte neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkrieg eine globale Priorität sein.“

Richter Castel schien über den ungewöhnlichen Vorfall sowohl verblüfft als auch beunruhigt zu sein und enttäuschte, dass die Anwälte nicht schnell reagierten, um die falschen Rechtszitate zu korrigieren, als sie zum ersten Mal von den Anwälten von Avianca und dem Gericht auf das Problem aufmerksam gemacht wurden. Avianca wies in einer im März eingereichten Akte auf die falsche Rechtsprechung hin.

Der Richter konfrontierte Schwartz mit einem vom Computerprogramm erfundenen Rechtsfall. Es wurde zunächst als Klage einer Frau gegen eine Fluggesellschaft wegen widerrechtlicher Tötung beschrieben, die sich dann in eine Klage gegen einen Mann verwandelte, der einen Flug nach New York verpasst hatte und zusätzliche Kosten tragen musste.

„Können wir uns darauf einigen, dass das juristisches Kauderwelsch ist?“ fragte Castel.

KI WIRD MENSCHLICHER KREATIVER MACHEN, NICHT ERSETZEN, SCHAUEN UNTERHALTUNGSFÜHRUNGSKRÄFTE VOR

Schwartz sagte, er habe fälschlicherweise angenommen, dass die verwirrende Darstellung darauf zurückzuführen sei, dass Auszüge aus verschiedenen Teilen des Falles entnommen worden seien.

Als Castel seine Befragung beendet hatte, fragte er Schwartz, ob er noch etwas zu sagen hätte.

„Ich möchte mich aufrichtig entschuldigen“, sagte Schwartz.

Er fügte hinzu, dass er persönlich und beruflich unter dem Fehler gelitten habe und sich „verlegen, gedemütigt und äußerst reuig“ gefühlt habe.

Er sagte, dass er und die Firma, in der er arbeitete – Levidow, Levidow & Oberman – Sicherheitsvorkehrungen getroffen hätten, um sicherzustellen, dass etwas Ähnliches nicht noch einmal passiert.

LoDuca, ein weiterer Anwalt, der an dem Fall arbeitete, sagte, er vertraue Schwartz und habe die von ihm zusammengestellten Unterlagen nicht ausreichend überprüft.

Nachdem der Richter Auszüge aus einem zitierten Fall vorgelesen hatte, um zu zeigen, wie leicht man erkennen konnte, dass es sich um „Unsinn“ handelte, sagte LoDuca: „Mir wurde nie klar, dass es sich um einen Scheinfall handelte.“

Er sagte, das Ergebnis „schmerze mich bis zum Äußersten“.

Ronald Minkoff, ein Anwalt der Anwaltskanzlei, sagte dem Richter, dass die Eingabe „das Ergebnis von Fahrlässigkeit und nicht von böser Absicht“ sei und keine Sanktionen nach sich ziehen dürfe.

KLICKEN SIE HIER, UM DIE FOX NEWS-APP ZU ERHALTEN

Er sagte, Anwälte hätten in der Vergangenheit Schwierigkeiten mit der Technologie, insbesondere mit neuen Technologien, „und es werde nicht einfacher.“

„Herr Schwartz, jemand, der kaum Bundesforschung betreibt, hat sich für den Einsatz dieser neuen Technologie entschieden. Er dachte, er hätte es mit einer Standardsuchmaschine zu tun“, sagte Minkoff. „Er hat mit scharfer Munition gespielt.“

Daniel Shin, außerordentlicher Professor und stellvertretender Forschungsdirektor am Center for Legal and Court Technology der William & Mary Law School, sagte, er habe den Avianca-Fall letzte Woche während einer Konferenz vorgestellt, die Dutzende von Teilnehmern persönlich und online aus Bundesstaaten und Bundesländern anzog Gerichte in den USA, darunter das Bundesgericht in Manhattan.

Er sagte, das Thema habe bei der Konferenz für Schock und Verwirrung gesorgt.

„Wir sprechen über den Südbezirk von New York, den Bundesbezirk, der große Fälle bearbeitet, vom 11. September bis hin zu all den großen Finanzverbrechen“, sagte Shin. „Dies war der erste dokumentierte Fall potenziellen beruflichen Fehlverhaltens eines Anwalts, der generative KI einsetzt.“

Er sagte, der Fall zeige, dass die Anwälte möglicherweise nicht verstanden hätten, wie ChatGPT funktioniert, weil es zu Halluzinationen neigt und über fiktive Dinge auf eine Weise spricht, die realistisch klingt, es aber nicht ist.

„Es verdeutlicht die Gefahren des Einsatzes vielversprechender KI-Technologien, ohne die Risiken zu kennen“, sagte Shin.

Der Richter sagte, er werde zu einem späteren Zeitpunkt über Sanktionen entscheiden.

source site

Leave a Reply