Anwalt in Schwierigkeiten, nachdem er künstliche Intelligenz eingesetzt hat, um erfundene Informationen zu präsentieren

Eine New Yorker Anwältin könnte mit Disziplinarmaßnahmen rechnen, nachdem festgestellt wurde, dass ein von ihr zitierter Fall durch künstliche Intelligenz generiert wurde und tatsächlich nicht existierte.

Das 2. US-Berufungsgericht ordnete letzte Woche die Anwältin Jae Lee in sein Beschwerdegremium ein, nachdem herausgefunden wurde, dass sie ChatGPT von OpenAI zur Recherche früherer Fälle für eine Klage wegen ärztlicher Kunstfehler genutzt hatte, konnte jedoch nicht bestätigen, ob der von ihr angeführte Fall tatsächlich existierte, heißt es in einem Bericht von Reuters.

Die Anwältin fügte dem Bericht zufolge die fiktive Entscheidung des Staatsgerichts in die Berufung ihrer Mandantin ein, in der sie behauptete, ein Arzt aus Queens habe eine Abtreibung verpfuscht, was das Gericht dazu veranlasste, Lee aufzufordern, eine Kopie der Entscheidung vorzulegen, die der Anwalt später feststellte. nicht in der Lage zu liefern.

Das Verhalten des Anwalts „liegt deutlich unter den grundlegenden Pflichten eines Rechtsbeistands“, kam das 2. US-Berufungsgericht in seiner Disziplinarprüfung zu dem Schluss, die Lee zugesandt wurde.

RECHTSANWÄLTE, DIE CHATGPT VERWENDET HABEN, HABEN FALSCHE RECHTSRECHERCHEN, DIE VON KI-CHATBOT HERGESTELLT WURDEN

Das ChatGPT-Logo auf einem Laptop-Computer. (Gabby Jones/Bloomberg über Getty Images)

Lee gab später zu, einen Fall verwendet zu haben, der ihr von ChatGPT, einem beliebten KI-Chatbot, „vorgeschlagen“ wurde, und die Ergebnisse selbst nicht überprüft zu haben.

Der Anwalt entschied sich, die beliebte Anwendung zu verwenden, obwohl Experten vor solchen Praktiken gewarnt haben und darauf hingewiesen haben, dass KI eine relativ neue Technologie ist, die auch dafür bekannt ist, falsche oder irreführende Ergebnisse zu „halluzinieren“.

„Bei der Verwendung einer KI-Anwendung ist es wichtig zu verstehen, dass das oberste Ziel der KI darin besteht, Sie glücklich zu machen und nicht darin, die absolute Wahrheit herauszufinden. Darüber hinaus ist es wichtig zu verstehen, wie KI funktioniert“, sagt Christopher Alexander, Chief Analytics Officer von Pioneer Development Group, sagte Fox News Digital. „KI ist kein empfindungsfähiges Genie, das der ultimative Schiedsrichter über alles Wissen ist.“

Lee argumentierte, dass bei ihrer Entscheidung, den Fake-Fall zu nutzen, „keine Bösgläubigkeit, Eigensinn oder Vorurteile gegenüber der gegnerischen Partei oder dem Justizsystem“ im Spiel gewesen seien, und sagte Reuters, sie sei „verpflichtet, die höchsten professionellen Standards einzuhalten und diese Angelegenheit anzugehen“. mit der Ernsthaftigkeit, die es verdient.“

Lee antwortete nicht sofort auf eine Anfrage von Fox News nach einem Kommentar.

In einer Blindstudie wurde festgestellt, dass CHATGPT eine bessere medizinische Beratung bietet als echte Ärzte: „Das wird bahnbrechend sein“

Der Fall des Anwalts kommt zu einer Zeit, in der sich das Justizsystem zunehmend mit dem Einsatz von KI in Rechtsakten auseinandersetzen musste, darunter ein Fall im Juni 2023, bei dem zwei New Yorker Anwälte mit Sanktionen belegt wurden, nachdem festgestellt wurde, dass sie einen Schriftsatz eingereicht hatten, der sechs erfundene Zitate enthielt , laut Reuters. Ein weiterer Anwalt aus Colorado wurde im November wegen ähnlicher Taten von der Anwaltstätigkeit suspendiert.

„Dies zeigt, wie die amerikanische Berufsklasse zunehmend inkompetent wird“, sagte Samuel Mangold-Lenett, Redakteur bei The Federalist, gegenüber Fox News Digital. „Der bloße Gedanke, chatGPT oder einen anderen Dienst für diesen Zweck zu nutzen, hätte diesem Anwalt während des Studiums aus dem Weg geräumt werden müssen. Dass es keine Due-Diligence-Prüfung und keine weitere Untersuchung des durch ChatGPT ausgelösten Gerichtsverfahrens gab, ist obszön.“

Mangold-Lenett fügte hinzu, dass Berufsverbände und Anwaltskammern mehr tun sollten, „um ihre Mitglieder zur Rechenschaft zu ziehen und sie weiter über die Folgen einer übermäßigen Abhängigkeit von KI in der Forschung aufzuklären“, und argumentierte, dass der Einsatz von KI für die Forschung kein Problem sei, sondern dass die Arbeit es brauche müssen von den Anwendern der Technologie überprüft werden.

Archivbild des Richters

Es ist bereits bekannt, dass KI gefälschte Gerichtsverfahren halluziniert. (iStock)

„Inkompetenz und Selbstgefälligkeit sind in Fachkreisen weit verbreitet. Solche Dinge werden weiterhin ein Problem sein, bis die Menschen aufgeklärt und zur Rechenschaft gezogen werden“, sagte Mangold-Lenett.

Jake Denton, wissenschaftlicher Mitarbeiter am Tech Policy Center der Heritage Foundation, stimmte zu, dass KI „enorm vielversprechend“ sei, warnte jedoch davor, dass die Technologie noch viele Herausforderungen zu bewältigen habe.

„Der derzeitige Mangel an Transparenz in vielen KI-Systemen ist besorgniserregend, da er die Gefahr birgt, dass Fachleute wie Anwälte den Ergebnissen eines Systems vertrauen, obwohl sie nicht vollständig verstehen, wie die Ergebnisse generiert wurden“, sagte Denton gegenüber Fox News Digital.

KI WIRD DEN MENSCHEN KREATIVER MACHEN, NICHT ERSETZEN, SCHAUEN UNTERHALTUNGSFÜHRUNGSKRÄFTE VOR

Diese Probleme, einschließlich Halluzinationen, seien „kein neues Phänomen“, so Ziven Havens, Policy Director des Bull Moose-Projekts, der gegenüber Fox News Digital sagte, dass die Technologie von Anwälten nur zur „Ergänzung“ der Forschung eingesetzt werden dürfe.

„Sie sollten alle Informationen überprüfen, um ihre Authentizität sicherzustellen“, sagte Havens. „Außerdem müssen KI-Entwickler weiter daran arbeiten, die Zahl der Halluzinationen zu verringern.“

Es ist unwahrscheinlich, dass sich die Probleme, die zu Lees Disziplinierung führten, so schnell ändern werden, was bedeutet, dass Menschen, die Plattformen wie ChatGPT nutzen, wahrscheinlich weiterhin zur Verantwortung gezogen werden, wenn die Technologie Fehler macht.

„Wenn Menschen KI-generierte Arbeit als ihre eigene präsentieren, muss von ihnen verlangt werden, die volle Verantwortung für diese Arbeit zu übernehmen – und mit Konsequenzen rechnen zu müssen, wenn sie plagiiert, schlampig oder ungenau ist“, sagt Jon Schweppe, Policy Director des American Principles Project. sagte Fox News Digital. „In der Zwischenzeit sollten KI-Unternehmen alles tun, um die Benutzer daran zu erinnern, dass KI noch in den Kinderschuhen steckt und in keiner Weise als zuverlässig oder vertrauenswürdig angesehen werden sollte.“

Sprachmodell für künstliche Intelligenz

Die KI-Chat-Anwendungen Microsoft Bing Chat und ChatGPT werden auf einem mobilen Gerät angezeigt. (Jaap Arriens/NurPhoto über Getty Images)

Dem Reuters-Bericht zufolge hat der Regelausschuss des 2. Gerichtsbezirks Diskussionen über KI geführt, aber noch kein Gremium gebildet, um das Thema umfassend zu untersuchen. Unterdessen enthüllte ein separater Reuters-Bericht im November, dass das 5. US-Berufungsgericht eine neue Regel vorgeschlagen hat, die von Anwälten verlangen würde, zu bestätigen, dass sie sich bei der Erstellung von Schriftsätzen nicht auf KI verlassen und dass mithilfe von KI erhaltene Informationen von Menschen auf Richtigkeit überprüft wurden .

KLICKEN SIE HIER, UM DIE FOX NEWS-APP ZU ERHALTEN

Solche Vorschläge kommen, weil die KI nicht in der Lage ist, die Anforderungen einiger Anwälte zu erfüllen, was zum großen Teil darauf zurückzuführen ist, dass nicht genügend Falldaten vorliegen, aus denen die Technologie schöpfen könnte.

„Die Menge an Falldaten in den heutigen Modellen reicht nicht aus, um daraus Briefe oder schriftliche Stellungnahmen zu erstellen, ohne enorm viel an den Eingabeaufforderungen herumzubasteln. Die Modelle werden also halluzinieren“, sagt Phil Siegel, der Gründer des Center for Advanced Preparedness und Threat Response Simulation (CAPTRS), sagte Fox News Digital. „Selbst danach wird eine umfangreiche Qualitätskontrolle erforderlich sein, da die Modelle sowohl die Rechtssprache als auch Interpretationen aufnehmen, was zur Modellhalluzination beitragen kann, selbst wenn alle Daten im Modell enthalten sind.“

Unterdessen sieht Alexander einen Weg nach vorne für den Einsatz von KI im juristischen Bereich, warnte jedoch davor, dass eine solche Plattform für diesen Einsatz derzeit nicht existiert.

„Es ist sicherlich möglich, eine KI von, für und mit Rechtsexperten aufzubauen oder vielleicht auch zu modifizieren, aber diese existiert derzeit nicht auf dem Niveau, das für die Verwendung bei juristischen Zitaten erforderlich ist“, sagte Alexander. „Die leistungsstärksten KI-Plattformen des privaten Sektors sind allgemeiner Natur und werden durch Interaktion und kontinuierliches Training verfeinert. Dies sollte als Warnung für jeden dienen, der KI für irgendeinen Zweck nutzt. KI ist ein Werkzeug, das Sie zur Lösung führt, die sie selten bietet.“ die Lösung selbst.“

source site

Leave a Reply