Richter werden die KI-Regeln wahrscheinlich selbst in die Hand nehmen, da der Gesetzgeber langsam agiert: Experten

Experten sagen, dass Richter die Bedenken hinsichtlich der künstlichen Intelligenz wahrscheinlich selbst in die Hand nehmen und ihre eigenen Regeln für die Technologie in Gerichtssälen aufstellen.

Der US-Bezirksrichter Brantley Starr vom nördlichen Bezirk von Texas dürfte letzte Woche ein Pionier gewesen sein, als er von Anwälten, die in seinem Gerichtssaal erschienen, eine Bescheinigung verlangte, dass sie keine Programme für künstliche Intelligenz wie ChatGPT verwendet hätten, um ihre Akten ohne menschliche Prüfung zu verfassen Genauigkeit.

„Wir weisen Anwälte, die sonst möglicherweise nicht darauf aufmerksam gemacht würden, zumindest darauf hin, dass sie diesen Datenbanken nicht einfach vertrauen können“, sagte Starr, ein von Trump ernannter Richter, gegenüber Reuters. „Sie müssen es tatsächlich selbst anhand einer herkömmlichen Datenbank überprüfen.“

Experten, die mit Fox News Digital sprachen, argumentierten, dass der Schritt des Richters, ein KI-Versprechen für Anwälte einzuführen, „ausgezeichnet“ sei und ein Aktionsplan sei, der sich im Technologiewettlauf um den Aufbau noch leistungsfähigerer KI-Plattformen wahrscheinlich wiederholen werde.

RICHTER AUS TEXAS SAGT, KEINE KI IM GERICHTSSAAL, ES SEI DENN ANWÄLTE BESTÄTIGEN, DASS SIE VON MENSCHLICH ÜBERPRÜFT WURDE

Die KI-Anleitung in Gerichtssälen könnte einzelnen Richtern überlassen werden, sagten Experten gegenüber Fox News Digital. (iStock)

„Ich denke, dies ist eine hervorragende Möglichkeit, sicherzustellen, dass KI ordnungsgemäß eingesetzt wird“, sagte Christopher Alexander, Chief Communications Officer von Liberty Blockchain. „Der Richter verwendet einfach das alte Sprichwort ‚Vertrauen, aber überprüfen‘.“

„Die Begründung ist wahrscheinlich, dass das Risiko eines Fehlers oder einer Voreingenommenheit zu groß ist“, fügte Alexander hinzu. „Rechtsrecherche ist wesentlich komplexer, als nur Zahlen in einen Taschenrechner einzugeben.“

Starr sagte, er habe den Plan entwickelt, um Anwälten zu zeigen, dass KI halluzinieren und Fälle erfinden kann, und warnte auf der Website des Gerichts in einer Erklärung, dass die Chatbots keinen Eid schwören, das Gesetz aufrechtzuerhalten, wie es Anwälte tun.

Laut einem Bericht hat KI fast 4.000 Menschen in den USA ihren Arbeitsplatz gekostet

„Diese Plattformen sind in ihrem aktuellen Zustand anfällig für Halluzinationen und Voreingenommenheit. Aus Halluzinationen erfinden sie Dinge – sogar Zitate und Zitate“, heißt es in der Erklärung.

„Solche Programme sind nicht an Pflichtgefühl, Ehre oder Gerechtigkeit gebunden und handeln eher nach Computercode als nach Überzeugung, basierend auf Programmierung und nicht auf Prinzipien“, heißt es in der Mitteilung weiter.

KI-Zeichen

Experten sagen, dass Richter die Bedenken hinsichtlich der künstlichen Intelligenz wahrscheinlich selbst in die Hand nehmen und ihre eigenen Regeln für die Technologie in Gerichtssälen aufstellen. (Josep Lago/AFP über Getty Images)

Phil Siegel, Gründer von CAPTRS (Center for Advanced Preparedness and Threat Response Simulation), einer gemeinnützigen Organisation, die sich auf den Einsatz von Simulationsspielen und künstlicher Intelligenz zur Verbesserung der gesellschaftlichen Katastrophenvorsorge konzentriert, sagte, der Richter sei bei seiner KI-Zusage umsichtig gewesen und fügte hinzu, dass KI eine Herausforderung darstellen könne Rolle im Justizsystem der Zukunft.

„An diesem Punkt ist dies eine vernünftige Position für einen Richter. Große Sprachmodelle werden halluzinieren, weil Menschen dies auch tun“, sagte Siegel.

„Es wird jedoch nicht lange dauern, bis gezieltere Datensätze und Modelle erscheinen, die dieses Problem lösen“, fuhr er fort. „In den meisten spezifischen Bereichen wie Recht, aber auch in Architektur, Finanzen usw.“

Er wies darauf hin, wie im Rechtsbereich ein Datensatz erstellt werden könnte, der die gesamte Rechtsprechung und das Zivilstrafrecht nach Gerichtsbarkeit erfasst und zum Trainieren eines KI-Modells verwendet wird.

KI wird mit einer Waffendebatte verglichen, während Studenten am Kreuzungspunkt der Technologie stehen

„Diese Datenbanken können mit Zitiermarkierungen erstellt werden, die einem bestimmten Konventionsschema folgen, das es einem Menschen oder einer KI erschwert, entweder zu halluzinieren oder falsch zu zitieren“, sagte Siegel. „Außerdem muss ein gutes System vorhanden sein, um sicherzustellen, dass die Gesetze mit den jeweiligen Gerichtsbarkeiten koordiniert werden. Eine Zitatauskunft mag echt sein, aber wenn sie aus einer irrelevanten Gerichtsbarkeit stammt, wäre sie vor Gericht nicht verwendbar. An dem Punkt, an dem dieser Datensatz und Wenn eine ausgebildete KI verfügbar ist, wird das Urteil hinfällig sein.“

ChatGPT-Studenten betrügen

Ein texanischer Richter war möglicherweise ein Pionier, als er von den Anwälten in seinem Gerichtssaal die Bescheinigung verlangte, dass sie keine KI-Programme wie ChatGPT verwendet hätten, um ihre Akten zu verfassen, ohne dass ein Mensch die Richtigkeit überprüfte. (Getty Images)

Aiden Buzzetti, Präsident des Bull Moose Project, einer konservativen gemeinnützigen Organisation, die „sich darum bemüht, die nächste Generation von America-First-Führungskräften zu identifizieren, auszubilden und weiterzuentwickeln“, sagte, dass Starrs Forderung aufgrund des Fehlens von Gesetzen und Leitplanken rund um KI nicht überraschend sei.

„Da es keine proaktive Gesetzgebung zur Gewährleistung der Qualität von KI-Produkten gibt, ist es völlig verständlich, dass Einzelpersonen und Institutionen ihre eigenen Regeln für die Verwendung von KI-Materialien aufstellen“, sagte Buzzetti. „Dieser Trend wird sich wahrscheinlich verstärken, je länger der Gesetzgeber die Risiken anderer Berufe ignoriert.“

ÄLTERE GENERATIONEN TRAIL NATION ÜBER KI-KNOW-HOW: UMFRAGE

Starrs Plan kommt zustande, nachdem ein Richter in New York damit gedroht hat, einen Anwalt zu bestrafen, weil er ChatGPT für eine Gerichtsbesprechung genutzt hat, in der gefälschte Fälle angeführt wurden.

Der texanische Richter sagte jedoch, dass dieser Vorfall seine Entscheidung nicht beeinflusst habe. Stattdessen begann er mit der Ausarbeitung seiner KI-Regeln während einer Podiumsdiskussion über die Technologie auf einer Konferenz, die vom US-Berufungsgericht des 5. Bezirks veranstaltet wurde.

LEHRER NEHMEN KI-SORGEN IN DIE SELBST HAND, WÄHREND WARNUNG, DASS DIE TECHNOLOGIE DIE „GRÖSSTE BEDROHUNG“ FÜR SCHULEN STELLT

Ein US-Klassenzimmer

Suzanne Nossel, CEO von PEN America, sagte in einer Erklärung, dass das Entfernen von Büchern aus Schulbibliotheken den Schülern beibringt, dass sie gefährlich sind. (iStock)

Führungskräfte in anderen Bereichen haben ihre Besorgnis über KI und die fehlenden Vorschriften rund um die leistungsstarke Technologie ebenfalls selbst in die Hand genommen, darunter Lehrer im Vereinigten Königreich. Acht Pädagogen haben letzten Monat einen Brief an die Times of London geschrieben, in dem sie davor warnten, dass KI als … dienen könnte Als nützliches Werkzeug für Schüler und Lehrer gelten die Risiken der Technologie als die „größte Bedrohung“ für Schulen.

Die Pädagogen bilden einen eigenen Beirat, um herauszufinden, welche KI-Komponenten Pädagogen bei ihrer Arbeit ignorieren sollten.

KLICKEN SIE HIER, UM DIE FOX NEWS-APP ZU ERHALTEN

„Als Führungskräfte in staatlichen und unabhängigen Schulen betrachten wir KI als die größte Bedrohung, aber auch als potenziell größten Nutzen für unsere Schüler, Mitarbeiter und Schulen“, schrieb die Koalition der Lehrer im Vereinigten Königreich in einem Brief an die Times. „Schulen sind verwirrt über die sehr schnelle Veränderungsrate in der KI und suchen nach sicherer Orientierung für den besten Weg nach vorne. Aber wem Rat können wir vertrauen?“

source site

Leave a Reply