Das AI Safety Institute des Biden-Administrators ist nicht „ausreichend“, um mit Risiken umzugehen, und muss die „Verfahren“ der Benutzer überprüfen: Experte

Experten sagen gegenüber Fox News Digital, dass sich der Plan der Biden-Regierung, eine Sicherheitskommission für künstliche Intelligenz (KI) einzurichten, als „notwendig“, aber nicht „ausreichend“ erweisen könnte, um potenziellen Risiken für die aufkeimende Technologie zu begegnen.

„Die Chancen stehen gut [the algorithm] „Hier liegt nicht das größte Risiko“, sagte Phil Siegel, Gründer des Center for Advanced Preparedness and Threat Response Simulation (CAPTRS). „Es ist wahrscheinlicher, dass das Risiko darin besteht, dass die Benutzer es entweder für schlechte Zwecke oder einfach nur missbrauchen.“ Es.”

Präsident Biden unterzeichnete am Montag eine Durchführungsverordnung, die nach Angaben des Weißen Hauses die „umfassendsten Maßnahmen beinhaltete, die jemals ergriffen wurden, um Amerikaner vor den potenziellen Risiken von KI-Systemen zu schützen“ – die Verpflichtung für Unternehmen, die Regierung zu benachrichtigen, wenn sie neue Modelle trainieren und Ergebnisse von „KI-Systemen“ teilen. Lesen Sie die Sicherheitstests des Teams.

„Diese Maßnahmen werden sicherstellen, dass KI-Systeme sicher und vertrauenswürdig sind, bevor Unternehmen sie an die Öffentlichkeit bringen“, sagte das Weiße Haus über die Durchführungsverordnung.

EXPERTEN ERKLÄREN, WIE AMERIKA DAS RENNEN GEGEN CHINA UM DIE ÜBERLEGENHEIT IN DER MILITÄRTECHNOLOGIE GEWINNEN KANN

Die Regierung kündigte außerdem die Gründung des AI Safety Institute – unter der Aufsicht des National Institute of Standards and Technology – an, das „strenge Standards für umfangreiche Red-Team-Tests festlegen wird, um die Sicherheit vor der Veröffentlichung zu gewährleisten“.

Handelsministerin Gina Raimondo sagte, die Biden-Regierung werde ihr AI Safety Institute nutzen, um bekannte und neu auftretende Risiken von „Grenz“-KI-Modellen zu bewerten, und dass der Privatsektor „sich verstärken muss“. (AP-Foto / Andrew Harnik / Datei)

Auf dem Bletchley Park-Gipfel im Vereinigten Königreich sagte US-Handelsministerin Gina Raimondo am Mittwoch, dass die Biden-Regierung ihr neues AI Safety Institute nutzen werde, um bekannte und neu auftretende Risiken von „Grenz“-KI-Modellen zu bewerten, und dass der Privatsektor „eingreifen“ müsse hoch.”

Siegel verglich den Ansatz des Weißen Hauses mit dem einer Fluggesellschaft, die einen Plan auf „Sicherheit“ überprüft, aber nicht die Wartungsverfahren, die Ausbildung der Piloten oder die Besatzungen.

WAS IST KÜNSTLICHE INTELLIGENZ (KI)?

„Alle sind notwendig“, sagte er. „Ebenso kann ein Sicherheitsgremium nicht nur die Algorithmen überprüfen. Es muss auch die Verfahren für die Benutzer überprüfen.“

FTC-Vorsitzender gibt Biden einen Stift

Experten sagen gegenüber Fox News Digital, dass sich der Plan der Biden-Regierung, eine Sicherheitskommission für künstliche Intelligenz einzurichten, als „notwendig“, aber nicht „ausreichend“ erweisen könnte, um potenziellen Risiken für die aufkeimende Technologie zu begegnen. (Alex Wong / Getty Images / Datei)

„Wir können Technologieanbieter dabei unterstützen, zu helfen“, fuhr er fort. „So wie wir die Banken KYC-Verfahren (Know Your Customer) bereitstellen lassen, um Geldwäsche zu verhindern, können wir von den Technologieanbietern verlangen, KYC für die Sicherheit der Benutzeranwendungen bereitzustellen“, fügte Siegel hinzu.

Das Center for Advanced Preparedness and Threat Response Simulation befasst sich regelmäßig mit solchen Problemen, indem es die Entscheidungsfindung und Intuition von Benutzern im öffentlichen Gesundheitswesen, im Ingenieurwesen, in der öffentlichen Ordnung und in anderen Branchen untersucht und sie in Spielen trainiert, um diese Fähigkeiten zu verbessern. Daher bleibt das Nutzerverhalten ein zentrales Anliegen – ähnlich wie bei der KI.

ES IST NICHT DIE AUFGABE UNSERER NATION, Verbündete auf dem neuesten Stand der KI-Entwicklung zu halten, sagt der ehemalige CIA-Chef

Viele Kritiker von KI haben seit Anfang dieses Jahres auf die unzähligen Fallstricke hingewiesen, die die Technologie mit sich bringt, von Deepfake-Technologie, die Wahlen stört und Material über Kindesmissbrauch generiert, bis hin zur Verwendung von KI-generierten Algorithmen, um selbst die komplexesten digitalen Sicherheitssysteme zu durchbrechen und auf vertrauliche Informationen zuzugreifen.

Bletchley Park, Geburtsort der Computermaschinen

Das Bletchley Park Estate in Großbritannien wird am zweiten Tag des AI Safety Summit am 2. November 2023 gezeigt. (Chris J. Ratcliffe / Bloomberg über Getty Images)

Christopher Alexander, Chief Analytics Officer der Pioneer Development Group, räumte ein, dass es zwar eine gute Idee sei, Unternehmen dazu zu zwingen, ihre Informationen weiterzugeben, anstatt sie zu verbergen – was ein Experte zuvor gegenüber Fox News Digital als „Black Box“ an Inhalten bezeichnete – Das derzeitige System scheint „kein transparentes Berufungsverfahren“ zu haben.

KLICKEN SIE HIER, UM DIE FOX NEWS-APP ZU ERHALTEN

Alexander sagte gegenüber Fox News Digital, dass er auch befürchte, dass „politische Absichten den Sicherheitsgenehmigungsprozess beeinflussen könnten“, da die per Präsidialverordnung eingerichtete Behörde ihre Verwaltung dem amtierenden Präsidenten überlasse.

Einige Kritiker haben bereits Bedenken hinsichtlich politischer Voreingenommenheit geäußert, etwa dass China verlangt, dass jede neue KI-Technologie den sozialistischen Werten der Regierungspartei entspricht.

Greg Norman und Reuters von Fox News Digital haben zu diesem Bericht beigetragen.

source site

Leave a Reply