Das Wettrüsten der nächsten Generation könnte zu einem „Aussterben“ führen, das einem Atomkrieg oder einer Pandemie ähnelt: Tech-Chef

Ein Wettrüsten im Bereich der künstlichen Intelligenz zwischen Ländern und Unternehmen, um herauszufinden, wer die leistungsstärksten KI-Maschinen entwickeln kann, könnte eine existenzielle Bedrohung für die Menschheit darstellen, sagte der Mitbegründer einer gemeinnützigen Organisation für KI-Sicherheit gegenüber Fox News.

„KI könnte das Risiko des Aussterbens bergen, und das liegt zum Teil daran, dass wir uns derzeit in einem KI-Wettrüsten befinden“, sagte Dan Hendrycks, Executive Director des Center for AI Safety. „Wir entwickeln immer leistungsfähigere Technologien und wissen nicht, wie wir sie vollständig kontrollieren oder verstehen können.“

Sam Altman, CEO von OpenAI, unterzeichnete die Erklärung des Center for AI Safety, in der es heißt, dass KI eine existenzielle Bedrohung für die Menschheit darstellt. (Bill Clark/CQ-Roll Call, Inc über Getty Images)

„Das Gleiche haben wir mit Atomwaffen gemacht“, fuhr er fort. „Was das existentielle Risiko und die Gefahr des Aussterbens betrifft, sitzen wir alle im selben Boot.“

KI-Wettrüsten könnte zum Aussterben führenLEVEL-EVENT FÜR DIE MENSCHHEIT: KI-SICHERHEITSDIREKTOR

WEITERE DIGITALE ORIGINALE VON FOX NEWS SEHEN SIE HIER

Hendrycks‘ Firma veröffentlichte am Dienstag eine Erklärung mit der Warnung: „[m]„Die Eindämmung des Risikos des Aussterbens durch KI sollte neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkrieg eine globale Priorität sein.“ Viele führende KI-Forscher, Entwickler und Führungskräfte wie OpenAI-CEO Sam Altman und „der Pate der KI“, Geoffrey Hinton , unterzeichnete die Erklärung.

Altman plädierte kürzlich in einer Aussage vor dem Kongress für eine Regulierung der KI durch die Regierung, um die von der Technologie ausgehenden Risiken „zu mindern“.

„Ich mache mir Sorgen darüber, dass die KI-Entwicklung ein relativ unkontrollierter Prozess ist und die KIs am Ende mehr Einfluss in der Gesellschaft bekommen, weil sie so gut darin sind, Dinge zu automatisieren“, sagte Hendrycks, der auch die Erklärung seiner Organisation unterzeichnet hat, gegenüber Fox News. „Sie konkurrieren miteinander und es gibt dieses Ökosystem von Agenten, die viele Vorgänge ausführen, und wir könnten die Kontrolle über diesen Prozess verlieren.“

„Das könnte uns zu einer Art zweiter Klasse machen oder den Weg der Neandertaler gehen“, fuhr er fort.

MILLIONEN Fast-Food-Arbeiter könnten innerhalb von fünf Jahren ihren Arbeitsplatz verlieren. HIER IST DER GRUND

Elon Musk, CEO von Tesla, äußerte sich offen zu potenziellen KI-Bedrohungen und sagte, die Technologie könne zur „Zerstörung der Zivilisation“ oder zur Beeinträchtigung von Wahlen führen. Musk unterzeichnete im März außerdem einen Brief, in dem er sich für die Aussetzung großer KI-Experimente aussprach.

Elon Musk

Elon Musk hat gewarnt, dass KI „zivilisatorische Zerstörung“ verursachen könnte. (Justin Sullivan/Getty Images)

Allerdings gelang es dem Brief nicht, große KI-Entwickler wie OpenAI, Microsoft und Google dazu zu bewegen, ihre Experimente einzustellen.

„Wir erleben ein KI-Wettrüsten, das uns möglicherweise an den Rand einer Katastrophe bringen könnte, wie es das nukleare Wettrüsten tat“, sagte Hendrycks. „Das bedeutet also, dass wir eine globale Priorisierung dieses Themas brauchen.“

KLICKEN SIE HIER, UM DIE FOX NEWS-APP ZU ERHALTEN

Aber die Organisationen, die die leistungsstärksten KI-Systeme der Welt entwickeln, haben keinen Anreiz, Entwicklungen zu verlangsamen oder anzuhalten, warnte Hendrycks. Das Center for AI Safety hofft, dass seine Stellungnahme die Menschen darüber informieren wird, dass KI ein glaubwürdiges und wichtiges Risiko darstellt.

„Jetzt können wir hoffentlich das Gespräch beginnen, damit es wie andere globale Prioritäten wie internationale Abkommen oder Vorschriften angegangen werden kann“, sagte Hendrycks gegenüber Fox News. „Wir müssen dies als eine größere Priorität behandeln, eine soziale Priorität und eine technische Priorität, um diese Risiken zu reduzieren.“

Um das vollständige Interview mit Hendrycks anzusehen, klicken Sie hier.

source site

Leave a Reply