Tech-Experten skizzieren die vier Möglichkeiten, wie KI zu weltweiten Katastrophen führen könnte

Tech-Experten, Silicon-Valley-Milliardäre und normale Amerikaner haben ihre Befürchtungen geäußert, dass künstliche Intelligenz außer Kontrolle geraten und zum Untergang der Menschheit führen könnte. Jetzt haben Forscher am Center for AI Safety genau detailliert beschrieben, welche „katastrophalen“ Risiken KI für die Welt darstellt.

„Die Welt, wie wir sie kennen, ist nicht normal“, schrieben Forscher des Center for AI Safety (CAIS) in einem kürzlich erschienenen Artikel mit dem Titel „An Overview of Catastrophic AI Risks“. „Wir gehen davon aus, dass wir sofort mit Menschen sprechen können, die Tausende von Kilometern entfernt sind, in weniger als einem Tag ans andere Ende der Welt fliegen und über Geräte, die wir in unseren Taschen mit uns herumtragen, auf riesige Berge an angesammeltem Wissen zugreifen können.“

Diese Realität sei für die Menschen vor Jahrhunderten „unvorstellbar“ gewesen und selbst vor einigen Jahrzehnten noch weit hergeholt, heißt es in der Zeitung. In der Geschichte habe sich ein Muster einer „beschleunigten Entwicklung“ herauskristallisiert, stellten die Forscher fest.

„Zwischen dem Erscheinen des Homo sapiens auf der Erde und der Agrarrevolution vergingen Hunderttausende Jahre“, fuhren die Forscher fort. „Damals vergingen Tausende von Jahren bis zur industriellen Revolution. Jetzt, nur Jahrhunderte später, beginnt die Revolution der künstlichen Intelligenz (KI). Der Lauf der Geschichte ist nicht konstant – er beschleunigt sich rasant.“

CAIS ist eine gemeinnützige Technologieorganisation, die sich dafür einsetzt, „die mit KI verbundenen gesellschaftlichen Risiken zu reduzieren, indem sie Sicherheitsforschung betreibt, das Feld der KI-Sicherheitsforscher aufbaut und sich für Sicherheitsstandards einsetzt“, wobei sie gleichzeitig anerkennt, dass künstliche Intelligenz die Macht hat, der Welt zu helfen.

Experten warnen, dass künstliche Intelligenz zum „Aussterben“ führen könnte

Experten argumentieren, dass der Unterschied zwischen KI-Investitionen in China und den USA darin besteht, dass das amerikanische Modell von privaten Unternehmen vorangetrieben wird, während China einen staatlichen Ansatz verfolgt. (JOSEP LAGO/AFP über Getty Images)

Die CAIS-Leiter hinter der Studie, darunter der Direktor der gemeinnützigen Organisation Dan Hendrycks, haben vier Kategorien aufgeschlüsselt, die die Hauptquellen katastrophaler KI-Risiken zusammenfassen, darunter: böswillige Nutzung, der KI-Wettlauf selbst, organisatorische Risiken und betrügerische KIs.

„Wie bei allen leistungsstarken Technologien muss mit KI mit großer Verantwortung umgegangen werden, um die Risiken zu bewältigen und ihr Potenzial für die Verbesserung der Gesellschaft auszuschöpfen“, schrieben Hendrycks und seine Kollegen Mantas Mazeika und Thomas Woodside. „Allerdings gibt es nur begrenzte zugängliche Informationen darüber, wie katastrophale oder existenzielle KI-Risiken auftreten oder bewältigt werden könnten.“

Das Wettrüsten der nächsten Generation könnte zum „Aussterben“-Ereignis führen: Tech-Manager

Böswillige Nutzung

KI-Hacker

Hacker für künstliche Intelligenz hinter dem Computer. (Fox News)

Die Studie der CAIS-Experten definiert böswilligen Einsatz von KI als wenn ein böswilliger Akteur die Technologie nutzt, um „weitreichenden Schaden“ anzurichten, beispielsweise durch Bioterrorismus, Fehlinformationen und Propaganda oder die „absichtliche Verbreitung unkontrollierter KI-Agenten“.

Die Forscher verwiesen auf einen Vorfall in Japan im Jahr 1995, als der Weltuntergangskult Aum Shinrikyo in Tokio eine geruch- und farblose Flüssigkeit auf U-Bahn-Wagen verteilte. Die Flüssigkeit tötete schließlich 13 Menschen und verletzte 5.800 weitere Menschen bei dem Versuch der Sekte, das Ende der Welt herbeizuführen.

Fast 30 Jahre später könnte KI möglicherweise zur Herstellung einer Biowaffe eingesetzt werden, die verheerende Auswirkungen auf die Menschheit haben könnte, wenn ein schlechter Akteur in die Hände der Technologie gelangt. Die CAIS-Forscher stellten eine Hypothese auf, in der ein Forschungsteam Open-Source-Quellen für ein „KI-System mit biologischen Forschungsfunktionen“ entwickelt, das Leben retten soll, in Wirklichkeit aber von schlechten Akteuren zur Herstellung einer Biowaffe umfunktioniert werden könnte.

KI könnte zum „Terminator“ werden und nach den darwinistischen Regeln der Evolution die Oberhand über den Menschen gewinnen, warnt ein Bericht

„In Situationen wie dieser kann das Ergebnis von der am wenigsten risikoaversen Forschungsgruppe bestimmt werden. Wenn nur eine Forschungsgruppe der Meinung ist, dass der Nutzen die Risiken überwiegt, könnte sie einseitig handeln und über das Ergebnis entscheiden, selbst wenn die meisten anderen nicht einverstanden sind.“ Und „Wenn sie falsch liegen und sich jemand dazu entschließt, eine Biowaffe zu entwickeln, wäre es zu spät, den Kurs umzukehren“, heißt es in der Studie.

Ein böswilliger Einsatz könnte dazu führen, dass böswillige Akteure biotechnische Pandemien auslösen, KI zur Herstellung neuer und stärkerer chemischer und biologischer Waffen einsetzen oder sogar „Schurken-KI“-Systeme entfesseln, die darauf ausgelegt sind, Leben auf den Kopf zu stellen.

„Um diese Risiken zu verringern, schlagen wir vor, die Biosicherheit zu verbessern, den Zugriff auf die gefährlichsten KI-Modelle einzuschränken und KI-Entwickler für Schäden, die durch ihre KI-Systeme verursacht werden, rechtlich haftbar zu machen“, schlagen die Forscher vor.

KI-Rennen

Frau und KI

Eine Frau chattet mit einer intelligenten KI oder künstlichen Intelligenz mithilfe eines Chatbots für künstliche Intelligenz. (Getty Images)

Die Forscher definieren den KI-Wettlauf als einen Wettbewerb, der Regierungen und Unternehmen möglicherweise dazu anspornt, „die Entwicklung von KIs voranzutreiben und die Kontrolle an KI-Systeme abzugeben“, und vergleichen den Wettlauf mit dem Kalten Krieg, als die USA und die Sowjetunion sich auf den Weg zum Bau von Atomwaffen machten.

„Das immense Potenzial von KIs hat zu einem Wettbewerbsdruck unter globalen Akteuren geführt, die um Macht und Einfluss kämpfen. Dieser „KI-Wettlauf“ wird von Nationen und Unternehmen vorangetrieben, die das Gefühl haben, dass sie KIs schnell entwickeln und einsetzen müssen, um ihre Positionen zu sichern und zu überleben. Indem sie es nicht richtig machen Wenn wir globale Risiken priorisieren, erhöht diese Dynamik die Wahrscheinlichkeit, dass die KI-Entwicklung zu gefährlichen Ergebnissen führt“, heißt es in dem Forschungspapier.

Im Militär könnte der KI-Wettlauf zu „zerstörerischeren Kriegen, der Möglichkeit einer versehentlichen Nutzung oder eines Kontrollverlusts und der Aussicht auf böswillige Akteure führen, die diese Technologien für ihre eigenen Zwecke missbrauchen“, da KI als nützliche militärische Waffe an Bedeutung gewinnt .

WAS SIND DIE GEFAHREN VON KI? Finden Sie heraus, warum Menschen Angst vor künstlicher Intelligenz haben

Tödliche autonome Waffen können beispielsweise ein Ziel ohne menschliches Eingreifen töten und gleichzeitig die Genauigkeit und Entscheidungszeit optimieren. Den Forschern zufolge könnten die Waffen den Menschen überlegen sein und das Militär könnte Lebens- oder Todessituationen an die KI-Systeme delegieren, was die Wahrscheinlichkeit eines Krieges erhöhen könnte.

„Obwohl laufende, schießende Roboter die Soldaten auf dem Schlachtfeld noch nicht ersetzen müssen, konvergieren die Technologien auf eine Weise, die dies in naher Zukunft ermöglichen könnte“, erklärten die Forscher.

„Truppen in die Schlacht zu schicken, ist eine schwerwiegende Entscheidung, die Anführer nicht leichtfertig treffen. Aber autonome Waffen würden es einer aggressiven Nation ermöglichen, Angriffe zu starten, ohne das Leben ihrer eigenen Soldaten zu gefährden, und wären somit weniger inländischer Kontrolle ausgesetzt“, fügten sie hinzu und argumentierten, dass dies politisch sei Wenn die Staats- und Regierungschefs nicht länger die Verantwortung dafür übernehmen müssen, dass menschliche Soldaten in Leichensäcken nach Hause zurückkehren, könnte die Wahrscheinlichkeit eines Krieges für die Nationen steigen.

Künstliche Intelligenz könnte auch die Schleusen für präzisere und schnellere Cyberangriffe öffnen, die die Infrastruktur dezimieren oder sogar einen Krieg zwischen Nationen auslösen könnten.

„Um die Risiken eines KI-Wettlaufs zu verringern, schlagen wir die Einführung von Sicherheitsvorschriften, eine internationale Koordinierung und eine öffentliche Kontrolle von Allzweck-KIs vor“, schlägt das Papier vor, um solche Folgen zu verhindern.

Organisatorische Risiken

KI-Bild

Künstliche Intelligenz hackt in naher Zukunft Daten. (iStock)

Die Forscher hinter dem Papier sagen, dass Labore und Forschungsteams, die KI-Systeme entwickeln, „katastrophale Unfälle erleiden könnten, insbesondere wenn sie keine starke Sicherheitskultur haben“.

„KIs könnten versehentlich an die Öffentlichkeit gelangen oder von böswilligen Akteuren gestohlen werden. Organisationen könnten es versäumen, in Sicherheitsforschung zu investieren, ihnen fehlt das Verständnis dafür, wie sie die KI-Sicherheit schneller als allgemeine KI-Fähigkeiten zuverlässig verbessern können, oder sie unterdrücken interne Bedenken hinsichtlich KI-Risiken“, schreiben Forscher .

Sie verglichen die KI-Organisationen mit Katastrophen im Laufe der Geschichte wie Tschernobyl, Three Mile Island und dem tödlichen Zwischenfall mit dem Challenger Space Shuttle.

KI-TECHNOLOGIE „GEFÄHRLICHER ALS EIN AR-15“, KANN FÜR „BÖSLICHE KRAFT“ VERWENDET WERDEN, WARNT EXPERTE

„Während wir bei der Entwicklung fortschrittlicher KI-Systeme voranschreiten, ist es wichtig, sich daran zu erinnern, dass diese Systeme nicht immun gegen katastrophale Unfälle sind. Ein wesentlicher Faktor bei der Verhinderung von Unfällen und der Aufrechterhaltung eines niedrigen Risikoniveaus liegt in den Organisationen, die für diese Technologien verantwortlich sind“, schreiben die Forscher .

Die Forscher argumentieren, dass KI selbst ohne schlechte Akteure oder Konkurrenzdruck allein aufgrund menschlicher Fehler katastrophale Auswirkungen auf die Menschheit haben könnte. Im Fall des Challenger oder Tschernobyl gab es bereits fundierte Kenntnisse über Raketentechnik und Kernreaktoren, als das Chaos ausbrach, aber KI ist im Vergleich dazu weitaus weniger verstanden.

„Der KI mangelt es an einem umfassenden theoretischen Verständnis, und ihr Innenleben bleibt selbst für diejenigen, die sie entwickeln, ein Rätsel. Dies stellt eine zusätzliche Herausforderung bei der Kontrolle und Gewährleistung der Sicherheit einer Technologie dar, die wir noch nicht vollständig verstehen“, argumentierten die Forscher.

KI-Unfälle wären nicht nur potenziell katastrophal, sondern auch schwer zu vermeiden.

Die Forscher verwiesen auf einen Vorfall bei OpenAI, dem KI-Labor hinter ChatGPT, wo ein KI-System darauf trainiert wurde, aufmunternde Antworten für Benutzer zu erzeugen, aber menschliches Versagen führte dazu, dass das System „über Nacht hasserfüllte und sexuell eindeutige Texte“ produzierte. Bösewichte, die ein System hacken oder ein KI-System durchsickern lassen, könnten ebenfalls den Weg für eine Katastrophe ebnen, da böswillige Einheiten die Systeme über die Absichten des ursprünglichen Erstellers hinaus neu konfigurieren.

Die Geschichte hat auch gezeigt, dass Erfinder und Wissenschaftler oft unterschätzen, wie schnell technologische Fortschritte tatsächlich Realität werden, wie zum Beispiel die Gebrüder Wright, die vorhersagten, dass der Motorflug erst 50 Jahre später stattfinden würde, als ihnen dieser Sieg erst zwei Jahre nach ihrer Vorhersage tatsächlich gelang.

„Die schnelle und unvorhersehbare Entwicklung der KI-Fähigkeiten stellt eine große Herausforderung für die Unfallverhütung dar. Schließlich ist es schwierig, etwas zu kontrollieren, wenn wir nicht einmal wissen, was es kann oder wie weit es unsere Erwartungen übertreffen könnte“, erklärten die Forscher.

Die Forscher schlagen vor, dass Organisationen bessere Kulturen und Strukturen etablieren, um solche Risiken zu reduzieren, beispielsweise durch „interne und externe Audits, mehrere Verteidigungsebenen gegen Risiken und Informationssicherheit auf militärischem Niveau“.

Schurken-KIs

KI-Foto

In dieser Abbildung vom 31. März 2023 sind Wörter der künstlichen Intelligenz zu sehen. (REUTERS/Dado Ruvic/Illustration)

Eine der häufigsten Bedenken im Zusammenhang mit künstlicher Intelligenz seit der Verbreitung der Technologie in den letzten Jahren ist, dass Menschen die Kontrolle verlieren könnten und Computer die menschliche Intelligenz überwältigen könnten.

AI „KILL SWITCH“ WIRD DIE MENSCHHEIT WENIGER SICHER MACHEN, KÖNNTE „FEINDLICHE“ SUPERINTELLIGENZ hervorbringen: AI FOUNDATION

„Wenn ein KI-System intelligenter ist als wir und wir es nicht in eine vorteilhafte Richtung lenken können, würde dies einen Kontrollverlust darstellen, der schwerwiegende Folgen haben könnte. Die KI-Kontrolle ist ein technischeres Problem als die hier vorgestellten vorherigen Abschnitten“, schrieben die Forscher.

Menschen könnten durch „Proxy-Gaming“ die Kontrolle verlieren, wenn Menschen einem KI-System ein ungefähres Ziel vorgeben, „das zunächst mit dem idealen Ziel zu korrelieren scheint“, die KI-Systeme „diesen Stellvertreter jedoch auf eine Weise ausnutzen, die vom idealisierten Ziel abweicht“. oder sogar zu negativen Ergebnissen führen.“

Forscher führten ein Beispiel aus der Sowjetunion an, als die Behörden damit begannen, die Leistung von Nagelfabriken anhand der Anzahl der Nägel zu messen, die eine Fabrik produzieren konnte. Um die Erwartungen zu übertreffen oder zu erfüllen, begannen Fabriken mit der Massenproduktion winziger Nägel, die aufgrund ihrer Größe praktisch nutzlos waren.

„Die Behörden versuchten Abhilfe zu schaffen, indem sie den Fokus auf das Gewicht der produzierten Nägel verlagerten. Doch bald darauf begannen die Fabriken, riesige Nägel zu produzieren, die ebenso nutzlos waren, ihnen aber auf dem Papier eine gute Bewertung gaben. In beiden Fällen war die „Fabriken haben gelernt, das ihnen vorgegebene Stellvertreterziel auszutricksen, während sie ihren beabsichtigten Zweck völlig verfehlten“, erklärten die Forscher.

Forscher schlagen vor, dass Unternehmen keine KI-Systeme mit offenen Zielen wie „so viel Geld wie möglich verdienen“ einsetzen und KI-Sicherheitsforschung unterstützen, die tiefgründige Forschung zur Verhinderung von Katastrophen ausnutzen kann.

KLICKEN SIE HIER, UM DIE FOX NEWS-APP ZU ERHALTEN

„Diese Gefahren geben Anlass zu ernsthafter Besorgnis. Derzeit arbeiten nur sehr wenige Menschen an der Reduzierung des KI-Risikos. Wir wissen noch nicht, wie wir hochentwickelte KI-Systeme kontrollieren können, und bestehende Kontrollmethoden erweisen sich bereits als unzureichend … Da die KI-Fähigkeiten weiterhin in einem beispiellosen Ausmaß wachsen.“ „In ihrer Geschwindigkeit könnten sie die menschliche Intelligenz relativ bald in fast allen Belangen übertreffen, was eine dringende Notwendigkeit mit sich bringt, die potenziellen Risiken zu bewältigen“, schreiben die Forscher in ihrer Schlussfolgerung.

Es gibt jedoch „viele Maßnahmen, die wir ergreifen können, um diese Risiken erheblich zu reduzieren“, wie im Bericht dargelegt.

source site

Leave a Reply