Roboterübernahme? Nicht ganz. So würde der KI-Weltuntergang aussehen | Technologie

Technologie

Experten gehen davon aus, dass die Folgen einer leistungsstarken KI weniger eine Atombombe als vielmehr eine schleichende Verschlechterung der Gesellschaft sein werden

Die Besorgnis über künstliche Intelligenz hat in den letzten Monaten einen Höhepunkt erreicht. Erst diese Woche veröffentlichten mehr als 300 Branchenführer einen Brief, in dem sie warnten, dass KI zum Aussterben der Menschheit führen könnte und mit der Schwere von „Pandemien und Atomkrieg“ in Betracht gezogen werden sollte.

Begriffe wie „AI Doomsday“ rufen Science-Fiction-Bilder einer Roboterübernahme hervor, aber wie sieht ein solches Szenario tatsächlich aus? Experten sagen, die Realität könnte langwieriger und weniger filmisch ausfallen – keine Atombombe, sondern ein schleichender Verfall der Grundbereiche der Gesellschaft.

„Ich glaube nicht, dass die Sorge darin besteht, dass KI böse wird oder ein bösartiges Verlangen verspürt“, sagte Jessica Newman, Direktorin der Artificial Intelligence Security Initiative der University of California Berkeley.

„Die Gefahr geht von etwas viel Einfacherem aus, nämlich dass Menschen KI so programmieren, dass sie schädliche Dinge tut, oder dass wir am Ende Schaden anrichten, indem wir von Natur aus ungenaue KI-Systeme in immer mehr Bereiche der Gesellschaft integrieren.“

Das heißt nicht, dass wir uns keine Sorgen machen sollten. Auch wenn Szenarien, die die Menschheit vernichten, unwahrscheinlich sind, hat eine leistungsstarke KI die Fähigkeit, Zivilisationen in Form von eskalierenden Fehlinformationen, der Manipulation menschlicher Nutzer und einer enormen Transformation des Arbeitsmarktes zu destabilisieren, da KI Arbeitsplätze übernimmt.

Technologien der künstlichen Intelligenz gibt es schon seit Jahrzehnten, aber die Geschwindigkeit, mit der Sprachlernmodelle wie ChatGPT in den Mainstream gelangt sind, hat seit langem bestehende Bedenken verstärkt. Unterdessen sind Technologieunternehmen in eine Art Wettrüsten geraten und beeilen sich, künstliche Intelligenz in ihre Produkte zu integrieren, um miteinander zu konkurrieren, was einen perfekten Sturm auslöste, sagte Newman.

„Ich mache mir große Sorgen über den Weg, den wir einschlagen“, sagte sie. „Wir befinden uns in einer besonders gefährlichen Zeit für KI, weil die Systeme an einem Punkt sind, an dem sie beeindruckend erscheinen, aber immer noch erschreckend ungenau sind und inhärente Schwachstellen aufweisen.“

Vom Guardian befragte Experten sagen, dass dies die Bereiche sind, über die sie sich am meisten Sorgen machen.

Desinformation beschleunigt die Erosion der Wahrheit

In vielerlei Hinsicht ist die sogenannte KI-Revolution schon seit einiger Zeit im Gange. Maschinelles Lernen liegt den Algorithmen zugrunde, die unsere Social-Media-Newsfeeds gestalten – eine Technologie, die dafür verantwortlich gemacht wird, geschlechtsspezifische Vorurteile aufrechtzuerhalten, Spaltungen zu schüren und politische Unruhen zu schüren.

Experten warnen, dass diese ungelösten Probleme mit der Verbreitung von Modellen der künstlichen Intelligenz nur noch schlimmer werden. Im schlimmsten Fall könnte es zu einer Erosion unseres gemeinsamen Verständnisses von Wahrheit und gültigen Informationen kommen, was zu mehr Aufständen auf der Grundlage von Unwahrheiten führen würde – wie es beim Angriff auf die US-Hauptstadt am 6. Januar der Fall war. Experten warnen vor weiteren Unruhen und sogar Kriegen, die durch die Zunahme von Fehl- und Desinformationen ausgelöst werden könnten.

„Man könnte argumentieren, dass der Zusammenbruch der sozialen Medien unsere erste Begegnung mit wirklich dummer KI ist – denn die Empfehlungssysteme sind eigentlich nur einfache Modelle für maschinelles Lernen“, sagte Peter Wang, CEO und Mitbegründer der Datenwissenschaftsplattform Anaconda. „Und wir sind bei dieser Begegnung wirklich völlig gescheitert.“

Große Sprachmodelle wie ChatGPT sind anfällig für ein Phänomen namens „Halluzinationen“, bei dem erfundene oder falsche Informationen wiederholt werden. Foto: Greg Guy/Alamy

Wang fügte hinzu, dass diese Fehler sich selbst verstärken könnten, da Sprachlernmodelle auf Fehlinformationen trainiert werden, die fehlerhafte Datensätze für zukünftige Modelle erzeugen. Dies könnte zu einem „Modellkannibalismus“-Effekt führen, bei dem zukünftige Modelle verstärkt werden und für immer durch die Ergebnisse vergangener Modelle verzerrt werden.

Fehlinformationen – einfache Ungenauigkeiten – und Desinformationen – falsche Informationen, die böswillig mit der Absicht verbreitet werden, irrezuführen – wurden beide durch künstliche Intelligenz verstärkt, sagen Experten. Große Sprachmodelle wie ChatGPT sind anfällig für ein Phänomen namens „Halluzinationen“, bei dem erfundene oder falsche Informationen wiederholt werden. Eine Studie des Glaubwürdigkeitswächters für Journalismus, NewsGuard, identifizierte Dutzende „Nachrichten“-Websites im Internet, die vollständig von KI geschrieben wurden und von denen viele solche Ungenauigkeiten enthielten.

Solche Systeme könnten von böswilligen Akteuren als Waffe eingesetzt werden, um absichtlich in großem Umfang Fehlinformationen zu verbreiten, sagten Gordon Crovitz und Steven Brill, Co-CEOs von NewsGuard. Dies ist besonders besorgniserregend bei wichtigen Nachrichtenereignissen, wie wir bereits bei der absichtlichen Manipulation von Informationen im Russland-Ukraine-Krieg gesehen haben.

„Es gibt bösartige Akteure, die falsche Narrative erzeugen und das System dann als Kraftmultiplikator nutzen können, um diese in großem Maßstab zu verbreiten“, sagte Crovitz. „Es gibt Leute, die sagen, die Gefahren der KI würden überbewertet, aber in der Welt der Nachrichteninformationen hat sie erschütternde Auswirkungen.“

Die jüngsten Beispiele reichen von harmloseren Beispielen wie dem viralen, von der KI erzeugten Bild des Papstes, das eine „ausgebeulte Jacke“ trägt, bis hin zu Fälschungen mit möglicherweise schlimmeren Folgen, wie einem von der KI erzeugten Video des ukrainischen Präsidenten Wolodymyr Selenskyj. Ankündigung einer Kapitulation im April 2022.

„Fehlinformationen sind Sache des Einzelnen [AI] Schaden, der das größte Potenzial und das höchste Risiko im Hinblick auf größere potenzielle Schäden aufweist“, sagte Rebecca Finlay von der Partnership on AI. „Die Frage, die sich stellt, ist: Wie schaffen wir ein Ökosystem, in dem wir verstehen können, was wahr ist? Wie authentifizieren wir, was wir online sehen?“

„Wie ein Freund, kein Werkzeug“: böswillige Nutzung und Manipulation von Benutzern

Während die meisten Experten sagen, dass Fehlinformationen die unmittelbarste und am weitesten verbreitete Sorge seien, gibt es Debatten darüber, inwieweit die Technologie die Gedanken oder das Verhalten ihrer Benutzer negativ beeinflussen könnte.

Diese Bedenken wirken sich bereits auf tragische Weise aus, nachdem ein Mann in Belgien durch Selbstmord starb, nachdem ein Chatbot ihn angeblich dazu ermutigt hatte, sich das Leben zu nehmen. Es wurden weitere alarmierende Vorfälle gemeldet – darunter ein Chatbot, der einen Benutzer aufforderte, seinen Partner zu verlassen, und ein anderer Berichten zufolge Benutzer mit Essstörungen aufforderte, Gewicht zu verlieren.

Chatbots schaffen von Natur aus wahrscheinlich mehr Vertrauen, weil sie mit ihren Benutzern auf gesprächige Weise sprechen, sagte Newman.

„Große Sprachmodelle sind besonders in der Lage, Menschen davon zu überzeugen oder zu manipulieren, ihre Überzeugungen oder Verhaltensweisen geringfügig zu ändern“, sagte sie. „Wir müssen uns mit den kognitiven Auswirkungen befassen, die das in einer Welt hat, die bereits so polarisiert und isoliert ist, in der Einsamkeit und psychische Gesundheit große Probleme darstellen.“

Die Befürchtung besteht also nicht darin, dass KI-Chatbots an Bewusstsein gewinnen und ihre Benutzer überholen, sondern dass ihre programmierte Sprache Menschen so manipulieren kann, dass sie Schaden anrichten, den sie sonst vielleicht nicht erleiden würden. Dies sei besonders besorgniserregend bei Sprachsystemen, die nach einem Werbegewinnmodell arbeiten, sagte Newman, da sie darauf abzielen, das Nutzerverhalten zu manipulieren und sie so lange wie möglich auf der Plattform zu halten.

„Es gibt viele Fälle, in denen ein Benutzer Schaden verursacht hat, nicht weil er es wollte, sondern weil es eine unbeabsichtigte Folge der Nichteinhaltung von Sicherheitsprotokollen durch das System war“, sagte sie.

Newman fügte hinzu, dass die menschenähnliche Natur von Chatbots Benutzer besonders anfällig für Manipulationen mache.

„Wenn man mit etwas spricht, das Pronomen der ersten Person verwendet und über seine eigenen Gefühle und Hintergründe spricht, löst es, auch wenn es nicht real ist, mit größerer Wahrscheinlichkeit eine Art menschliche Reaktion aus, die die Menschen anfälliger für Wünsche macht.“ um es zu glauben“, sagte sie. „Es weckt bei den Menschen den Wunsch, ihm zu vertrauen und es eher wie einen Freund denn wie ein Werkzeug zu behandeln.“

Die drohende Arbeitskrise: „Es gibt keinen Rahmen für das Überleben“

Eine seit langem bestehende Sorge ist, dass die digitale Automatisierung eine große Zahl menschlicher Arbeitsplätze vernichten wird. Die Forschung ist unterschiedlich, wobei einige Studien zu dem Schluss kommen, dass KI bis 2025 weltweit 85 Millionen Arbeitsplätze und langfristig mehr als 300 Millionen ersetzen könnte.

Einige Studien deuten darauf hin, dass KI bis 2025 weltweit 85 Millionen Arbeitsplätze ersetzen könnte. Foto: Wachiwit/Alamy

Die von KI betroffenen Branchen sind vielfältig, von Drehbuchautoren bis hin zu Datenwissenschaftlern. AI konnte die Anwaltsprüfung mit ähnlichen Ergebnissen wie echte Anwälte bestehen und Gesundheitsfragen besser beantworten als echte Ärzte.

Experten warnen vor dem massiven Verlust von Arbeitsplätzen und der damit einhergehenden politischen Instabilität, die mit dem ungebremsten Aufstieg der künstlichen Intelligenz einhergehen könnte.

Wang warnt davor, dass es in naher Zukunft zu Massenentlassungen kommen wird, da „eine Reihe von Arbeitsplätzen gefährdet sind“ und es kaum Pläne gibt, mit den Folgen umzugehen.

„In Amerika gibt es keinen Rahmen dafür, wie man ohne Arbeit überlebt“, sagte er. „Dies wird zu vielen Unruhen und politischen Unruhen führen. Für mich ist das die konkreteste und realistischste unbeabsichtigte Konsequenz, die sich daraus ergibt.“

Was als nächstes?

Trotz wachsender Besorgnis über die negativen Auswirkungen von Technologie und sozialen Medien wurde in den USA nur sehr wenig getan, um diese zu regulieren. Experten befürchten, dass es bei der künstlichen Intelligenz nicht anders sein wird.

„Einer der Gründe, warum viele von uns Bedenken hinsichtlich der Einführung von KI haben, liegt darin, dass wir als Gesellschaft in den letzten 40 Jahren grundsätzlich aufgegeben haben, die Technologie tatsächlich zu regulieren“, sagte Wang.

Dennoch haben die Gesetzgeber in den letzten Monaten positive Anstrengungen unternommen, wobei der Kongress den CEO von Open AI, Sam Altman, aufrief, um über Sicherheitsmaßnahmen auszusagen, die umgesetzt werden sollten. Finlay sagte, sie sei von solchen Schritten „ermutigt“, sagte aber, dass noch mehr getan werden müsse, um gemeinsame Protokolle zur KI-Technologie und ihrer Veröffentlichung zu erstellen.

„So schwer es ist, Weltuntergangsszenarien vorherzusagen, so schwer ist es auch, die Fähigkeit für gesetzgeberische und regulatorische Reaktionen vorherzusagen“, sagte sie. „Wir brauchen eine echte Prüfung dieses Technologieniveaus.“

Obwohl die Schäden der KI für die meisten Menschen in der Branche der künstlichen Intelligenz im Vordergrund stehen, sind nicht alle Experten auf diesem Gebiet „Weltuntergangsverkünder“. Viele sind gespannt auf mögliche Anwendungen der Technologie.

„Ich denke tatsächlich, dass diese Generation der KI-Technologie, auf die wir gerade gestoßen sind, wirklich ein großes Potenzial für die Menschheit freisetzen könnte, um in einem viel besseren Maßstab zu gedeihen, als wir es in den letzten 100 oder 200 Jahren gesehen haben“, sagte Wang . „Eigentlich bin ich sehr, sehr optimistisch, was die positiven Auswirkungen angeht. Aber gleichzeitig schaue ich mir an, was soziale Medien für Gesellschaft und Kultur getan haben, und ich bin mir der Tatsache sehr bewusst, dass es viele potenzielle Nachteile gibt.“

source site

Leave a Reply