Scarlett Johanssons Streit um künstliche Intelligenz erinnert an die schlechten alten Zeiten im Silicon Valley

Bildquelle, Getty Images

Scarlett Johanssons Streit um künstliche Intelligenz erinnert an die schlechten alten Zeiten im Silicon Valley

  • Autor, Zoe Kleinman
  • Rolle, Technikredakteur
  • Twitter,

„Move fast and break things“ ist ein Motto, das den Technologiesektor auch 20 Jahre, nachdem es vom jungen Mark Zuckerberg geprägt wurde, noch immer beschäftigt.

Diese fünf Worte symbolisierten die schlimmste Seite des Silicon Valley: eine Kombination aus rücksichtslosem Ehrgeiz und atemberaubender Arroganz – gewinnorientierte Innovation ohne Angst vor Konsequenzen.

An diesen Satz wurde ich diese Woche erinnert, als die Schauspielerin Scarlett Johansson mit OpenAI aneinandergeriet. Frau Johansson behauptete, sowohl sie als auch ihr Agent hätten es abgelehnt, sie als Stimme für das neue Produkt von ChatGPT zu übernehmen – und als es dann vorgestellt wurde, klang es sowieso genauso wie sie. OpenAI bestreitet, dass es sich um eine absichtliche Nachahmung handelte.

Es ist ein klassisches Beispiel dafür, worüber sich die Kreativbranche große Sorgen macht: dass sie nachgeahmt und schließlich durch künstliche Intelligenz ersetzt werden.

Letzte Woche wandte sich Sony Music, der größte Musikverlag der Welt, in einem Brief an Google, Microsoft und OpenAI mit der Frage, ob Songs seiner Künstler zur Entwicklung von KI-Systemen verwendet worden seien. Der Verlag gab an, dafür keine Erlaubnis zu haben.

In all dem finden sich Anklänge an die Macho-Giganten des Silicon Valley von früher. Das Streben nach Vergebung statt nach Erlaubnis ist ein inoffizieller Geschäftsplan.

Doch die Technologiefirmen des Jahres 2024 sind äußerst daran interessiert, sich von diesem Ruf zu distanzieren.

OpenAI wurde nicht nach diesem Muster geformt. Sie wurde ursprünglich als gemeinnützige Organisation gegründet, die etwaige zusätzliche Gewinne wieder in das Unternehmen investierte.

Im Jahr 2019, als es einen gewinnorientierten Zweig bildete, sagten sie, dass die Gewinnseite von der Non-Profit-Seite angeführt werden würde und es eine Obergrenze für die Renditen geben würde, die Anleger erzielen könnten.

Nicht alle waren über diesen Wandel glücklich – angeblich war er ein Hauptgrund für die Entscheidung des ursprünglichen Mitbegründers Elon Musk, das Unternehmen zurückzuziehen.

Als OpenAI-CEO Sam Altman Ende letzten Jahres plötzlich von seinem eigenen Vorstand entlassen wurde, lautete eine der Theorien, dass er sich weiter von der ursprünglichen Mission entfernen wollte. Wir haben es nie genau herausgefunden.

Aber auch wenn OpenAI gewinnorientierter geworden ist, muss es sich dennoch seiner Verantwortung stellen.

In der Welt der politischen Entscheidungsfindung sind sich fast alle einig, dass klare Grenzen erforderlich sind, um Unternehmen wie OpenAI auf dem Laufenden zu halten, bevor eine Katastrophe eintritt.

Bisher haben die KI-Giganten weitgehend auf dem Papier mitgespielt. Auf dem weltweit ersten KI-Sicherheitsgipfel vor sechs Monaten unterzeichneten einige Technologiebosse eine freiwillige Verpflichtung, verantwortungsvolle, sichere Produkte zu entwickeln, die die Vorteile der KI-Technologie maximieren und ihre Risiken minimieren würden.

Diese Risiken, die die Veranstalter der Veranstaltung ursprünglich identifiziert hatten, waren der Stoff, aus dem Albträume gemacht sind. Als ich damals nach den eher bodenständigen Bedrohungen für Menschen fragte, die von KI-Tools ausgehen, die sie diskriminieren oder an ihren Arbeitsplätzen ersetzen, wurde mir ziemlich entschieden gesagt, dass diese Versammlung nur der Diskussion der absolut schlimmsten Szenarien gewidmet sei – dies sei das Gebiet von Terminator, Doomsday, KI-geht-abtrünnig-und-vernichtet-die-Menschheit.

Sechs Monate später, als der Gipfel erneut zusammentrat, war das Wort „Sicherheit“ vollständig aus dem Titel der Konferenz gestrichen worden.

Letzte Woche kam ein Berichtsentwurf der britischen Regierung, der von einer Gruppe von 30 unabhängigen Experten erstellt wurde, zu dem Schluss, dass es „noch keine Beweise“ dafür gebe, dass KI eine biologische Waffe erzeugen oder einen ausgeklügelten Cyberangriff durchführen könne. Die Plausibilität, dass Menschen die Kontrolle über KI verlieren könnten, sei „höchst umstritten“, hieß es.

Einige Experten in diesem Bereich sagen schon seit längerem, dass die unmittelbarere Bedrohung durch KI-Tools darin bestehe, dass sie Arbeitsplätze ersetzen oder Hautfarben nicht erkennen können. KI-Ethikexperte Dr. Rumman Chowdhury sagt, dies seien „die wahren Probleme“.

Das AI Safety Institute lehnte es ab, zu sagen, ob es eines der neuen KI-Produkte, die in den letzten Tagen auf den Markt gebracht wurden, auf Sicherheit getestet hat; insbesondere GPT-4o von OpenAI und Project Astra von Google, die beide zu den leistungsstärksten und fortschrittlichsten generativen KI-Systemen gehören, die der Öffentlichkeit zugänglich sind und die ich bisher gesehen habe. In der Zwischenzeit hat Microsoft einen neuen Laptop mit KI-Hardware vorgestellt – der Beginn der physischen Einbettung von KI-Tools in unsere Geräte.

In dem unabhängigen Bericht heißt es außerdem, dass es derzeit – nicht einmal unter Entwicklern – eine zuverlässige Methode gibt, um genau zu verstehen, warum KI-Tools die von ihnen generierten Ergebnisse liefern. Auch für die etablierte Sicherheitstestpraxis des Red Teaming, bei der Prüfer gezielt versuchen, ein KI-Tool zu einem Fehlverhalten zu bringen, gibt es keine Best-Practice-Richtlinien.

Beim Folgegipfel, der diese Woche gemeinsam von Großbritannien und Südkorea in Seoul ausgerichtet wird, haben sich die Unternehmen dazu verpflichtet, ein Produkt vom Markt zu nehmen, wenn es gewisse Sicherheitsschwellenwerte nicht einhält. Diese werden allerdings erst beim nächsten Treffen im Jahr 2025 festgelegt.

Manche befürchten, dass all diese Verpflichtungen und Versprechen nicht weit genug gehen.

„Freiwilligenvereinbarungen sind im Wesentlichen nur ein Mittel für Unternehmen, ihre eigenen Hausaufgaben zu markieren“, sagt Andrew Straight, stellvertretender Direktor des Ada Lovelace Institute, einer unabhängigen Forschungsorganisation. „Es ist im Wesentlichen kein Ersatz für rechtsverbindliche und durchsetzbare Regeln, die erforderlich sind, um Anreize für eine verantwortungsvolle Entwicklung dieser Technologien zu schaffen.“

OpenAI hat gerade seinen eigenen 10-Punkte-Sicherheitsprozess veröffentlicht, zu dem es sich verpflichtet hat – doch einer seiner leitenden sicherheitsorientierten Ingenieure ist kürzlich zurückgetreten und hat auf X geschrieben, dass seine Abteilung intern „gegen den Wind gesegelt“ sei.

„In den vergangenen Jahren sind Sicherheitskultur und -prozesse gegenüber glänzenden Produkten in den Hintergrund geraten“, schrieb Jan Leike.

Natürlich gibt es bei OpenAI auch andere Teams, die sich weiterhin auf Sicherheit und Schutz konzentrieren.

Derzeit gibt es jedoch keine offizielle, unabhängige Aufsicht darüber, was sie tatsächlich tun.

„Wir haben keine Garantie dafür, dass diese Unternehmen ihre Zusagen einhalten“, sagt Professorin Dame Wendy Hall, eine der führenden Informatikerinnen Großbritanniens.

„Wie können wir sie für das, was sie sagen, zur Rechenschaft ziehen, wie wir es bei Pharmaunternehmen oder in anderen Sektoren tun, in denen ein hohes Risiko besteht?“

Möglicherweise stellen wir auch fest, dass diese mächtigen Technologieführer weniger zugänglich werden, wenn es hart auf hart kommt und die freiwilligen Vereinbarungen etwas durchsetzbarer werden.

Als die britische Regierung erklärte, sie wolle die Befugnis haben, die Einführung von Sicherheitsfunktionen großer Technologieunternehmen zu unterbrechen, wenn diese möglicherweise die nationale Sicherheit gefährden könnten, drohte Apple damit, seine Dienste aus Großbritannien zu entfernen, und bezeichnete dies als „beispiellose Übergriffigkeit“ der Gesetzgeber.

Die Gesetzgebung wurde verabschiedet und bis jetzt ist Apple immer noch hier.

Der KI-Act der Europäischen Union ist gerade in Kraft getreten und ist sowohl das erste als auch das strengste Gesetz überhaupt. Es sieht auch harte Strafen für Unternehmen vor, die sich nicht daran halten. Aber es bedeutet mehr Laufarbeit für KI-Nutzer als für die KI-Giganten selbst, sagt Nader Henein, VP-Analyst bei Gartner.

„Ich würde sagen, die Mehrheit [of AI developers] „Wir überschätzen die Auswirkungen, die das Gesetz auf sie haben wird“, sagt er.

Alle Unternehmen, die KI-Tools verwenden, müssen diese kategorisieren und einem Risiko-Score unterziehen – und die KI-Unternehmen, die die KI bereitgestellt haben, müssen genügend Informationen bereitstellen, damit sie das tun können, erklärt er.

Das heißt aber nicht, dass sie aus dem Schneider sind.

„Wir müssen mit der Zeit zu einer gesetzlichen Regulierung gelangen, aber wir dürfen nichts überstürzen“, sagt Prof. Hall. „Es ist wirklich schwierig, globale Governance-Grundsätze aufzustellen, denen sich alle anschließen.“

„Wir müssen auch sicherstellen, dass wir wirklich die ganze Welt schützen und nicht nur die westliche Welt und China.“

Diejenigen, die am AI Seoul Summit teilnahmen, sagten, dass er sich nützlich angefühlt habe. Er sei „weniger auffällig“ als Bletchley gewesen, aber mit mehr Diskussionen, sagte ein Teilnehmer. Interessanterweise wurde die Abschlusserklärung der Veranstaltung von 27 Ländern unterzeichnet, nicht jedoch von China, obwohl es persönlich vertreten war.

Das vorrangige Problem ist wie immer, dass Regulierung und Politik viel langsamer voranschreiten als Innovation.

Professor Hall glaubt, dass auf Regierungsebene die „Sterne günstig stehen“. Die Frage ist, ob man die Technologiegiganten dazu überreden kann, auf sie zu warten.

BBC im Detail ist das neue Zuhause auf der Website und in der App für die besten Analysen und das Fachwissen unserer Top-Journalisten. Unter einer unverwechselbaren neuen Marke bieten wir Ihnen frische Perspektiven, die Annahmen in Frage stellen, und tiefgründige Berichte über die größten Probleme, die Ihnen helfen, eine komplexe Welt zu verstehen. Und wir präsentieren auch zum Nachdenken anregende Inhalte von BBC Sounds und iPlayer. Wir fangen klein an, denken aber groß, und wir möchten wissen, was Sie denken – Sie können uns Ihr Feedback senden, indem Sie auf die Schaltfläche unten klicken.

In Kontakt kommen

InDepth ist das neue Zuhause für die besten Analysen von BBC News. Erzählen Sie uns, was Sie denken.


source site

Leave a Reply