Warum wir eine bessere Abwehr gegen VR-Cyberangriffe brauchen

Diese Geschichte erschien ursprünglich in The Algorithm, unserem wöchentlichen Newsletter zum Thema KI. Um Geschichten wie diese zuerst in Ihrem Posteingang zu erhalten, Hier anmelden.

Ich erinnere mich an das erste Mal, als ich ein VR-Headset ausprobierte. Es war die erste Oculus Rift, und ich wäre fast ohnmächtig geworden, nachdem ich eine intensive, aber visuell ungeschickte VR-Achterbahnfahrt erlebt hatte. Aber das war vor einem Jahrzehnt und das Erlebnis ist seitdem viel reibungsloser und realistischer geworden. Dieses beeindruckende Maß an Immersivität könnte jedoch ein Problem sein: Es macht uns in der VR besonders anfällig für Cyberangriffe.

Ich habe gerade eine Geschichte über eine neue Art von Sicherheitslücke veröffentlicht, die von Forschern der University of Chicago entdeckt wurde. Inspiriert durch den Christoper-Nolan-Film „Inception“ ermöglicht der Angriff Hackern die Erstellung einer App, die bösartigen Code in das Meta Quest VR-System einschleust. Anschließend wird ein Klon des Startbildschirms und der Apps gestartet, der genauso aussieht wie der Originalbildschirm des Benutzers. Einmal drinnen, können Angreifer alles sehen, aufzeichnen und ändern, was die Person mit dem VR-Headset macht, indem sie Stimme, Bewegung, Gesten, Tastenanschläge, Browsing-Aktivitäten und sogar Interaktionen mit anderen Personen in Echtzeit verfolgen. Neue Angst = freigeschaltet.

Die Ergebnisse sind ziemlich verblüffend, auch weil die ahnungslosen Testpersonen der Forscher absolut keine Ahnung hatten, dass sie angegriffen wurden. Mehr dazu könnt ihr in meiner Story hier lesen.

Es ist schockierend zu sehen, wie fragil und unsicher diese VR-Systeme sind, insbesondere wenn man bedenkt, dass Metas Quest-Headset das beliebteste Produkt dieser Art auf dem Markt ist und von Millionen von Menschen verwendet wird.

Aber vielleicht noch beunruhigender ist, wie solche Angriffe passieren können, ohne dass wir es merken, und dass sie unseren Realitätssinn verzerren können. Frühere Studien haben gezeigt, wie schnell Menschen anfangen, Dinge in AR oder VR als real zu betrachten, sagt Franzi Roesner, außerordentliche Professorin für Informatik an der University of Washington, die Sicherheit und Datenschutz studiert, aber nicht an der Studie beteiligt war. Selbst in sehr einfachen virtuellen Umgebungen beginnen Menschen, um Objekte herumzugehen, als ob sie tatsächlich dort wären.

VR hat das Potenzial, Fehlinformationen, Täuschungen und andere problematische Inhalte auf Steroiden zu übertragen, weil es das Gehirn von Menschen ausnutzt und sie physiologisch und unbewusst täuscht, sagt Roesner: „Das Eintauchen ist wirklich kraftvoll.“

Und da die VR-Technologie relativ neu ist, achten die Menschen bei der Nutzung nicht besonders auf Sicherheitslücken oder Fallen. Um zu testen, wie heimlich der Anfangsangriff war, rekrutierten die Forscher der University of Chicago 27 freiwillige VR-Experten, um ihn zu erleben. Eine der Teilnehmerinnen war Jasmine Lu, eine Informatik-Doktorandin an der University of Chicago. Sie sagt, dass sie seit 2017 regelmäßig VR-Systeme nutzt, studiert und damit arbeitet. Trotzdem habe der Angriff sie und fast alle anderen Teilnehmer überrascht.

„Soweit ich das beurteilen konnte, gab es bis auf eine etwas langsamere Ladezeit keinen Unterschied – Dinge, die die meisten Leute meiner Meinung nach nur als kleine Störungen im System interpretieren würden“, sagt Lu.

Eines der grundlegenden Probleme, mit denen sich Menschen bei der Nutzung von VR möglicherweise auseinandersetzen müssen, ist, ob sie dem, was sie sehen, vertrauen können, sagt Roesner.

Lu stimmt zu. Sie sagt, dass wir bei Online-Browsern darauf trainiert wurden, zu erkennen, was legitim aussieht und was nicht, aber bei VR ist das einfach nicht der Fall. Die Menschen wissen nicht, wie ein Angriff aussieht.

Dies hängt mit einem wachsenden Problem zusammen, das wir mit dem Aufkommen generativer KI und sogar bei Text, Audio und Video sehen: Es ist bekanntermaßen schwierig, echte von KI-generierten Inhalten zu unterscheiden. Der Anfangsangriff zeigt, dass wir VR als eine andere Dimension in einer Welt betrachten müssen, in der es immer schwieriger wird zu wissen, was real ist und was nicht.

Da immer mehr Menschen diese Systeme nutzen und immer mehr Produkte auf den Markt kommen, liegt die Verantwortung beim Technologiesektor, Wege zu entwickeln, um sie sicherer und vertrauenswürdiger zu machen.

Die guten Nachrichten? Obwohl VR-Technologien kommerziell erhältlich sind, sind sie noch nicht so weit verbreitet, sagt Roesner. Es ist also an der Zeit, jetzt mit der Verstärkung der Verteidigung zu beginnen.


Lesen Sie nun den Rest von „Der Algorithmus“.

Tiefergehendes Lernen

Ein OpenAI-Spinoff hat ein KI-Modell entwickelt, das Robotern dabei hilft, Aufgaben wie Menschen zu erlernen

Im Sommer 2021 schloss OpenAI stillschweigend sein Robotik-Team und gab bekannt, dass der Fortschritt durch einen Mangel an Daten erstickt werde, die erforderlich seien, um Robotern beizubringen, wie sie sich mithilfe künstlicher Intelligenz bewegen und denken können. Jetzt sagen drei der frühen OpenAI-Forscher, dass das von ihnen 2017 gegründete Startup namens Covariant dieses Problem gelöst und ein System vorgestellt hat, das die Denkfähigkeiten großer Sprachmodelle mit der körperlichen Geschicklichkeit eines fortschrittlichen Roboters kombiniert.

Multimodale Eingabeaufforderung:Das neue Modell mit dem Namen RFM-1 wurde auf der Grundlage jahrelanger Daten trainiert, die von Covariants kleiner Flotte von Artikelkommissionierungsrobotern gesammelt wurden, die Kunden wie Crate & Barrel und Bonprix in Lagern auf der ganzen Welt verwenden, sowie auf Wörtern und Videos aus dem Internet. Benutzer können das Modell mithilfe von fünf verschiedenen Eingabetypen steuern: Text, Bilder, Videos, Roboteranweisungen und Messungen. Das Unternehmen hofft, dass das System im realen Einsatz leistungsfähiger und effizienter wird. Lesen Sie hier mehr von James O’Donnell.

Bits und Bytes

Sie können jetzt generative KI nutzen, um Ihre Geschichten in Comics zu verwandeln
Durch die Zusammenführung verschiedener generativer Modelle in einem benutzerfreundlichen Paket, das per Knopfdruck gesteuert wird, läutet Lore Machine die Ankunft der Ein-Klick-KI ein. (MIT Technology Review)

Einem ehemaligen Google-Ingenieur wurde vorgeworfen, KI-Geschäftsgeheimnisse für chinesische Unternehmen gestohlen zu haben
Der Wettlauf um die Entwicklung immer leistungsfähigerer KI-Systeme wird immer schmutziger. Ein chinesischer Ingenieur hat während seiner Arbeit für chinesische Unternehmen vertrauliche Dateien über die Supercomputing-Rechenzentren von Google auf sein persönliches Google Cloud-Konto heruntergeladen. (US-Justizministerium)

In der OpenAI-Saga gab es noch mehr Drama
Diese Geschichte ist wirklich das Geschenk, das man immer wieder gibt. OpenAI hat auf Elon Musk und seine Klage zurückgewiesen, in der behauptet wird, das Unternehmen habe seine ursprüngliche Mission, Gutes für die Welt zu tun, verraten, indem es E-Mails veröffentlicht habe, aus denen hervorgeht, dass Musk auch daran interessiert sei, OpenAI zu kommerzialisieren. Unterdessen ist Sam Altman nach seinem vorübergehenden Sturz wieder im Vorstand von OpenAI, und es stellt sich heraus, dass Technologiechefin Mira Murati eine größere Rolle bei dem Putsch gegen Altman gespielt hat als zunächst berichtet.

Ein Whistleblower von Microsoft hat gewarnt, dass das KI-Tool des Unternehmens gewalttätige und sexuelle Bilder erstellt und das Urheberrecht ignoriert
Shane Jones, ein Ingenieur, der bei Microsoft arbeitet, sagt, seine Tests mit dem Copilot Designer des Unternehmens hätten besorgniserregende und beunruhigende Ergebnisse geliefert. Er sagt, das Unternehmen habe seine Bedenken zur Kenntnis genommen, das Produkt jedoch nicht vom Markt genommen. Jones schickte daraufhin einen Brief an die Federal Trade Commission, in dem er diese Bedenken darlegte, und Microsoft hat seitdem damit begonnen, einige Begriffe zu blockieren, die giftige Inhalte generierten. (CNBC)

Silicon Valley drängt Akademiker aus der KI-Forschung heraus
KI-Forschung ist unglaublich teuer und Big Tech mit ihren enormen Gehältern und Rechenressourcen entzieht der Wissenschaft Top-Talente. Dies hat schwerwiegende Auswirkungen auf die Technologie und führt dazu, dass sie sich eher auf kommerzielle als auf wissenschaftliche Zwecke konzentriert. (Die Washington Post)

source site

Leave a Reply