KI-Betrugswarnung, da Betrüger Stimmen „einfach“ klonen können – so schützen Sie sich | Persönliche Finanzen | Finanzen

Die Briten werden aufgefordert, wachsam zu sein, da die neueste KI-Technologie es Betrügern erleichtert, Menschen ins Visier zu nehmen.

Betrüger können leicht die Stimme einer Person klonen und gefälschte Telefonanrufe tätigen, um Menschen dazu zu verleiten, Informationen preiszugeben, wenn sie nur über grundlegende Kenntnisse der erforderlichen Technologie verfügen.

Muhammad Yahya Patel, leitender Sicherheitsingenieur bei Check Point Software, sagte gegenüber Express.co.uk: „KI beeinflusst definitiv die Quantität und Qualität betrügerischer Telefonanrufe, einfach weil sie Cyberkriminellen die Möglichkeit gegeben hat, einfach und schnell zu sein.“

„Das Klonen von Stimmen ist jetzt unglaublich einfach, da einige Plattformen nur einen dreisekündigen Clip der Stimme einer Person benötigen, um unbegrenzte Möglichkeiten zu schaffen.“

„Um an diese Soundbites zu gelangen, durchforsten Cyberkriminelle normalerweise Social-Media-Konten, und sobald sie diese haben, können sie im Grunde genommen loslegen.“

Die Gruppe gab an, dass sie einen starken Anstieg der Verwendung von Phishing-E-Mails beobachte, da selbst ein völliger Programmieranfänger ein vorab geschriebenes Betrugsskript erhalten könne, um sich als jede Art von Unternehmen auszugeben.

Herr Patel sagte: „Dies ist ein sehr besorgniserregendes Problem. Um dies in den Zusammenhang zu bringen: Wir haben kürzlich festgestellt, dass diese Taktik auf LinkedIn eingesetzt wird, indem gefälschte Profile eingerichtet und Nachrichten mit bösartigen Links an ahnungslose Jobsuchende verschickt werden. Es gibt keine Nachricht.“ sicher und es ist wichtig, dass wir jede Kommunikation abfragen.“

Nick France, CTO von Sectigo, sagte, dass Stimmenimitationen für eine Vielzahl von Angriffen genutzt werden können. Ein kürzlich durchgeführtes Experiment hat gezeigt, dass KI genutzt werden kann, um Deepfakes in die Lage zu versetzen, die Spracherkennung für Online-Banking zu umgehen.

Er warnte: „Die Leute denken, dass Telefonbetrug, bei dem die Stimme einer Person erfolgreich manipuliert wird, unmöglich ist, aber die Realität ist, dass die KI-Deepfake-Voice-Technologie demokratisierter ist, als wir gerne glauben, es braucht keinen MIT-Absolventen, um das zu schaffen.“

‌„Dieser Anstieg wurde durch die Zunahme der Fernvalidierung seit der Pandemie noch verschärft. Es ist mittlerweile gängige Praxis, dass eine Person sich selbst filmt, indem sie einen Ausweis vor ihr Gesicht hält, um ihre Identität zu überprüfen, wenn sie ein neues Bankkonto eröffnet, da sowohl Einzelpersonen als auch … Unternehmen möchten nun Wege finden, die Identität aus der Ferne zu überprüfen.“

Er sagte, Unternehmen sollten bessere Sicherheitsmaßnahmen wie eine PKI-basierte Authentifizierung (Public Key Infrastructure) in Betracht ziehen. Herr France sagte: „PKI verlässt sich nicht auf biometrische Daten, die gefälscht oder gefälscht werden können. Durch die Verwendung öffentlicher und privater Schlüssel gewährleistet PKI ein hohes Maß an Sicherheit, das den Bedrohungen von morgen standhalten kann.“

Herr Patel forderte die Leute auf, aufzulegen und zurückzurufen, wenn sie einen verdächtigen Anruf erhalten. Er erklärte: „Mein wichtigster Ratschlag ist: Wenn Sie einen Anruf scheinbar von jemandem erhalten, dem Sie vertrauen und der Sie bittet, eine dringende Aufgabe zu erledigen, sei es das Senden von Geld oder die Herausgabe von Passwörtern, beenden Sie den Anruf höflich und rufen Sie die Person unter der Telefonnummer zurück die Nummer, die Sie normalerweise verwenden. Dies ist eine schnelle Möglichkeit, die Identität einer Person zu authentifizieren und sich selbst zu schützen.“

Simon Miller, Direktor für Politik und Kommunikation bei Stop Scams UK, sagte, KI-Technologie könne auch zur Betrugsbekämpfung eingesetzt werden.

Er sagte: „KI wird im Kampf gegen Betrüger sicherlich von entscheidender Bedeutung sein. Maschinelles Lernen ermöglicht die Verarbeitung viel größerer Datenmengen mit höherer Geschwindigkeit, ohne dass menschliches Eingreifen erforderlich ist.“

„Banken werden in der Lage sein, Muster und potenziell anomale Transaktionen viel schneller und genauer zu finden.“

Die britische Regierung hat erklärt, dass sie versuchen wird, Deep Fakes zu verbieten, und andere Gerichtsbarkeiten versuchen, sie zu verbieten. Durch Änderungen des Online-Sicherheitsgesetzes soll klargestellt werden, dass es sich dabei um eine Straftat handelt. Identitätswechsel zu betrügerischen Zwecken ist bereits eine Straftat.

Er sagte, die Regierung bringe auch Gesetze zum Verbot von Deepfakes ein. Er sagte: „Änderungen des Online-Sicherheitsgesetzes sollen klarstellen, dass es sich um eine Straftat handelt. Identitätswechsel zu betrügerischen Zwecken ist bereits eine Straftat.“

Stop Scams betreibt den 159-Dienst. Wenn eine Person einen verdächtigen Anruf angeblich von ihrer Bank erhält, kann sie auflegen und 159 anrufen. Sie wird dann sicher mit ihrer Bank verbunden, um zu prüfen, wie die Situation ist.

Diese Banken sind über den 159-Dienst erreichbar:

  • Bank von Schottland
  • Barclays
  • Kooperative Bank
  • Erster Direkter
  • Halifax
  • HSBC
  • Lloyds
  • Metro Bank
  • Bundesweite Bausparkasse
  • NatWest
  • Royal Bank of Scotland
  • Santander
  • Starling Bank
  • Tide
  • TSB
  • Ulster Bank.

Für die neuesten Nachrichten zu persönlichen Finanzen folgen Sie uns auf Twitter unter @ExpressMoney_.

source site

Leave a Reply