Gruseliger KI-Betrug löst Warnung von Cybersicherheitsexperten von McAfee, Kaspersky und NordVPN aus | Persönliche Finanzen | Finanzen

Betrüger nutzen KI-Technologie, um ihre Betrügereien überzeugender zu machen (Bild: GETTY)

Briten wurden gewarnt, auf Anzeichen von Betrug und gefälschten Telefonanrufen zu achten, da Betrüger KI nutzen, um ihre Tricks immer ausgefeilter zu machen.

Experten der Cybersicherheitsgruppen McAfee, Kaspersky und NordVPN sprachen mit Express.co.uk darüber, wie Kriminelle die neueste Technologie nutzen, um Menschen dazu zu bringen, ihnen Geld zu schicken.

Oliver Devane, leitender Sicherheitsforscher bei McAfee, sagte, Betrüger benötigen nur ein paar Sekunden Ton der Stimme einer Person, um ihre Stimme mithilfe von KI zu klonen.

Er sagte: „Betrüger nutzen KI-Technologie zum Klonen von Stimmen, um die Stimme einer Person zu reproduzieren, um Familie oder Freunde per Telefonanruf, Sprachnotiz oder Voicemail dazu zu bringen, Geld zu übergeben.“ „In den meisten Fällen, von denen wir hören, geben die Betrüger an, dass sie einen schweren Unfall hatten, beispielsweise einen Autounfall, und dringend Geld benötigen.“

Die Gruppe sagte, sie habe einige der online verfügbaren kostenlosen und kostenpflichtigen Tools zum Klonen von Stimmen getestet und in einem Fall festgestellt, dass Betrüger nur drei Sekunden Audio benötigen, um eine Übereinstimmung zu erzielen.

MEHR LESEN Halifax reagiert auf Bedenken hinsichtlich „überzeugender“ gefälschter E-Mails

Ein KI-Programm

Betrüger nutzen KI-Technologie, um ihre Betrügereien überzeugender zu machen (Bild: Getty)

David Emm, leitender Sicherheitsforscher bei Kaspersky, sagte, es habe 2019 einen Vorfall gegeben, bei dem Betrüger die Stimme eines deutschen CEOs gefälscht hätten, der mit dem Chef einer britischen Tochtergesellschaft gesprochen habe, um ihn davon zu überzeugen, Geld für eine Geschäftstransaktion zu überweisen.

Er sagte über die KI-Technologie, die von Betrügern verwendet wird: „Sie wird hauptsächlich als Einzelfall eingesetzt, ähnlich dem, was man als „Geschäfts-E-Mail-Kompromittierung“ oder „Whaling“ bezeichnen würde, wenn man eine sehr wichtige Person in der Organisation ins Visier nimmt.

„Aber wir sind noch nicht an dem Punkt angelangt, an dem hochentwickelte Deep-Fake-Technologie es opportunistischen Cyberkriminellen erlauben wird, dies in großem Umfang zu tun.

„Wir haben gesehen, dass der Einsatz von ChatGPT die Erstellung von Phishing-E-Mails beschleunigt (mit einem hohen Maß an Genauigkeit und perfekter Rechtschreibung), aber in Bezug auf Malware-Skripte lässt es viel zu wünschen übrig, was sich nicht bewährt hat.“ hocheffizient oder bahnbrechend.“

Er warnte jedoch davor, dass Kriminelle die neueste Technologie nutzen, um neue Wege zu finden, Menschen anzulocken.

Ein Mann überprüft seinen Laptop

Betrüger nutzen KI-Technologie, um ihre Betrügereien überzeugender zu machen (Bild: GETTY)

Herr Emm sagte: „Das Problem liegt tiefer im Dark Web, wo es derzeit möglich ist, gegen eine Gebühr modulare Komponenten für Cyberkriminalitätsangriffe zu beschaffen.“

„Die Cyberkriminalitätslandschaft ist stark strukturiert und kommerzialisiert, und die Menschen entwickeln diese Tools als Dienstleistung.“

„Da die KI-Technologie immer mehr zum Mainstream wird, ist es wahrscheinlich, dass, wenn Sie die Stimme bereitstellen, jemand sie gegen eine gewisse Währung für Sie codiert, ohne dass Sie selbst über Programmierkenntnisse verfügen müssen.“

Marijus Briedis, Cybersicherheitsexperte bei NordVPN, sagte, dass „schurkische KI-Tools“ wie WormGPT und FraudGPT Chatbots ohne Einschränkungen seien, mit denen Betrüger Phishing-E-Mails und Fake-Call-Kampagnen in weitaus größerem Umfang als zuvor durchführen könnten.

Er sagte, Banken hätten in diesem Jahr einen Anstieg von Betrugsversuchen gemeldet, bei denen Betrüger die Stimme eines Kunden geklont hätten.

Eine Frau am Telefon

Betrüger nutzen KI-Technologie, um ihre Betrügereien überzeugender zu machen (Bild: Getty)

Er sagte: „KI kann überzeugende Phishing-E-Mails, -Nachrichten oder Social-Media-Profile generieren. Diese automatisierten Angriffe können auf die Interessen und Demografie des Opfers zugeschnitten werden, wodurch es wahrscheinlicher wird, dass es auf den Betrug hereinfällt.

„KI-generierte Deepfake-Videos können visuelle und akustische Inhalte manipulieren, um Einzelpersonen Worte in den Mund zu legen und ihre Botschaften authentisch erscheinen zu lassen.

„Diese Deepfakes stammen oft von vertrauenswürdigen Prominenten wie Martin Lewis und wurden erstellt, um dubiose Investitionspläne zu fördern oder Desinformation zu verbreiten.“

Mithilfe von KI können auch große Datenmengen verarbeitet werden, beispielsweise aus Social-Media-Profilen und öffentlichen Aufzeichnungen, um ein detailliertes Profil für das Opfer eines Betrugs zu erstellen.

Betrüger können auch KI-gestützte Chatbots nutzen, um an Gesprächen teilzunehmen und dabei den Kundensupport zu imitieren, um Kunden zur Herausgabe persönlicher Daten zu ermutigen.

Herr Briedis sagte, gefälschte Geschäfts-E-Mails seien nicht immer überzeugend, aber die KI könne aus ihren Fehlern lernen, wodurch die Betrügereien „für uns immer schwerer zu erkennen“ seien.

Ein Betrüger in Aktion

Betrüger nutzen KI-Technologie, um ihre Betrügereien überzeugender zu machen (Bild: Getty)

Was können Menschen tun, um Betrügereien zu vermeiden?

Herr Devane von McAfee ermutigte die Menschen, innezuhalten und darüber nachzudenken, ob sie aus heiterem Himmel einen Anruf erhalten, angeblich von einem geliebten Menschen.

Er sagte: „Cyberkriminelle setzen auf hohe Emotionen. Sie werden Ihre Verbindung zum geliebten Menschen ausnutzen und ein Gefühl der Dringlichkeit erzeugen, das Sie zum Handeln anregt. Versuchen Sie, einen kühlen Kopf zu bewahren und innezuhalten, bevor Sie weitere Schritte unternehmen.“

Herr Emm von Kaspersky forderte die Menschen außerdem dazu auf, vorsichtig zu sein, wenn jemand sie kontaktiert und um Geld bittet.

Er sagte: „Als allgemeine Faustregel sollten Menschen den Ansatz „Vertrauen, aber überprüfen“ anwenden. Zögern Sie beispielsweise nicht, Anfragen über separate Kommunikationskanäle wie einen Telefonanruf oder eine separate Nachricht zu überprüfen.

„Wenn Ihr Chef oder ein Familienmitglied Sie auffordert, eine Transaktion durchzuführen, schreiben Sie ihnen eine SMS oder wenden Sie sich separat an sie, um die Legitimität einer solchen Anfrage zu überprüfen.

„Erwägen Sie die Einrichtung eines eindeutigen Passcodes oder einer Codephrase für wichtige Transaktionen. Auf diese Weise können beide Beteiligten diesen Code verwenden, um die Legitimität einer Anfrage zu bestätigen.“

Herr Briedis von NordVPN sagte, die Briten sollten über die neuesten Tricks der Betrüger auf dem Laufenden bleiben.

Er kommentierte außerdem: „Auch wenn die Stimme am anderen Ende echt klingt, fragen Sie nach ihrem Namen, ihrer Organisation und ihren Kontaktinformationen.

„Seien Sie vorsichtig, wenn sie sich weigern, diese Informationen bereitzustellen, oder wenn sie verdächtig klingen. Jeder KI-Telefonbetrug funktioniert nach einem festgelegten Skript und kann sich daher offenbaren, wenn Sie Fragen stellen.

„Vermeiden Sie die Weitergabe persönlicher oder finanzieller Informationen am Telefon, es sei denn, Sie haben den Anruf eingeleitet und vertrauen der anderen Partei.

„Betrüger geben sich oft als legitime Organisationen aus, um Ihre Daten zu stehlen, aber Behörden wie die HMRC werden niemals nach diesen Details fragen.“

Er sagte auch, dass sich Menschen mit Maßnahmen wie Antivirensoftware, VPNs und passwortloser Multi-Faktor-Authentifizierung schützen können.

Für die neuesten Nachrichten zu persönlichen Finanzen folgen Sie uns auf Twitter unter @ExpressMoney_.

source site

Leave a Reply