Deepfakes-Warnung, da unglaublich realistische Stimmen und Nachrichten auf die Schwachen abzielen | Persönliche Finanzen | Finanzen

Betrüger nutzen die neueste KI-Technologie, um ihre Telefonbetrügereien immer überzeugender zu machen, warnte ein Experte.

Bala Kumar, Chief Product Officer bei der Online-Verifizierungsgruppe Jumio, sagte gegenüber Express.co.uk, dass KI für die Erstellung „unglaublich realistischer“ Deepfakes eingesetzt werden könne.

Er sagte: „Obwohl diese Technologien immer fortschrittlicher werden, scheinen Verbraucher ihre Fähigkeit, Deepfakes wie einen Telefonanruf oder ein Video zu erkennen, zu überschätzen, was sie anfällig für solche Betrügereien macht.“

Eine Umfrage der Gruppe ergab, dass 56 Prozent der Verbraucher generative KI-Tools wie ChatGPT, DALL-E und Lensa AI kennen, mit denen sich gefälschte Videos, Bilder und Audio erstellen lassen.

Aber fast die Hälfte dachte, sie könnten ein Deepfake-Video entdecken, das Herr Kumar als „besorgniserregend“ bezeichnete, da Identitätsbetrug die Briten im Jahr 2022 insgesamt 177 Millionen Pfund kostete.

Er sagte: „Organisationen haben die Pflicht, ihre Kunden über die Nuancen von KI-gestützten Telefonanrufbetrügereien aufzuklären, um ihnen zu helfen, realistischere Erwartungen an ihre Fähigkeit zu entwickeln, sie zu erkennen.“

„Gleichzeitig wird selbst die beste Ausbildung niemals in der Lage sein, die Nutzung sich entwickelnder Technologien durch Betrüger vollständig zu verhindern.

„Organisationen müssen versuchen, multimodale, biometrische Verifizierungssysteme zu implementieren, damit, wenn es einem Betrüger gelingt, persönliche Informationen über einen Telefonanrufbetrug zu erbeuten, diese Informationen niemals anderswo verwendet werden können.“

Graham Smith, Leiter Customer Success beim Cybersicherheitsspezialisten OryxAlign, warnte, dass KI auch zum Erstellen von Phishing-E-Mails eingesetzt werde.

Er sagte: „Wir haben bereits die erste Welle KI-gestützter Phishing-E-Mails gesehen und sie sind besorgniserregend überzeugend.“

„Die Verwendung natürlicher Sprache macht es fast unmöglich, sie von einer echten Person zu unterscheiden.

„ChatGPT und ähnliche Plattformen erfordern jedoch zunächst immer noch den Input von Menschen. Ein Cyberkrimineller muss ihn also immer noch auffordern, eine Phishing-E-Mail oder eine Betrügerstimme zu generieren.

„Die Cybersicherheitsbranche wird mehr Cyberexperten brauchen, um der daraus resultierenden Zunahme raffinierter Angriffe entgegenzuwirken.“

Chris Anley, Chefwissenschaftler beim Cybersicherheitsunternehmen NCC Group, sagte, „Robocall-Betrügereien“ mit vorab aufgezeichneten Nachrichten seien sehr verbreitet, er sehe jedoch noch keinen weit verbreiteten Einsatz von KI für diese Art von Betrug.

Er erklärte, wie Betrüger die Technologie nutzen könnten: „Mit nur einem einzigen Telefonanruf kann ein künstlicher Klon der Stimme einer Person erstellt werden.“

„Wir sehen immer mehr Fälle von Voice-Cloning bei Rechnungsbetrug – bei dem Unternehmen dazu verleitet werden, gefälschte Rechnungen zu bezahlen – sowie bei anderen betrügerischen Methoden.

„Wir haben auch gesehen, dass KI bei Phishing-Betrügereien eingesetzt wird, bei denen gefälschte E-Mails generiert werden, um Benutzer dazu zu verleiten, Dokumente zu öffnen oder Websites zu besuchen, um ihre persönlichen Daten wie Bankdaten zu stehlen oder Viren auf ihre Geräte herunterzuladen.“

Als er darüber sprach, wie Menschen vermeiden können, hereingelegt zu werden, sagte er: „Wir neigen dazu, die Dinge für bare Münze zu nehmen, wir vertrauen Autoritäten, wir alle haben Menschen und Dinge, die uns wichtig sind, und wenn uns gesagt wird, dass etwas dringend ist, neigen wir dazu, zu reagieren.“ .

‌„Es ist wichtig zu verstehen, dass jeder betrogen werden kann, und wachsam zu bleiben.

Um sich vor fast allen dieser Betrügereien zu schützen, reichen angemessene Vorsichtsmaßnahmen und Vorsicht bei unerwünschten Anrufen und Nachrichten aus.“

Für die neuesten Nachrichten zu persönlichen Finanzen folgen Sie uns auf Twitter unter @ExpressMoney_.

source site

Leave a Reply