Studie warnt davor, dass KI zu einem Anstieg von Online-Sprachbetrug führt

Experten haben gewarnt, dass die KI-Technologie eine Explosion von Betrug mit dem Klonen von Stimmen anheizt.

Betrüger können jetzt die Stimme eines Opfers mit nur einem dreisekündigen Audioschnipsel nachahmen, der oft aus Social-Media-Profilen gestohlen wird.

Es wird dann verwendet, um einen Freund oder ein Familienmitglied anzurufen, um ihn davon zu überzeugen, dass er in Schwierigkeiten steckt und dringend Geld braucht.

Laut dem Cybersicherheitsspezialisten McAfee gibt einer von vier Briten an, dass er selbst oder jemand, den er kennt, Opfer des Betrugs geworden ist.

Es ist so glaubwürdig, dass die Mehrheit der Betroffenen zugab, dass sie dadurch Geld verloren haben, wobei die Kosten für etwa ein Drittel der Opfer über 1.000 £ liegen.

Behalten Sie die Augen im Auge: KI-Technologie schürt eine Explosion von Betrug mit dem Klonen von Stimmen, warnen Experten (Archivbild)

Betrüger können jetzt die Stimme eines Opfers mit nur einem dreisekündigen Audioschnipsel nachahmen, der oft aus Social-Media-Profilen gestohlen wird.  Der Cybersicherheitsspezialist McAfee hat Menschen auf der ganzen Welt befragt, um zu sehen, wie viele Menschen online ihre Meinung sagen

Betrüger können jetzt die Stimme eines Opfers mit nur einem dreisekündigen Audioschnipsel nachahmen, der oft aus Social-Media-Profilen gestohlen wird. Der Cybersicherheitsspezialist McAfee hat Menschen auf der ganzen Welt befragt, um zu sehen, wie viele Menschen online ihre Meinung sagen

Ein Bericht der Firma besagt, dass die KI bereits „das Spiel für Cyberkriminelle verändert“ hat, da die Tools, die zur Durchführung des Betrugs erforderlich sind, im Internet frei verfügbar sind.

WIE FUNKTIONIERT DER BETRUG?

  • Betrüger stehlen einen Audioschnipsel der Stimme einer Person aus ihrem Social-Media-Profil, manchmal nur drei Sekunden lang
  • Sie verwenden dies dann, um die Stimme des Opfers nachzuahmen
  • Der Betrüger ruft einen Freund oder ein Familienmitglied des Opfers an und benutzt die nachgeahmte Stimme, um sie zu täuschen
  • Dann überzeugen sie die Angehörigen des Opfers, dass sie in Schwierigkeiten sind und dringend Geld brauchen
  • Es ist so überzeugend, dass ein Drittel der Opfer zugibt, dadurch über 1.000 Pfund verloren zu haben

Experten, Akademiker und Chefs aus der gesamten Technologiebranche fordern eine strengere Regulierung der KI, da sie befürchten, dass der Sektor außer Kontrolle gerät.

US-Vizepräsidentin Kamala Harris trifft sich heute (Mittwoch) mit den Vorstandsvorsitzenden von Google, Microsoft und OpenAI, der Firma hinter ChatGPT, um zu erörtern, wie KI verantwortungsvoll entwickelt werden kann.

Sie werden sich mit der Notwendigkeit von Sicherheitsvorkehrungen befassen, die potenzielle Risiken mindern können, und die Bedeutung ethischer und vertrauenswürdiger Innovationen betonen, sagte das Weiße Haus.

In McAfees Bericht „The Artificial Imposter“ heißt es, das Klonen, wie jemand klingt, sei zu einem „mächtigen Werkzeug im Arsenal eines Cyberkriminellen“ geworden – und es sei nicht schwer, Opfer zu finden.

Eine Umfrage unter über 1.000 britischen Erwachsenen ergab, dass die Hälfte ihre Sprachdaten mindestens einmal pro Woche online in sozialen Medien oder Sprachnotizen teilte.

Die Untersuchung ergab mehr als ein Dutzend KI-Tools zum Klonen von Stimmen, die offen im Internet verfügbar sind, von denen viele kostenlos sind und für deren Verwendung nur ein grundlegendes Maß an Fachwissen erforderlich ist.

In einem Fall reichten nur drei Sekunden Audio aus, um eine 85-prozentige Übereinstimmung zu erzielen, während es keine Probleme hatte, Akzente aus der ganzen Welt zu reproduzieren.

Da jedermanns Stimme das gesprochene Äquivalent eines biometrischen Fingerabdrucks ist, gaben 65 Prozent der Befragten an, dass sie sich nicht sicher waren, ob sie die geklonte Version von der echten unterscheiden könnten.

Die nachgeahmte Stimme wird verwendet, um einen Freund oder ein Familienmitglied anzurufen, um sie davon zu überzeugen, dass sie in Schwierigkeiten sind und dringend Geld brauchen (Archivbild)

Die nachgeahmte Stimme wird verwendet, um einen Freund oder ein Familienmitglied anzurufen, um sie davon zu überzeugen, dass sie in Schwierigkeiten sind und dringend Geld brauchen (Archivbild)

Ein Bericht der Firma besagt, dass die KI bereits „das Spiel für Cyberkriminelle verändert“ hat, da die Tools, die zur Durchführung des Betrugs erforderlich sind, im Internet frei verfügbar sind.  Die Firma befragte Personen, um herauszufinden, wie viele selbst einen KI-Sprachbetrug erlebt hatten oder jemanden kannten, der dies getan hatte

Ein Bericht der Firma besagt, dass die KI bereits „das Spiel für Cyberkriminelle verändert“ hat, da die Tools, die zur Durchführung des Betrugs erforderlich sind, im Internet frei verfügbar sind. Die Firma befragte Personen, um herauszufinden, wie viele selbst einen KI-Sprachbetrug erlebt hatten oder jemanden kannten, der dies getan hatte

Besorgniserregend: Mehr als drei von zehn Briten gaben an, dass sie auf eine Voicemail oder Sprachnotiz antworten würden, die vorgibt, von einem Freund oder geliebten Menschen zu stammen, der Geld braucht – insbesondere, wenn sie dachten, es käme von einem Partner, Kind oder Elternteil

Besorgniserregend: Mehr als drei von zehn Briten gaben an, dass sie auf eine Voicemail oder Sprachnotiz antworten würden, die vorgibt, von einem Freund oder geliebten Menschen zu stammen, der Geld braucht – insbesondere, wenn sie dachten, es käme von einem Partner, Kind oder Elternteil

Die Kosten, auf einen KI-Sprachbetrug hereinzufallen, können erheblich sein, da 78 Prozent der Menschen zugeben, dass sie Geld verloren haben.  Etwa 6 Prozent wurden um 5.000 bis 15.000 Pfund betrogen

Die Kosten, auf einen KI-Sprachbetrug hereinzufallen, können erheblich sein, da 78 Prozent der Menschen zugeben, dass sie Geld verloren haben. Etwa 6 Prozent wurden um 5.000 bis 15.000 Pfund betrogen

Mehr als drei von zehn Befragten gaben an, dass sie auf eine Voicemail oder Sprachnotiz antworten würden, die vorgeben, von einem Freund oder geliebten Menschen zu stammen, der Geld braucht – insbesondere, wenn sie dachten, es käme von einem Partner, Kind oder Elternteil.

Nachrichten, die am wahrscheinlichsten eine Antwort hervorriefen, waren diejenigen, die behaupteten, der Absender sei in einen Autounfall verwickelt gewesen, ausgeraubt worden, habe sein Telefon oder seine Brieftasche verloren oder brauche Hilfe, während er ins Ausland reiste.

Einer von 12 gab an, dass er persönlich von einer Art KI-Sprachbetrug betroffen war, und weitere 16 Prozent gaben an, dass es jemandem passiert war, den sie kannten.

Die Kosten, auf einen KI-Sprachbetrug hereinzufallen, können erheblich sein, da 78 Prozent der Menschen zugeben, dass sie Geld verloren haben. Etwa 6 Prozent wurden um 5.000 bis 15.000 Pfund betrogen.

Vonny Gamot, Head of EMEA bei McAfee: „Fortschrittliche Tools für künstliche Intelligenz verändern das Spiel für Cyberkriminelle. Jetzt können sie mit sehr geringem Aufwand die Stimme einer Person klonen und einen engen Kontakt dazu verleiten, Geld zu senden.“

Sie fügte hinzu: „Künstliche Intelligenz bietet unglaubliche Möglichkeiten, aber bei jeder Technologie besteht immer das Potenzial, dass sie böswillig in den falschen Händen eingesetzt wird.

„Das sehen wir heute angesichts des Zugangs und der Benutzerfreundlichkeit von KI-Tools, die Cyberkriminellen dabei helfen, ihre Bemühungen auf immer überzeugendere Weise zu skalieren.“

WIE MAN VERMEIDET, AUF BETRUG ZU FALLEN: TIPPS VON EXPERTEN

McAfee hat eine Reihe von Tipps geteilt, um zu verhindern, dass Menschen von KI-Betrügern erwischt werden.

Sie sind…

1. Legen Sie ein „Codewort“ mit Kindern, Familienmitgliedern oder vertrauenswürdigen engen Freunden fest, die nur sie kennen können. Machen Sie einen Plan, um immer danach zu fragen, wenn sie anrufen, schreiben oder eine E-Mail senden, um um Hilfe zu bitten, besonders wenn sie älter oder anfälliger sind.

2. Stellen Sie immer die Quelle in Frage – Wenn es sich um einen Anruf, eine SMS oder eine E-Mail von einem unbekannten Absender handelt, oder sogar wenn es sich um eine Nummer handelt, die Sie kennen, halten Sie inne, halten Sie inne und denken Sie nach. Das Stellen gezielter Fragen kann einen Betrüger abschrecken.

Zum Beispiel: „Können Sie den Namen meines Sohnes bestätigen?“ oder “Wann hat dein Vater Geburtstag?” Dies kann den Betrüger nicht nur überraschen, sondern er muss möglicherweise auch eine neue Antwort generieren, was dem Gespräch unnatürliche Pausen hinzufügen und Verdacht erwecken kann.

3. Lassen Sie nicht zu, dass Ihre Emotionen übernehmen. Cyberkriminelle zählen auf Ihre emotionale Verbindung zu der Person, die sie vorgeben, um Sie zum Handeln anzuspornen.

Treten Sie einen Schritt zurück, bevor Sie antworten. Klingt das wirklich nach ihnen? Ist das etwas, was sie von dir verlangen würden? Legen Sie auf und rufen Sie die Person direkt an oder versuchen Sie, die Informationen zu überprüfen, bevor Sie antworten.

4. Überlegen Sie, ob Sie unerwartete Anrufe von unbekannten Telefonnummern annehmen möchten. Generell ist es ratsam, Anrufe von Fremden nicht anzunehmen. Wenn sie eine Voicemail hinterlassen, haben Sie Zeit, darüber nachzudenken und Ihre Lieben unabhängig voneinander zu kontaktieren, um ihre Sicherheit zu bestätigen.

source site

Leave a Reply