Experten haben gewarnt, dass die KI-Technologie eine Explosion von Betrug mit dem Klonen von Stimmen anheizt.
Betrüger können jetzt die Stimme eines Opfers mit nur einem dreisekündigen Audioschnipsel nachahmen, der oft aus Social-Media-Profilen gestohlen wird.
Es wird dann verwendet, um einen Freund oder ein Familienmitglied anzurufen, um ihn davon zu überzeugen, dass er in Schwierigkeiten steckt und dringend Geld braucht.
Laut dem Cybersicherheitsspezialisten McAfee gibt einer von vier Briten an, dass er selbst oder jemand, den er kennt, Opfer des