ChatGPT-Proxy-Betrugswarnung, da Betrüger persönliche Daten stehlen, um Opfer zu erpressen | Persönliche Finanzen | Finanzen

Betrüger machen sich die Beliebtheit von ChatGPT zunutze, um Menschen zur Herausgabe persönlicher Daten zu verleiten.

Ray Canzanese, Direktor von Netskope Threat Labs, sprach mit Express.co.uk darüber, wie Kriminelle Proxy-Imitationen der ChatGPT-Webseite erstellen, die es ihnen ermöglichen, alle Informationen zu sehen, die die Person in den KI-gestützten Dienst eingibt.

Er sagte: „Der Proxy, der jetzt als „Mann in der Mitte“ zwischen dem Opfer und ChatGPT fungiert, ermöglicht es dem Betrüger, alles zu sehen, was die Opfer an ChatGPT senden – und alle von ChatGPT zurückgegebenen Antworten.

„Betrüger tun dies, um Informationen über ihre Opfer zu sammeln, die sie für weitere Betrügereien nutzen können.

„Angenommen, ich verwende ChatGPT, um eine E-Mail an meinen Finanzplaner zu bearbeiten und eine Krankheit zu recherchieren, die bei mir gerade diagnostiziert wurde.

„Der Betrüger kennt jetzt meine finanzielle Situation und kann mich mit Betrügereien angreifen, die meinen Gesundheitszustand ausnutzen.“

Betrüger können auch potenziell peinliche persönliche Daten nutzen, um eine Person zu erpressen und ihr Geld zu schicken.

Die Betrüger können auch alle Passwörter oder Schlüssel abfangen, die über die von ihnen kontrollierten Proxy-Sites an ChatGPT gesendet werden.

Herr Canzanese sprach darüber, was Menschen tun können, um nicht auf gefälschte Websites hereinzufallen.

Er sagte: „Der Ansatz ist dem Erkennen von Phishing-Seiten sehr ähnlich. ChatGPT ist ein Produkt von OpenAI und die URL lautet chat.openai.com.

„Wenn die von Ihnen besuchte Seite eine andere URL hat, kann es sich um einen Betrug handeln. Um solche Betrügereien zu vermeiden, navigieren Sie immer direkt zu Websites.

„Klicken Sie nicht auf Links, die Sie per SMS, E-Mail oder über soziale Medien erhalten. Klicken Sie nicht auf Links in Anzeigen.“

Es besteht auch die Gefahr, dass Betrüger KI-Tools wie ChatGPT nutzen könnten, um ihre Tricks zu verbreiten und überzeugender zu machen.

Chris Vaughan, Vizepräsident des Technical Account Management bei der Cybersicherheitsgruppe Tanium, sagte, dass ChatGPT verwendet werden kann, um „überzeugende Skripte“ für betrügerische Telefonanrufe zu schreiben.

Er sagte auch, dass KI zum Klonen von Stimmen verwendet werden könne, um die Stimme einer Person beim Telefonieren zu imitieren.

Er erklärte: „KI-Technologie kann Ihre Stimme nachahmen und Verhaltensweisen mit nur 15 Minuten Audioaufnahme reproduzieren, sodass sie nicht von der realen Person zu unterscheiden ist.“

„Stellen Sie sich vor, Sie hören am Telefon die Stimme eines verzweifelten Verwandten, der Sie bittet, ihm Geld zu überweisen.

„Das Hinzufügen einer persönlichen Note zu Betrügereien hat das Potenzial, die Zahl der Opfer deutlich zu erhöhen.“

Glücklicherweise gibt es Dinge, die Menschen tun können, um nicht auf betrügerische Anrufe hereinzufallen, bei denen vorgetäuscht wird, von einer Organisation oder einem geliebten Menschen in Not zu stammen.

Herr Vaughan sagte: „Achten Sie auf unnatürliche Pausen oder eine verzerrte Stimmqualität. Dies können Anzeichen für vorab aufgezeichnete Nachrichten oder Sprachsynthesesoftware sein.

„Wenn Sie diese Warnsignale hören, haben Sie keine Angst, aufzulegen – bleiben Sie nicht hier, wenn es verdächtig ist.“

Betrüger können KI auch nutzen, um gefälschte Social-Media-Profile zu erstellen, die sehr überzeugend aussehen können.

Für die neuesten Nachrichten zu persönlichen Finanzen folgen Sie uns auf Twitter unter @ExpressMoney_.

source site

Leave a Reply