IHR ultimativer Leitfaden zum Erkennen von gefälschten Personen, die von KI erstellt wurden

Betrüger erstellen gefälschte Dating-Profile und Social-Media-Konten, um Menschen zu erpressen.

OnlyFans-Modelle, die von KI-Bildmachern generiert wurden, sind im X-bewerteten Dienst aufgetaucht, während Tinder-„Coaches“ ChatGPT verwenden, um Kunden dabei zu helfen, Daten zu bekommen. Apps, die KI-Chatbots verwenden, um Benutzern einen „Begleiter“ zu bieten, nehmen ebenfalls zu.

Diese gefälschten Konten werden für „romantische Betrügereien“ verwendet, bei denen eine Person eine Person dazu bringt, ihr Partner zu werden, und die Beziehung nutzt, um Geld von ihnen zu extrahieren.

Die Federal Trade Commission sagte, dass diese Betrügereien die Amerikaner im Jahr 2022 1,3 Milliarden Dollar kosten würden. Andere Akteure haben ebenfalls KI-generierte Bilder verwendet, um Unternehmen anzugreifen.

DailyMail.com sprach mit Experten für Cybersicherheit, um Tipps zu erhalten, wie man ein KI-Profil erkennt. Dazu gehören das Betrachten der Hände, Zähne und Schatten.

Dieses Bild wurde in Midjourney in Sekundenschnelle als Antwort auf eine einfache Eingabeaufforderung generiert

Martin Cheek, Betrugs- und Cybersicherheitsexperte bei SmartSearch, sagte gegenüber DailyMail.com: „ChatGPT macht es Cyberkriminellen sehr leicht, sich als andere Personen auszugeben, ohne über große literarische Fähigkeiten zu verfügen.“

‘[They can] Nutzen Sie das Sprachmodell, um personalisiertere Nachrichten zu generieren und Menschen dazu zu bringen, Opfer von Cyberangriffen zu werden.’

KI-generierte Gesichter sind nicht perfekt. Es gibt immer noch einige Mängel in der Technologie, und wenn Sie sie erkennen, können Sie feststellen, ob Ihr Tinder-Match das Richtige ist.

Romantikbetrug funktioniert, indem soziale Medien oder Dating-Apps verwendet werden, um eine Person in eine Online-Beziehung zu locken. Sie verwenden normalerweise Bilder einer sehr attraktiven Person – wie z. B. eines Models oder Schauspielers – die online gefunden wurden.

Dann fangen sie an, ihr Ziel um Geld zu bitten, indem sie alltägliche Dinge wie eine Autopanne, Arztrechnungen oder andere Ausgaben verwenden.

„Wenn dich ein Liebesinteresse im Internet um Geld bittet, geh weg – egal, wie fesselnd die Geschichte ist“, sagt die FTC.

Schau dir die Hände an

Kannst du erkennen, was an diesem KI-generierten Foto falsch ist?

Können Sie erkennen, was falsch ist?

Genau wie viele Künstler hat die KI-Technologie Probleme mit den richtigen Händen

„Bei der KI gibt es einige Dinge, die die KI ziemlich schlecht replizieren kann – insbesondere Hände“, sagt Cyril Noel-Tagoe, leitender Sicherheitsforscher beim Cybersicherheitsunternehmen Netacea in Großbritannien.

“Manchmal kann man darin Verzerrungen sehen, und manchmal sind sie vielleicht zu groß oder haben einen zusätzlichen Finger.”

Dieses Phänomen tritt auf, weil KI die Mustersuche verwendet, um Bilder zu generieren.

Es kann das Muster erkennen, dass Menschen Hände haben, und dass Hände Finger haben, aber es weiß nicht, dass es eine bestimmte Anzahl von Fingern geben muss.

Von KI gezeichnete Hände haben oft auch bizarr aussehende Finger. Oft sind sie zu lang oder unzusammenhängend.

Dies liegt daran, dass die Plattform nicht versteht, was Hände sind und welche Funktion sie haben, nur wie sie aussehen könnten.

Achten Sie auf verräterische Zeichen im Hintergrund

Schatten können ein Hinweis darauf sein, dass ein Bild von der KI generiert wurde (dieses hier ist)

Schatten können ein Hinweis darauf sein, dass ein Bild von der KI generiert wurde (dieses hier ist)

Bilder, die von KI erstellt werden, werden auch voller seltsamer Beleuchtung und Texturen sein.

Vonny Gamot, Senior Leader bei McAfee, sagte gegenüber DailyMail.com: „KI-generierte Bilder haben oft verräterische Anzeichen dafür, dass sie tatsächlich gefälscht sind, daher ist es wichtig, genau darauf zu achten.

„Wenn zum Beispiel die Umrisse der Person verschwommen sind oder kleine Details wie Schatten unscharf erscheinen, wissen Sie, dass das Bild nicht echt ist.“

Da KI-generierte Bilder keine echte Beleuchtung haben, sind die Schatten auf ihnen jetzt genau.

Stattdessen verwendet die KI einfach eine Verschmelzung verschiedener Bilder, um falsche Schatten zu erzeugen, die oft nicht mit der natürlichen Beleuchtung übereinstimmen.

Manchmal erscheinen auch die Umrisse von Personen in einem von KI generierten Bild verschwommen, da sich das Motiv des Stücks in den Hintergrund einfügt.

Sehen Sie sich Ton, Haare, Augen, Gesicht und Zähne an (DIEBSTAHL)

Herr Gamot sagt, McAfee, eine Sicherheitssoftwarefirma aus San Jose, Kalifornien, sagte gegenüber DailyMail.com, sein Unternehmen habe eine Checkliste, um zu überprüfen, ob Bilder gefälscht sind.

Unter dem Namen THEFT überprüfen Mitarbeiter von McAfee Tonus, Haare, Augen, Gesicht und Zähne von Probanden, um festzustellen, ob es Anzeichen für eine KI-Erzeugung gibt.

Die KI-Technologie hat Probleme, all diese Funktionen richtig darzustellen.

Ton

Fleckige Flecken auf der Haut, unregelmäßige Hauttöne oder Flackern an den Gesichtsrändern sind alles Anzeichen für Deep Fake-Bilder und -Videos.

Dies liegt daran, dass die Bilder, aus denen der Generator zieht, aus Menschen mit kleinen Unvollkommenheiten und unterschiedlichen Hautfarben bestehen.

Diese Generatoren erstellen einen “Durchschnitt” von allen, wenn sie ein Bild erstellen, und diese kleinen Unterschiede werden zu einer seltsamen Farbgebung führen.

Haar

Ist das Haar ein wenig ZU perfekt?

Ist das Haar ein wenig ZU perfekt?

Niemand hat perfektes Haar, außer falschen Menschen in KI-generierten Bildern.

Echte Menschen haben fast immer ein paar unregelmäßige Haarsträhnen, Übergänge, die sich nicht festhalten lassen.

Aber in KI-Bildern werden viele dieser kleinen Unvollkommenheiten nicht vorhanden sein, wodurch die Modelle fast zu gut aussehen, um wahr zu sein.

Augen

Andere Störungen können über die Augen kommen.

Brillen sehen manchmal asymmetrisch oder nicht funktional aus.

Die Augen können ausdruckslos aussehen oder in zwei verschiedene Richtungen gerichtet sein.

Ebenso kann das in ihrer Iris reflektierte Licht auf eine Weise seltsam beleuchtet aussehen, die nicht zur Umgebung passt.

Gesicht

Bildgeneratoren erstellen oft unregelmäßige Gesichter, die alle Merkmale eines Menschen aufweisen, aber leicht falsch ausgerichtet sind, sodass sie unheimlich aussehen.

Wie bei den Händen kann die KI die Merkmale eines Gesichts verstehen, nachdem sie Tausende von Bildern davon gescannt hat.

Aber die Maschine erzeugt nur Bilder und versteht nicht ganz, warum die Dinge so aussehen.

Das bedeutet, dass die KI zwar weiß, dass ein Mensch zwei Augen, eine Nase und einen Mund hat, aber die Beziehung zwischen ihnen nicht erkennen kann.

Wenn beispielsweise eine Person zur Seite blickt, dreht das Programm möglicherweise auch die Nase nicht richtig zur Seite, da es nicht erkennt, dass sie sich auf derselben Ebene befinden.

Dies kann zu seltsam aussehenden Gesichtern führen, die das richtige Merkmal haben, aber in leicht abweichenden Winkeln.

Zähne

Zähne werden in Deepfakes nicht immer gut wiedergegeben, manchmal sehen sie eher wie weiße Balken aus, anstatt die üblichen Unregelmäßigkeiten zu zeigen, die wir im Lächeln der Menschen sehen.

Das perlige Weiß ist oft zu perfekt – unglaublich weiß und glatt – oder weist abnormale Unregelmäßigkeiten auf.

Dazu können gehören, dass die Zähne zu lang oder zu kurz sind oder dass eine Person zu viele Zähne im Mund hat.

Veraltete Rede

Viele Betrüger verwenden ChatGPT, um jemandem Nachrichten zu senden, und verwenden den KI-Chatbot, um Antworten zu schreiben.

Dies ist ein Favorit unter ausländischen Betrügern, die selbst vielleicht kein gutes Englisch haben, aber die Plattform nutzen können, um menschenähnliche Texte für sie zu schreiben.

Da ChatGPT jedoch eine Kombination aus Texten aus mehreren Jahrzehnten ist, fühlen sich einige Wörter und Sätze wie eine Explosion aus der Vergangenheit an.

„Wenn Sie befürchten, von einem Kriminellen angegriffen zu werden, der ChatGPT verwendet, sollten Sie auf die Einschränkungen der KI achten“, sagt Thomas Platt – Bot-Spezialist bei Netacea.

„Fragen Sie ihn nach wirklich aktuellen, aktuellen Dingen, wie zum Beispiel dem, was gestern Abend im Fernsehen lief.

„Diese KIs werden anhand historischer Daten trainiert. Wenn Sie also nach der gestrigen Folge von Love Island fragen, wird es sehr schwierig.“

Kurze Sätze und wiederholte Wörter

Während KI sehr überzeugende Formulierungen hervorbringen kann, gibt es immer noch oft Werbegeschenke, sagt Vonny Gamot, Head of EMEA beim Online-Schutzunternehmen McAfee.

Gamot sagt: „Es gibt ein paar verräterische Anzeichen für eine von der KI geschriebene Nachricht. KI verwendet oft kurze Sätze und verwendet dieselben Wörter wieder.

„Bleiben Sie in höchster Alarmbereitschaft und prüfen Sie alle Texte, E-Mails oder Direktnachrichten, die Sie von Fremden erhalten. ‘

Bitten Sie sie, zu beweisen, wer sie sind

Ein klassisches Zeichen für einen Betrüger ist, dass er sein Gesicht vor der Kamera nicht preisgibt oder seine Identität verifiziert, sagt Cheek.

Cheek sagt: „Die Überprüfung der Identität dessen, mit wem Sie online interagieren, sollte der erste Schritt sein. Wenn sie nicht bereit sind, ihr Gesicht zu zeigen, fragen Sie sich warum.“

Überprüfen Sie, wann sie ihr Konto aktiviert haben

Ein Warnzeichen dafür, dass Sie es möglicherweise mit einem KI-fähigen Betrüger zu tun haben, ist das Datum in seinem Social Media- oder Dating-Konto.

Denken Sie darüber nach, wie lange Sie Ihren schon haben – und warum jemand vielleicht erst letzte Woche beigetreten ist.

David Emm vom Cybersicherheitsunternehmen Kaspersky sagt: „Wenn Sie ein Konto entdecken, das gerade erst aktiviert wurde, könnte es sich um eine Fälschung handeln, die versucht, sich unter die Masse zu mischen. Wenn Sie können, überprüfen Sie, wann sie der Plattform beigetreten sind, das ist ganz einfach – das ist oft ein sicheres Zeichen dafür, dass das Konto nur zu dem Zweck erstellt wurde, Sie zu betrügen.

source site

Leave a Reply