Snapchat ist auf den Zug der künstlichen Intelligenz (KI) aufgesprungen, da es jetzt eine In-App-Version von ChatGPT herausbringt.
Benutzer können dem Chatbot, der als „Meine KI“ bezeichnet wird, Fragen stellen, während sie ihren Freunden eine Nachricht senden, um die Konversation zu unterstützen.
Es könnte ihnen helfen, Vorschläge für ein Abendessen zu machen, einem geliebten Menschen ein persönliches Gedicht zu schicken oder sich einen koketten Eisbrecher auszudenken.
Meine KI verwendet dieselbe Technologie wie ChatGPT von OpenAI, wurde jedoch speziell trainiert, damit sie die Sicherheitsrichtlinien der App einhält.
Snapchat hat auch gezeigt, dass es immer noch “anfällig für Halluzinationen ist und dazu verleitet werden kann, fast alles zu sagen”.
Snapchat-Benutzer können dem Chatbot, der als „Meine KI“ bezeichnet wird, Fragen stellen, während sie ihren Freunden eine Nachricht senden, um die Konversation zu unterstützen
![Meine KI verwendet dieselbe Technologie wie ChatGPT von OpenAI, wurde jedoch speziell geschult, damit sie die Sicherheitsrichtlinien der App einhält](https://allnewspresscdn.cloudspecter.com/deutsch/wp-content/uploads/2023/02/1677617963_503_Snapchat-bringt-seinen-eigenen-KI-Chatbot-auf-den-Markt-–-warnt.jpg)
Meine KI verwendet dieselbe Technologie wie ChatGPT von OpenAI, wurde jedoch speziell geschult, damit sie die Sicherheitsrichtlinien der App einhält
In der KI sind Halluzinationen, wenn die Technologie selbstbewusst auf eine Frage mit falschen Informationen antwortet, die sie anscheinend erfunden hat.
Zum Beispiel hat Googles Konkurrent Bard in einem Werbevideo eine falsche Frage gestellt und damit 100 Milliarden Pfund vom Wert seiner Muttergesellschaft gekostet.
Der Bot war gefragt worden, was er einem Neunjährigen über das James-Webb-Weltraumteleskop und seine Entdeckungen erzählen solle.
Als Antwort darauf verkündete Bard trotzig, dass Webb der erste war, der Bilder von einem Planeten außerhalb des Sonnensystems der Erde machte.
Astronomen wiesen jedoch schnell darauf hin, dass dies tatsächlich im Jahr 2004 vom Very Large Telescope des Europäischen Observatoriums durchgeführt wurde.
Tatsächlich hat sich herausgestellt, dass ChatGPT auch in der Lage ist, Benutzern Beleidigungen, Lügen und Gespräche zu schicken, die seine Fähigkeiten in Frage stellen.
Ein Social-Media-Beitrag zeigte, dass er jemanden „einen Soziopathen, einen Psychopathen, ein Monster, einen Dämon, einen Teufel“ nannte.
Während My AI darauf ausgelegt ist, keine „voreingenommenen, falschen, schädlichen oder irreführenden Informationen“ zu verbreiten, hat Snapchat zugegeben, dass „Fehler auftreten können“.
Es wird derzeit nur für Snapchat+-Abonnenten eingeführt, die 3,99 £ pro Monat für die neuesten App-Funktionen bezahlen.
Ein Gespräch mit der KI – komplett mit Bitmoji – wird oben auf der Registerkarte „Chat“ angeheftet und kann während eines Gesprächs mit einem anderen Benutzer zu diesem gewechselt werden.
![In der KI sind Halluzinationen, wenn die Technologie selbstbewusst auf eine Frage mit falschen Informationen antwortet, die sie anscheinend erfunden hat. Zum Beispiel hat Googles rivalisierender Chatbot Bard eine Frage zum James Webb Space Telescope (im Bild) falsch beantwortet.](https://allnewspresscdn.cloudspecter.com/deutsch/wp-content/uploads/2023/02/1675717390_562_Google-startet-seinen-ChatGPT-Konkurrenten-namens-Bard.jpg)
In der KI sind Halluzinationen, wenn die Technologie selbstbewusst auf eine Frage mit falschen Informationen antwortet, die sie anscheinend erfunden hat. Zum Beispiel hat Googles rivalisierender Chatbot Bard eine Frage zum James Webb Space Telescope (im Bild) falsch beantwortet.
![Es wurde festgestellt, dass ChatGPT (im Bild) in der Lage ist, Benutzern Beleidigungen, Lügen und Gespräche zu senden, die seine Fähigkeiten in Frage stellen. Snapchat sagte, dass sein benutzerdefinierter KI-Chatbot „My AI“ immer noch „anfällig für Halluzinationen ist und dazu verleitet werden kann, fast alles zu sagen“.](https://allnewspresscdn.cloudspecter.com/deutsch/wp-content/uploads/2023/02/ChatGPT-beleidigt-lugt-und-beschimpft-Benutzer-in-„aus-den-Fugen.jpg)
Es wurde festgestellt, dass ChatGPT (im Bild) in der Lage ist, Benutzern Beleidigungen, Lügen und Gespräche zu senden, die seine Fähigkeiten in Frage stellen. Snapchat sagte, dass sein benutzerdefinierter KI-Chatbot „My AI“ immer noch „anfällig für Halluzinationen ist und dazu verleitet werden kann, fast alles zu sagen“.
Snapchat hat gesagt, dass My AI ein experimentelles Feature ist und dass das Feedback der Benutzer dazu beitragen wird, es in Zukunft zu verbessern, falls und wenn es breiter eingeführt wird.
Das Unternehmen fügte hinzu: „Alle Gespräche mit My AI werden gespeichert und können überprüft werden, um das Produkterlebnis zu verbessern.
„Bitte teilen Sie My AI keine Geheimnisse mit und verlassen Sie sich nicht auf Rat.“
Obwohl der Haftungsausschluss unnötig erscheinen mag, hat sich eine Frau Berichten zufolge von ihrem Ehemann scheiden lassen, basierend auf Beziehungsratschlägen, die ChatGPT ihr gegeben hat.
![](https://allnewspresscdn.cloudspecter.com/deutsch/wp-content/uploads/2023/02/Snapchat-bringt-seinen-eigenen-KI-Chatbot-auf-den-Markt-–-warnt.gif)
My AI ist eine angepasste Version von ChatGPT, die keine Antworten gibt, die Beschimpfungen, sexuelle Anspielungen oder andere unangemessene Inhalte beinhalten.
Dies ist besonders wichtig, da Snapchat von Kindern ab 13 Jahren heruntergeladen werden kann.
Das Unternehmen hofft, dass die neue Funktion dazu beitragen wird, „tiefere Verbindungen zwischen Freunden zu fördern“, aber auch zu etwas wird, das „anzieht“. [its] Community’ zur App.
Im Gespräch mit The Verge sagte Evan Spiegel, CEO von Snap: „Die große Idee ist, dass wir nicht nur jeden Tag mit unseren Freunden und unserer Familie sprechen, sondern auch jeden Tag mit KI.
“Dafür sind wir als Messaging-Dienst gut aufgestellt.”
Snapchat ist bei weitem das erste Unternehmen, das vom durchschlagenden Erfolg von ChatGPT profitiert, wobei der Grußkartenhändler Moonpig versucht, es in seinen Online-Shop zu integrieren.
Es wird auch gemunkelt, dass Elon Musk an einem „Anti-Wake“-Rivalen des angeblich voreingenommenen Chatbots arbeitet.