Anfang des Jahres brachte Snapchat seinen eigenen Konversations-Chatbot auf den Markt, der von ChatGBT unterstützt wird. Damals warnte Snapchat seine Abonnenten, dass sein My AI-Chatbot, wie alle KI-Chatbots, dazu neigt, aufgrund von „Halluzinationen“ falsche Antworten zu geben. Snapchat teilte den Nutzern mit: „Obwohl My AI darauf ausgelegt ist, voreingenommene, falsche, schädliche oder irreführende Informationen zu vermeiden, können Fehler auftreten.“ […] Wie alle KI-gestützten Chatbots neigt My AI zu Halluzinationen und kann dazu verleitet werden, so gut wie alles zu sagen.“
Hat Snapchat Ai gerade ein Bild meiner Wand/Decke zu seiner Snapchat-Story hinzugefügt?
Snapchat AI – Links
Meine Wand/Decke – Richtig pic.twitter.com/bh8I3Aiwun
— Matt Esparza (@matthewesp) 16. August 2023
In den sozialen Medien schrieb ein Snapchat-Nutzer: „Warum hat My AI ein Video von der Wand und Decke in ihrem Haus als Geschichte?“ Ein anderer sagte: „Das ist sehr seltsam und ehrlich gesagt beunruhigend.“ Snapchat erklärte schließlich, dass die Funktion „Meine KI“ nicht verbessert wurde und dass die verdächtigen und unheimlichen Fotos, die als Story in der App gepostet wurden, lediglich auf einen Fehler zurückzuführen seien. Ein Snapchat-Sprecher sagte: „Bei meiner KI kam es zu einem vorübergehenden Ausfall, der jetzt behoben ist.“
Mit der Snapchat-Version von ChatGPT können Benutzer einen Namen für den Chatbot auswählen, ein benutzerdefiniertes Bitmoji dafür entwerfen und den Zugriff auf „Meine KI“ mit Freunden teilen. Das Ergebnis ist, dass sich das Chatten mit My AI eher wie ein Gespräch mit einem Freund anfühlt als mit einem KI-Chatbot. Aber Benutzer beschweren sich über Datenschutzbedenken, „gruseligen Austausch“ und die Unmöglichkeit, den Chatbot aus ihren Feeds zu entfernen, es sei denn, sie zahlen für ein Premium-Abonnement.