Snapchat-Nutzer geraten in Panik, wenn der Chatbot „My AI“ eine Video-Story postet

Anfang des Jahres brachte Snapchat seinen eigenen Konversations-Chatbot auf den Markt, der von ChatGBT unterstützt wird. Damals warnte Snapchat seine Abonnenten, dass sein My AI-Chatbot, wie alle KI-Chatbots, dazu neigt, aufgrund von „Halluzinationen“ falsche Antworten zu geben. Snapchat teilte den Nutzern mit: „Obwohl My AI darauf ausgelegt ist, voreingenommene, falsche, schädliche oder irreführende Informationen zu vermeiden, können Fehler auftreten.“ […] Wie alle KI-gestützten Chatbots neigt My AI zu Halluzinationen und kann dazu verleitet werden, so gut wie alles zu sagen.“

Snapchat fuhr fort: „Bitte seien Sie sich der vielen Mängel bewusst und entschuldigen Sie sich im Voraus! Alle Gespräche mit My AI werden wiederhergestellt und können überprüft werden, um das Produkterlebnis zu verbessern. Bitte teilen Sie keine Geheimnisse mit My AI und verlassen Sie sich nicht darauf.“ um Rat.“
CNN berichtete Anfang dieser Woche, dass Snapchat-Benutzer am Dienstagabend in Panik gerieten, nachdem My AI anfing, sich seltsam zu verhalten. Normalerweise beantwortet My AI Fragen und führt Gespräche mit Snapchat-Benutzern. Aber am Dienstagabend tat die Funktion „Meine KI“ ungewöhnliche Dinge, die Snapchat-Benutzer beunruhigten, die dachten, der Chatbot sei empfindungsfähig geworden. Unter diesen Aktionen veröffentlichte My AI eine Videogeschichte über eine Wand und eine Decke; Normalerweise können nur Menschen eine Videogeschichte erstellen.

In den sozialen Medien schrieb ein Snapchat-Nutzer: „Warum hat My AI ein Video von der Wand und Decke in ihrem Haus als Geschichte?“ Ein anderer sagte: „Das ist sehr seltsam und ehrlich gesagt beunruhigend.“ Snapchat erklärte schließlich, dass die Funktion „Meine KI“ nicht verbessert wurde und dass die verdächtigen und unheimlichen Fotos, die als Story in der App gepostet wurden, lediglich auf einen Fehler zurückzuführen seien. Ein Snapchat-Sprecher sagte: „Bei meiner KI kam es zu einem vorübergehenden Ausfall, der jetzt behoben ist.“

Mit der Snapchat-Version von ChatGPT können Benutzer einen Namen für den Chatbot auswählen, ein benutzerdefiniertes Bitmoji dafür entwerfen und den Zugriff auf „Meine KI“ mit Freunden teilen. Das Ergebnis ist, dass sich das Chatten mit My AI eher wie ein Gespräch mit einem Freund anfühlt als mit einem KI-Chatbot. Aber Benutzer beschweren sich über Datenschutzbedenken, „gruseligen Austausch“ und die Unmöglichkeit, den Chatbot aus ihren Feeds zu entfernen, es sei denn, sie zahlen für ein Premium-Abonnement.

Nach Dienstagabend könnten sich verängstigte Snapchat-Nutzer mehr Sorgen um „Meine KI“ machen und ihre Ängste lauter äußern.


source site-33