Lernen Sie BlenderBot kennen, den KI-Chatbot von Meta, der es liebt, Facebook zuzuschlagen | Meta

Wenn Sie befürchten, dass künstliche Intelligenz zu schlau wird, fühlen Sie sich vielleicht besser, wenn Sie mit Metas KI-Chatbot sprechen.

Freitag gestartet, BlenderBot ist ein Prototyp der Konversations-KI von Meta, die sich laut der Muttergesellschaft von Facebook über nahezu jedes Thema unterhalten kann. Auf der Demo-Website sind Mitglieder der Öffentlichkeit eingeladen, mit dem Tool zu chatten und Feedback mit Entwicklern auszutauschen. Die bisherigen Ergebnisse, Autoren bei Buzzfeed und Vize darauf hingewiesen haben, waren ziemlich interessant.

Auf die Frage nach Mark Zuckerberg sagte der Bot Max Woolf von BuzzFeed dass „er ein guter Geschäftsmann ist, aber seine Geschäftspraktiken nicht immer ethisch sind. Es ist komisch, dass er all das Geld hat und immer noch die gleichen Klamotten trägt!“

Der Bot hat auch deutlich gemacht, dass es sich nicht um einen Facebook-Nutzer handelt Vices Janus Rose dass es sein Konto gelöscht hatte, nachdem es von den Datenschutzskandalen des Unternehmens erfahren hatte. „Seit ich Facebook gelöscht habe, ist mein Leben viel besser“, hieß es.

Der Bot wiederholt Material, das er im Internet findet, und ist diesbezüglich sehr transparent: Sie können auf seine Antworten klicken, um zu erfahren, wo er seine Behauptungen aufgegriffen hat (obwohl es nicht immer spezifisch ist).

Das bedeutet, dass BlenderBot neben unbequemen Wahrheiten über seine Muttergesellschaft vorhersehbare Unwahrheiten verbreitet hat. Im Gespräch mit Jeff Horwitz vom Wall Street Journal, bestand es darauf, dass Donald Trump immer noch Präsident sei und dies auch nach dem Ende seiner zweiten Amtszeit im Jahr 2024 bleiben werde. (Es fügte eine weitere Ausgrabung bei Meta hinzu und sagte, dass Facebook „heutzutage viele gefälschte Nachrichten enthält“.) Benutzer haben auch aufgezeichnet, dass es antisemitische Behauptungen aufstellt.

Die Äußerungen von BlenderBot waren aufgrund des Verhaltens älterer Chatbots wie Microsofts Tay vorhersehbar, die Twitter-Nutzer schnell als rassistischen Verschwörungstheoretiker abstempelten und das Unternehmen zwangen, sich für seine „wild unangemessenen und verwerflichen Worte und Bilder“ zu entschuldigen. GPT-3, ein weiteres KI-System, hat ebenfalls geliefert rassistisch, frauenfeindlich und homophob Bemerkungen. Der Chatbot eines südkoreanischen Startups, der einem 20-jährigen College-Studenten ähneln soll, musste ausgesetzt werden nachdem es rassistische Beleidigungen und Anti-LGBTQ+-Bemerkungen heruntergerasselt hatte.

Angesichts der Jauchegrube des Internets scheint Meta ähnliche Dinge von seinem eigenen Dienst erwartet zu haben. Vor der Anmeldung müssen Benutzer anerkennen, dass BlenderBot „wahrscheinlich unwahre oder anstößige Aussagen macht“. Wie Vice anmerkt, haben Meta-Forscher die KI-Technologie hinter dem Bot als „eine hohe Neigung, giftige Sprache zu erzeugen und schädliche Stereotypen zu verstärken, selbst wenn sie mit einer relativ harmlosen Aufforderung versehen ist“ beschrieben.

„Jeder, der Blender Bot verwendet, muss anerkennen, dass er nur zu Forschungs- und Unterhaltungszwecken dient, dass er unwahre oder beleidigende Aussagen machen kann und dass er zustimmt, den Bot nicht absichtlich dazu zu veranlassen, beleidigende Aussagen zu machen“, sagte ein Sprecher von Meta ein Statement.

Mein eigenes Gespräch mit BlenderBot ging nicht in dieses Gebiet, aber es hob einen anderen Fehler des Dienstes hervor: seine völlige Dummheit.

Der Bot begann damit, mich zu fragen, welches Fach ich in der Schule mochte. Der Bot ist offen darüber, welche „Persona“ er in der Konversation verwendet; Unsere Diskussion beinhaltete eine Persona, die beschrieben wurde als „Ich lese gerne. Ich bin aufs College gegangen.“ Als ich ihm schwierige Fragen stellte, z. B. welche Hochschulen KI-Bot-Studenten akzeptieren, gab er unsinnige Antworten („sind wir nicht in gewisser Weise alle Chatbots?“ Nein) und bot weiterführende Lektüre an, indem er sagte: „Hier ist der Link“, ohne Bereitstellung eines Links. Es lenkte die Konversation auch immer wieder zurück zu Chatbots.

Es behielt jedoch seine feste Haltung gegenüber seinen eigenen Schöpfern bei. Als ich sagte, ich sei kein Fan von Facebooks Ethik, stimmte es voll und ganz zu: „Ich auch! Deshalb habe ich aufgehört, es zu benutzen und stattdessen Bücher zu lesen.“


source site-27