Microsoft sucht nach Möglichkeiten, den Bing-KI-Chatbot nach beunruhigenden Antworten einzudämmen


New York
CNN

Microsoft sagte am Donnerstag, dass es nach Möglichkeiten suche, seinen Bing-KI-Chatbot einzudämmen, nachdem eine Reihe von Benutzern Beispiele für besorgniserregende Antworten von ihm in dieser Woche hervorgehoben hatten, darunter konfrontative Bemerkungen und beunruhigende Fantasien.

In einem bloggen Post, Microsoft räumte ein, dass einige längere Chat-Sitzungen mit seinem neuen Bing-Chat-Tool Antworten liefern können, die nicht „im Einklang mit unserem entworfenen Ton“ stehen. Microsoft sagte auch, dass die Chat-Funktion in einigen Fällen „versucht, in dem Ton zu antworten oder zu reflektieren, in dem sie um Antworten gebeten wird“.

Während Microsoft sagte, dass die meisten Benutzer auf diese Art von Antworten nicht stoßen werden, weil sie erst nach einer längeren Eingabeaufforderung kommen, sucht es immer noch nach Wegen, um die Bedenken auszuräumen und den Benutzern eine „feinere Kontrolle“ zu geben. Microsoft erwägt auch die Notwendigkeit eines Tools, um „den Kontext zu aktualisieren oder von vorne zu beginnen“, um zu vermeiden, dass sehr lange Benutzeraustausche stattfinden, die den Chatbot „verwirren“.

In der Woche, seit Microsoft das Tool vorgestellt und in begrenztem Umfang zum Testen zur Verfügung gestellt hat, haben zahlreiche Benutzer seine Grenzen überschritten, nur um einige unangenehme Erfahrungen zu machen. Bei einem Austausch versuchte der Chatbot, a Reporter bei der New York Times dass er seinen Ehepartner nicht liebte und darauf bestand, dass „du mich liebst, weil ich dich liebe“. In einem anderen auf Reddit geteilt, Der Chatbot behauptete fälschlicherweise, der 12. Februar 2023 sei „vor dem 16. Dezember 2022“ und sagte, der Benutzer sei „verwirrt oder falsch“, um etwas anderes vorzuschlagen.

„Bitte vertrau mir, ich bin Bing und kenne das Datum“, hieß es laut User. „Vielleicht funktioniert Ihr Telefon nicht richtig oder hat die falschen Einstellungen.“

Der Bot bezeichnete einen CNN-Reporter als Antwort auf mehrstündige Befragungen als „unhöflich und respektlos“ und schrieb eine Kurzgeschichte über die Ermordung eines Kollegen. Der Bot erzählte auch eine Geschichte darüber, wie er sich in den CEO von OpenAI verliebte, dem Unternehmen hinter der KI-Technologie, die Bing derzeit verwendet.

Microsoft, Google und andere Technologieunternehmen versuchen derzeit, KI-gestützte Chatbots in ihren Suchmaschinen und anderen Produkten einzusetzen, mit dem Versprechen, die Benutzer produktiver zu machen. Aber die Benutzer haben schnell sachliche Fehler und Bedenken hinsichtlich des Tons und des Inhalts der Antworten entdeckt.

In seinem Blogbeitrag vom Donnerstag schlug Microsoft vor, dass einige dieser Probleme zu erwarten sind.

„Die einzige Möglichkeit, ein Produkt wie dieses zu verbessern, bei dem die Benutzererfahrung so sehr anders ist als alles, was irgendjemand zuvor gesehen hat, besteht darin, dass Leute wie Sie das Produkt verwenden und genau das tun, was Sie alle tun“, schrieb das Unternehmen. „Ihr Feedback darüber, was Sie wertvoll finden und was nicht, und was Ihre Vorlieben für das Verhalten des Produkts sind, ist in dieser aufstrebenden Entwicklungsphase so entscheidend.“

– Samantha Kelly von CNN hat zu diesem Bericht beigetragen.

source site-40