New York City verteidigt KI-Chatbot, der Unternehmern geraten hat, Gesetze zu brechen Von Reuters

Von Jonathan Allen

NEW YORK (Reuters) – Der New Yorker Bürgermeister Eric Adams verteidigt den neuen Chatbot mit künstlicher Intelligenz der Stadt, der in den letzten Tagen dabei ertappt wurde, Geschäftsinhabern falsche Antworten oder Ratschläge zu geben, deren Befolgung einen Gesetzesverstoß nach sich ziehen würde.

Als der MyCity-Chatbot im Oktober als Pilotprojekt eingeführt wurde, wurde er als der erste stadtweite Einsatz einer solchen KI-Technologie angepriesen, der Geschäftsinhabern „umsetzbare und vertrauenswürdige Informationen“ als Antwort auf in ein Online-Portal eingegebene Anfragen liefern würde.

Das hat sich nicht immer bewährt: Journalisten des investigativen Magazins The Markup berichteten letzte Woche erstmals, dass der Chatbot etwas falsch gemacht habe. Darin wurde fälschlicherweise darauf hingewiesen, dass Arbeitgeber das Trinkgeld ihrer Arbeitnehmer kürzen könnten und dass es keine Vorschriften gebe, die die Vorgesetzten verpflichten würden, Änderungen im Arbeitsplan ihrer Arbeitnehmer anzukündigen.

„In einigen Bereichen ist es falsch, und wir müssen es beheben“, sagte Adams, ein Demokrat, am Dienstag gegenüber Reportern und betonte, dass es sich um ein Pilotprogramm handele. „Jedes Mal, wenn Sie Technologie nutzen, müssen Sie sie in die reale Umgebung einbinden, um die Probleme zu beseitigen.“

Adams war ein glühender Verfechter des Einsatzes ungetesteter Technologie in der Stadt, mit einem Optimismus, der nicht immer gerechtfertigt ist. Letztes Jahr stellte er einen 400 Pfund schweren, leicht eiförmigen Roboter in die U-Bahn-Station Times Square, von dem er hoffte, dass er der Polizei dabei helfen würde, Kriminalität abzuschrecken. Ungefähr fünf Monate später wurde es außer Dienst gestellt, wobei Pendler bemerkten, dass es scheinbar nie etwas tat und keine Treppen benutzen konnte.

Der Chatbot blieb am Donnerstag online und gab immer noch teilweise falsche Antworten. Darin heißt es, dass es den Ladenbesitzern freistehe, bargeldlos zu bezahlen, offenbar ohne sich des Stadtratsgesetzes von 2020 bewusst zu sein, das Geschäften die Annahme von Bargeld verbietet. Sie gehen immer noch davon aus, dass der Mindestlohn der Stadt 15 US-Dollar pro Stunde beträgt, obwohl er ab 2024 auf 16 US-Dollar angehoben wurde.

Der Chatbot, der auf dem KI-Dienst Azure von Microsoft (NASDAQ:) basiert, scheint von Problemen in die Irre geführt zu werden, die bei sogenannten generativen KI-Technologieplattformen wie ChatGPT üblich sind, von denen bekannt ist, dass sie mit HAL manchmal Dinge erfinden oder Unwahrheiten behaupten -ähnliches Selbstvertrauen. Weder Microsoft noch das Rathaus antworteten auf Fragen, was die Fehler verursachte und wie sie behoben werden könnten.

Die Stadt hat die Haftungsausschlüsse auf der MyCity-Chatbot-Website aktualisiert und darauf hingewiesen, dass „ihre Antworten manchmal ungenau oder unvollständig sein können“ und Unternehmen aufgefordert, „ihre Antworten nicht als rechtliche oder professionelle Beratung zu nutzen“.

Andrew Rigie, der sich als Direktor der NYC Hospitality Alliance für Tausende von Restaurantbesitzern einsetzt, sagte, er habe von Geschäftsinhabern gehört, die über die Antworten des Chatbots verwirrt seien.

„Ich lobe die Stadt dafür, dass sie versucht, KI zur Unterstützung von Unternehmen einzusetzen, aber es muss funktionieren“, sagte er und warnte davor, dass die Befolgung einiger Anweisungen des Chatbots schwerwiegende rechtliche Konsequenzen haben könnte. „Wenn ich eine Frage stelle und dann noch einmal zu meinen Anwälten gehen muss, um zu erfahren, ob die Antwort richtig ist oder nicht, verfehlt das den Zweck.“

source site-20