Nachdem sein Chatbot halluziniert und lügt, wird Air Canada verklagt und verliert den Fall

Wenn ein Chatbot Sie anlügt, ist es nicht seine Schuld – dafür ist das Unternehmen verantwortlich, das ihn „eingesetzt“ hat. Also lassen Sie den armen Chatbot etwas lockerer (aber verfolgen Sie seinen Arbeitgeber und gehen Sie bei Bedarf vor Gericht)!

Vor ein paar Jahren sprach ein Mann namens Jake Moffatt mit dem Chatbot von Air Canada, erhielt jedoch äußerst unwahre und frustrierende Informationen, die ihn Geld und Zeit kosteten. Er hat die Angelegenheit vor Gericht gebracht, und nun fällt das Urteil zu seinen Gunsten aus (via Zerstampbar).

Die Geschichte dreht sich um Moffatt, der Informationen darüber erhalten wollte, wie er sich für eine Last-Minute-Reise zu einer Beerdigung qualifizieren kann. Der Chatbot von Air Canada erklärte weiter, dass der Kunde rückwirkend eine Rückerstattung der Differenz zwischen einem regulären Ticketpreis und einem Trauerflugpreis beantragen könne, sofern dies innerhalb von 90 Tagen nach dem Kauf erfolgt.

Später erfuhr Moffatt jedoch, dass dies völlig unwahr ist und im Gegensatz dazu die tatsächliche Richtlinie der Fluggesellschaft auf ihrer Website ist: „Die Trauerreiserichtlinie von Air Canada bietet eine Option für unsere Kunden, die aufgrund des bevorstehenden Todes oder Todes eines Menschen reisen müssen.“ unmittelbares Familienmitglied. Bitte beachten Sie, dass unsere Trauerfallrichtlinie keine Rückerstattung für bereits stattgefundene Reisen zulässt.“

Als Air Canada sich weigerte, die von ihrem Chatbot versprochene Erstattung zu leisten, verklagte Moffatt das Unternehmen. Die Fluggesellschaft versuchte zu argumentieren, dass sie nicht für die „irreführenden Worte“ ihres Chatbots verantwortlich sei und dass der Chatbot eine „separate juristische Person“ sei, die für ihre eigenen Handlungen verantwortlich gemacht werden sollte, und behauptete, die Fluggesellschaft sei auch nicht für die von ihr bereitgestellten Informationen verantwortlich „Agenten, Bedienstete oder Vertreter – einschließlich eines Chatbots“.

Netter Versuch.

„Obwohl ein Chatbot über eine interaktive Komponente verfügt, ist er dennoch nur ein Teil der Website von Air Canada“, antwortete ein Mitglied des kanadischen Tribunals. „Für Air Canada sollte klar sein, dass sie für alle Informationen auf ihrer Website verantwortlich ist. Dabei spielt es keine Rolle, ob die Informationen von einer statischen Seite oder einem Chatbot stammen.“

Bedeutet das, dass, wenn man den Chatbot eines bestimmten Unternehmens dazu bringt, falsche Informationen preiszugeben, dies zu leichtem Geld aus einer Klage führen kann? Es liegen interessante Zeiten vor uns.

source site-33