Produkte

Falsche Info von Airline-Chatbot führte zu teurem Ticket

Chatbots ersetzen zunehmend persönlichen Kund*innendienst bei verschiedenen Unternehmen. Ihren Job machen sie dabei nicht immer optimal. So machte etwa eine Geschichte die Runde, wonach ein Chatbot eines Autohändlers Neuwagen um einen Dollar verkauft hatte

Weniger kundenfreundlich verhielt sich nun ein KI-Assistent von Air Canada. Hintergrund ist eine Art Trauer-Tarif. Die Airline bietet ihn für Reisen an, die stattfinden, weil Verwandte gestorben sind. 

Vorfall

Diese Aktion wollte Jake Moffatt nutzen, nachdem seine Großmutter verstorben war. Um Informationen zu dem Ablauf zu bekommen, kontaktierte er den Chatbot der Airline. Jener riet ihm, das Flugticket zu buchen und dann nachträglich einen Antrag für den “Trauer-Tarif” zu stellen. 

Der Ratschlag stellte sich als falsch heraus. Man darf das Ticket nicht vorab buchen, sondern muss direkt beim Kauf die Aktion in Anspruch nehmen. Das steht an anderer Stelle der Air-Canada-Webseite, der Chatbot hatte einfach die falsche Information ausgespuckt. 

Moffatt blieb auf den unnötig bezahlten Mehrkosten für das Ticket, immerhin umgerechnet über 600 Euro, sitzen. Air Canada zufolge könne das Unternehmen nicht für die falsche Information des Chatbots haftbar gemacht werden.

Ein Zivilgericht entschied nun allerdings zugunsten des Kunden. Davon berichtet CBC. Wie aus dem Urteil hervorgeht, ist Air Canada sehr wohl dafür verantwortlich, was der Chatbot rät. Aus diesem Grund muss die Airline die Preisdifferenz nachträglich an Moffat bezahlen.

Zukunftsaussichten

Aufgrund der Zunahme an Chatbot-Kund*innendiensten dürfte sich die Frage, wer für falsche Ratschläge haftet, künftig noch öfter stellen. Für Kanada stellt diese Entscheidung jedenfalls eine der ersten in der Rechtsgeschichte dar. 

Klicken Sie hier für die Newsletteranmeldung

Hat dir der Artikel gefallen? Jetzt teilen!