Przejdź do treści
Embraer 190 należący do linii Air Canada
Źródło artykułu

Linia Air Canada przegrała w sądzie bo chatbot wprowadził pasażera w błąd

Linie lotnicze Air Canada przegrały w sądzie po tym, jak chatbot wprowadził w błąd pasażera, który w konsekwencji złożył pozew. Przewoźnik bronił się, że odpowiedzialność ponosi sam chatbot, ale z takim argumentem nie zgodził się sąd. Teraz linia lotnicza musi zwrócić pieniądze klientowi, któremu przekazano nieprawidłowe informacje na temat zniżki na bilet lotniczy.

Zdarzenie miało miejsce w 2022 r. Pasażer Jake Moffatt skontaktował się z Air Canada, ale nie rozmawiał z pracownikiem tylko z chatbotem. Od niego uzyskał informacje o tym, jak zakwalifikować się zniżkę na bilet dla żałobników na organizowany w ostatniej chwili wyjazd na pogrzeb. Chatbot wyjaśnił, że Moffat może wstecznie ubiegać się o zwrot różnicy między kosztem standardowego biletu, a takiego kupionego na wypadek żałoby, pod warunkiem, że nastąpi to w ciągu 90 dni od dnia zakupu. Ale okazało się, że linia lotnicza nie ma w ofercie takiej zniżki.  

Według strony internetowej Air Canada, zasady dotyczące żałoby nie pozwalają na zwrot kosztów podróży, która już się odbyła. W momencie, gdy przewoźnik odmówił zwrotu kosztów z powodu wpadki spowodowanej dezinformacją, Moffat pozwał go do sądu. Argument Air Canada przeciwko uznaniu swojej winy obejmował stwierdzenie, że linia nie ponosi odpowiedzialności za „wprowadzające w błąd słowa” jej chatbota.

Przewoźnik podkreślał również, że chatbot był „odrębnym podmiotem prawnym”, który powinien odpowiadać za własne działania i twierdził, że nie ponosi również odpowiedzialności za informacje podawane przez „agentów, pracowników lub przedstawicieli – w tym chatbota”. Cokolwiek to znaczy.

„Chociaż chatbot ma element interaktywny, nadal stanowi część strony internetowej Air Canada” – odpowiedział członek kanadyjskiego trybunału. „Dla linii Air Canada powinno być oczywiste, że jest ona odpowiedzialna za wszystkie informacje zawarte na swojej stronie internetowej. Nie ma znaczenia, czy informacje pochodzą ze strony statycznej, czy też z chatbota”.

Decyzja kanadyjskiego sądu jest pierwszą tego typu sprawą i może mieć konsekwencje dla innych firm, które dodają do swojej obsługi klienta „agentów” wykorzystujących sztuczną inteligencję lub uczenie maszynowe.
 

FacebookTwitterWykop
Źródło artykułu

Nasze strony