Nå må flyselskapet Air Canada punge ut etter chatboten fortalte feil informasjon til kunden.
Nå må flyselskapet Air Canada punge ut etter chatboten fortalte feil informasjon til kunden.

AI Chatbot løy: – Må betale tusenvis av kroner til kunden

Flyselskapet mente chatboten selv skulle stå ansvarlig for feilinformasjonen den kom med. 

Flypassasjer Jake Moffatt vant nylig mot Air Canada i retten, etter flere måneders kamp for å få refusjonen chatboten hevdet at han kunne be om.

Chatboten «ansvarlig for egne handlinger»

Etter at bestemoren til Jake Moffatt døde i Ontario, besøkte han Air Canadas nettsted for å bestille en flyreise til begravelsen.

Han fikk hjelp fra en chatbot, som fortalte at flyselskapet tilbød reduserte priser for passasjerer som bestilte reise i siste øyeblikk på grunn av tragedier.

Moffatt kjøpte en billett på nesten 600 dollar for en flytur neste dag etter at chatboten sa at han ville få noen av pengene sine tilbake i henhold til flyselskapets dødsfallspolicy – så lenge han søkte innen 90 dager.

Burde ikke stolt på chatboten

Men da Moffatt senere forsøkte å motta rabatten, fikk han vite at chatboten hadde tatt feil. Air Canada tildelte bare sorggebyrer hvis forespørselen var sendt inn før en flytur.

Air Canada hevdet Moffatt ikke burde stolt på chatboten og at han burde sjekket nettsiden den lenket til, i følge kjennelsen.

Flyselskapet hevdet også at chatboten var en egen juridisk enhet og «ansvarlig for sine egne handlinger,».

Flyselskapet må punge ut

Moffatt sendte inn et krav til den kanadiske domstolen, som forrige onsdag avgjorde at Air Canada skyldte penger etter å ha unnlatt å yte «rimelig omsorg».

Moffatt får refundert rabatten på rundt 651 canadiske dollar av de 1.630 dollarene han betalte for tur/retur-billetten. I tillegg kommer renter og omkostninger, som gjør at han totalt er tilkjent 812 canadiske dollar.

Ettersom selskaper har lagt til kunstig intelligens-drevne chatbots til nettsidene sine i håp om å gi raskere service, kaster Air Canada-tvisten lys på spørsmål knyttet til den voksende teknologien og hvordan domstoler kan nærme seg spørsmål om ansvarlighet.

Det spiller ingen rolle om informasjonen kommer fra en statisk side eller en chatbot

Den kanadiske domstolen var i denne saken enig med kunden, og slo fast at Air Canada ikke sikret at chatboten var nøyaktig.

– Selv om en chatbot har en interaktiv komponent, er den fortsatt bare en del av Air Canadas nettsted, skrev tribunalmedlem Christopher Rivers i sin avgjørelse.

I fremtiden: – Forsikringskrav blir ikke behandlet av mennesker

– Det burde være åpenbart for Air Canada at det er ansvarlig for all informasjon på nettsiden deres. Det spiller ingen rolle om informasjonen kommer fra en statisk side eller en chatbot, legger de til.

Air Canada sier de godtar avgjørelsen og anser saken som avsluttet.

Chatboten er nå tilsynelatende fjernet fra Air Canadas nettsider.