Air Canada dovrà risarcire un cliente che aveva ricevuto informazioni fuorvianti da un chatbot
Dopo che inizialmente aveva cercato di non assumersi la responsabilità delle informazioni fornite dall'assistente virtuale
Air Canada, la principale compagnia aerea canadese, dovrà risarcire un cliente che aveva ricevuto informazioni ingannevoli da un chatbot dell’azienda, sulla base delle quali aveva acquistato un biglietto aereo a prezzo pieno invece che a prezzo scontato.
Air Canada offre tariffe scontate per le persone che devono andare al funerale di un parente stretto o ad assisterlo in caso sia morente. Nel 2022 Jake Moffatt si trovava in questa situazione, e aveva quindi contattato la compagnia per capire quali documenti servissero per richiedere quella tariffa, e per sapere se lo sconto potesse essere eventualmente erogato come rimborso a posteriori. Per ottenere queste informazioni aveva interagito con un chatbot, un assistente virtuale di quelli ormai piuttosto comuni sui siti di molti fornitori di servizi.
Il chatbot aveva risposto che Moffat avrebbe potuto ottenere quello sconto compilando un modulo online con la richiesta di rimborso “entro 90 giorni dalla data di emissione del biglietto”. Moffatt, che doveva andare al funerale di un familiare, aveva quindi comprato un biglietto andata e ritorno da Vancouver a Toronto a tariffa piena, nella convinzione che sarebbe stato rimborsato successivamente.
Quando aveva fatto richiesta di rimborso, però, un impiegato di Air Canada gli aveva risposto che gli sconti per lutto non sono applicabili ai viaggi già avvenuti, citando le condizioni elencate nella sezione dedicata sul sito della compagnia. L’impiegato aveva sostenuto anche che Air Canada non fosse responsabile delle informazioni fornite dal chatbot.
Moffat, che aveva salvato la sua conversazione con il chatbot, aveva quindi fatto causa ad Air Canada per ottenere il risarcimento della differenza tra le tariffe. Il suo caso ha acquisito una piccola notorietà non solo per la relativa novità dell’oggetto di discussione, ma proprio perché Air Canada, pur ammettendo l’errore, aveva provato a sostenere di non essere responsabile delle informazioni fornite dal proprio chatbot, di fatto suggerendo che si trattasse di un’entità legale separata.
Il tribunale per le risoluzioni civili della provincia canadese della British Columbia ha infine stabilito che la compagnia è responsabile di tutte le informazioni che si trovano sul suo sito, sia quelle che si trovano sulle pagine statiche sia quelle fornite dal chatbot, e che Moffatt non era tenuto a ritenere la sezione del sito dedicata alle tariffe scontate più affidabile delle informazioni ricevute dal chatbot. Air Canada dovrà quindi risarcirlo della differenza tra le due tariffe.