Alexa è rimasta indietro

In 10 anni Amazon non è riuscita a sviluppare l'assistente vocale a cui ambiva, e con i progressi delle intelligenze artificiali va pure peggio

(AP Photo/Elaine Thompson)
(AP Photo/Elaine Thompson)
Caricamento player

Il 6 novembre di dieci anni fa Amazon presentò quello che il sito di news The Verge definì «uno speaker pazzesco in grado di parlare con l’utente» e che ora siamo piuttosto abituati a vedere nelle case. Il dispositivo, chiamato Echo, era una piccola cassa bluetooth dotata di un assistente vocale, Alexa, che Amazon aveva sviluppato grazie anche all’acquisizione della startup polacca Ivona nel 2013.

Il progetto Echo era nato in realtà ancora prima, nel 2011, quando il fondatore e allora CEO di Amazon, Jeff Bezos, aveva proposto di creare un dispositivo sfruttando Amazon Web Services, o AWS, i servizi cloud dell’azienda. Secondo Brad Stone, giornalista e autore di Amazon. L’impero. Jeff Bezos e un dominio senza confini, il suo piano era di «costruire un apparecchio da 20 dollari con il cervello nel cloud e completamente comandabile via voce». Il riferimento principale era il computer di bordo dell’astronave Enterprise di Star Trek.

A distanza di dieci anni, la linea Echo ha venduto più di 500 milioni di apparecchi (dati aggiornati al 2023), eppure non si può dire che Alexa abbia rispettato le ambizioni iniziali di Bezos. È da tempo, infatti, che circolano dubbi sullo stato del servizio: alla fine del 2021 Bloomberg rivelò dati interni all’azienda secondo i quali, dopo un entusiasmo iniziale, gli utenti usavano poco i dispositivi Echo. Il problema è diventato ancora più chiaro dopo il successo di ChatGPT, il chatbot presentato da OpenAI alla fine del 2022, e la conseguente crescita nel settore delle intelligenze artificiali generative: all’improvviso parlare con un computer non era più così strano, e i limiti di Alexa divennero più evidenti.

Nel settembre del 2023 Amazon annunciò quindi di essere al lavoro su una nuova versione di Alexa potenziata con un Large Language Model (LLM), o modello linguistico di grandi dimensioni, il tipo di tecnologia alla base di chatbot come ChatGPT. La nuova Alexa, che dovrebbe essere in grado di avere conversazioni migliori e più naturali con gli utenti, era attesa per questo autunno, ma è stata posticipata al 2025, in un clima di incertezza aziendale che è stato raccontato recentemente da Bloomberg.

Alcuni dipendenti incolpano l’eccessiva burocrazia interna ad Amazon, che nemmeno Andy Jassy, CEO dell’azienda dal 2021, è riuscito a risolvere, pur avendola criticata in una recente mail in cui si è lamentato delle «riunioni preparatorie alle riunioni preparatorie alle riunioni decisive». In particolare, c’è chi sostiene che il progetto sia in stallo anche perché manca una visione chiara su cosa debba fare una Alexa potenziata con le AI.

Nel corso della sua storia, Amazon è stata in grado di creare prodotti di enorme successo, spesso essendo la prima a investire in un settore o una tecnologia, come nei casi del lettore di ebook Kindle, il servizio Prime o la stessa AWS, oggi una delle divisioni più importanti del gruppo. Nel caso di Alexa, invece, «la speranza migliore per Amazon è di produrre l’ennesima permutazione di ChatGPT», secondo Bloomberg. L’impressione, tra alcuni ingegneri dell’azienda che ricordano le grandi ambizioni del periodo Bezos, è di essere ridotti a inseguire la concorrenza.

Già dieci anni fa Amazon aveva presentato Alexa come «un assistente che sfrutta le intelligenze artificiali». All’epoca le limitazioni tecnologiche non permettevano di generare frasi di senso compiuto come quelle dei chatbot moderni, quindi Alexa si basò inizialmente su un sistema di domande e risposte. Ogni tipo di “ragionamento” avveniva nel cloud di Amazon, che poteva essere arricchito e migliorato continuamente, senza dover aggiornare il dispositivo. Anche grazie a questo sistema, la linea Echo ebbe sin da subito grande successo: il pubblico non aveva mai visto qualcosa di simile e, a differenza di Siri, che prevedeva un’interazione diretta con lo schermo di iPhone, Alexa aveva solo bisogno della voce umana.

Amazon investì molto nel migliorare le capacità comprensive di Alexa, soprattutto assumendo lavoratori che trascrivevano le domande o le interazioni incomprese dal sistema, per poi insegnare ad Alexa la risposta giusta da dare in quei casi. Si trattava di un lavoro perlopiù manuale, lento e poco efficiente in confronto alle capacità di “allenamento” delle reti neurali d’oggi e a tecnologie come il transformer, alla base di ChatGPT. Parte del team che si occupava di machine learning per Amazon, inoltre, lavorò a lungo per ampliare i «domini» di interesse di Alexa, allo scopo di renderla in grado di rispondere a quesiti su specifici argomenti, come lo sport e i programmi televisivi.

Oggi Amazon sta cercando di recuperare terreno nel settore delle AI, puntando soprattutto su Anthropic, azienda sviluppatrice del chatbot Claude, su cui a partire dal settembre del 2023 ha investito otto miliardi di dollari (quattro dei quali lo scorso novembre). Grazie a questo accordo, AWS è oggi il partner principale di Anthropic nel settore cloud, un ambito cruciale per lo sviluppo di queste tecnologie. Buona parte dei soldi investiti da Amazon sono in realtà crediti per l’utilizzo dell’infrastruttura AWS: i costi legati ai data center, gli enormi centri di elaborazione dati utilizzati da questi modelli linguistici, sono infatti tra i più ingenti per l’intero settore delle AI.

Una parte del team di Amazon ha iniziato a integrare le AI al servizio Amazon nel 2021, ben prima della creazione di ChatGPT, quindi. All’epoca, però, questi sforzi non furono visti come una priorità dai piani alti dell’azienda, i quali, secondo alcuni, non erano nemmeno al corrente di questi esperimenti.

È anche a causa di questi rallentamenti interni ad Amazon che molti suoi dipendenti reagirono con speranza quando OpenAI presentò ChatGPT, nel novembre del 2022: molti di loro pensavano che avrebbe fatto da slancio anche per Alexa. Amazon, quindi, rispose all’ascesa di OpenAI in modo diverso da Google, che attivò sin da subito un «allarme rosso» interno per riorientare tutti i suoi servizi a questo tipo di AI.

Nonostante la speranza iniziale di molti, però, il maggiore interesse nei confronti delle intelligenze artificiali generative non è bastato a sbloccare Alexa. A complicare il tutto, la coniugazione dei modelli linguistici di nuova generazione col sistema Alexa si è rivelata più complessa del previsto, tanto che c’è chi ritiene le due tecnologie inconciliabili. Sempre secondo Bloomberg, infatti, «alcuni dipendenti scherzano sul fatto che Alexa aveva più in comune con un albero telefonico automatizzato che con le IA» (albero telefonico automatizzato è il sistema che si usa per i numeri di assistenza clienti che fanno sentire un messaggio registrato con diverse opzioni).

Nonostante tutto, è probabile che la nuova versione di Alexa potenziata con le AI uscirà effettivamente nei prossimi mesi. In questa fase, in alcuni casi, è lo stesso Jassy a partecipare ai test. I ritardi accumulati sono dovuti al fatto che i modelli linguistici migliorano le capacità comunicative di Alexa ma la espongono anche ad alcuni problemi ormai noti delle intelligenze artificiali generative. Tra tutti, le cosiddette “allucinazioni”, come vengono chiamate le risposte errate e del tutto inventate, per quanto formalmente corrette, fornite dai chatbot.

Le allucinazioni sono un problema per tutto il settore ma rischiano di esserlo ancora di più per Alexa. Quando una persona usa ChatGPT o Claude, infatti, si aspetta errori di questo tipo, mentre Amazon ha già venduto centinaia di milioni di dispositivi, spesso usati da famiglie con bambini. Il rischio che Alexa inizi all’improvviso a dare informazioni errate, inquietanti e fuori luogo è quindi maggiore che per altre aziende del settore.

– Leggi anche: Amazon non ha ancora trovato il modo di fare soldi con Alexa