Un assistente vocale diventa una spia con poco
Un gruppo di esperti di sicurezza ha dimostrato come estensioni apparentemente innocue rendano Alexa e Assistente Google piuttosto indiscreti
Un gruppo di esperti di sicurezza informatica ha dimostrato come sia relativamente semplice manipolare gli assistenti per la casa – come gli Echo di Amazon e i Nest di Google – per spiare conversazioni private e ottenere le password altrui. Gli assistenti vocali sono ormai molto diffusi e impiegati in milioni di abitazioni in giro per il mondo, ma alcuni aspetti della loro sicurezza sono ancora trascurati, con rischi per la tutela dei propri dati e della privacy.
La ricerca è stata eseguita dagli esperti di SRLabs, un’organizzazione di hacker che si occupa di sicurezza informatica e offre consulenza alle aziende. In una serie di video, i ricercatori hanno dimostrato come alcune applicazioni per gli assistenti apparentemente innocue possano essere utilizzate per scopi diversi, come spiare le attività degli utenti. Le dimostrazioni sono state rese pubbliche dopo avere avvisato Google e Amazon, in modo che potessero avere il tempo di assumere qualche contromisura.
In una dimostrazione viene mostrata un’azione per l’Assistente Google che, una volta installata, permette di chiedere al proprio dispositivo di pronunciare un numero a caso. L’azione fa esattamente ciò che promette, ma dopo avere pronunciato il numero non si disattiva e mantiene aperto il microfono del proprio dispositivo per la casa, continuando ad ascoltare ciò che avviene nella stanza.
Una skill per Alexa presentata come sistema per ricevere l’oroscopo del giorno fa qualcosa di simile. Dopo avere pronunciato la sua previsione e avere ricevuto il comando “Stop”, non si ferma, ma continua ad ascoltare le conversazioni.
Altri video mostrano come gli hacker siano stati in grado di modificare le azioni e le skill, facendo in modo che dessero finti messaggi di errore, seguiti dalla richiesta agli utenti di pronunciare la loro password verso particolari servizi online. Un assistente non chiederebbe mai una password, ma non tutti gli utenti lo sanno e i meno esperti potrebbero cascarci facilmente, fornendo un’informazione sensibile a qualche malintenzionato.
Gli esperti di SRLabs hanno ottenuto i loro risultati sfruttando una falla, comune ai sistemi di Amazon e di Google, che consentiva di ascoltare le conversazioni molto più a lungo del previsto. Per farlo è bastato aggiungere una serie di caratteri speciali che gli assistenti vocali non possono pronunciare: l’utente non sente nulla, ma in realtà l’assistente sta continuando a leggere qualcosa di impronunciabile, mantenendo nel frattempo il microfono acceso per recepire eventuali comandi. In questo modo, gli hacker hanno potuto ascoltare ciò che dicevano gli utenti, e trascrivere automaticamente le loro frasi.
Le azioni per l’Assistente Google e le skill per Alexa di Amazon possono essere aggiunte da chiunque, ma al momento in cui viene richiesta la loro pubblicazione le due aziende eseguono un controllo, per assicurarsi che il nuovo codice rispetti le regole. Il problema è che l’approvazione avviene solo per la prima richiesta, mentre non sono eseguiti controlli quando le azioni e le skill vengono aggiornate dagli sviluppatori. Quelli di SRLabs sono quindi riusciti a far approvare i loro sistemi prima di aggiungere le funzionalità per spiare le attività degli utenti negli aggiornamenti successivi.
In seguito alla pubblicazione delle dimostrazioni, Amazon ha annunciato di avere adottato alcune soluzioni per ridurre il problema, in modo da rilevare più facilmente le skill malevole. Google ha confermato di essere al lavoro per eseguire una revisione delle azioni per il suo Assistente, e ha annunciato di avere sospeso alcune funzionalità in attesa di capire meglio come escludere i problemi rivelati da SRLabs.
La possibilità di installare skill e azioni può estendere sensibilmente le capacità del proprio assistente domestico, ma gli esperti di sicurezza invitano a essere molto cauti e a verificare sempre chi c’è dietro alle opzioni aggiuntive che si vogliono installare. Gli automatismi offerti dagli assistenti vocali per installare nuove funzionalità rendono più complicato il controllo di ciò che si sta aggiungendo, senza contare che in generale c’è una certa sottovalutazione dei rischi connessi all’installazione di estensioni sconosciute, rispetto alle cautele che solitamente si applicano per i programmi sul computer e le app per gli smartphone.