Se hai un assistente vocale in casa, devi dirlo ai tuoi ospiti?
L'onnipresenza dei vari Alexa e Siri sta facendo nascere nuove questioni di etichetta, e anche nuovi prodotti pensati per impedire che ascoltino sempre
Gli assistenti vocali sono sempre più diffusi e negli ultimi anni tutte le più grande aziende tecnologiche ne hanno sviluppato uno: Apple ha Siri, Amazon ha Alexa, Microsoft ha Cortana e Google ha il suo assistente senza nome. Questi assistenti esistono anche negli smartphone, ma se ne sta parlando soprattutto per la loro presenza in appositi dispositivi per la casa: HomePod per Apple, Google Home e Nest Hub per Google, Echo per Alexa. Per poter funzionare, questi sistemi devono stare sempre in ascolto, in attesa che qualcuno li chiami in causa – “Hey Siri”, “Ok Google” – per poi rispondere a qualche domanda o assolvere qualche funzione.
Il problema è che in certi casi questi dispositivi ascoltano quello che non dovrebbero, o quello che gli umani vicino a loro non vorrebbero ascoltassero. Da tempo ci si sta quindi chiedendo come gestire la cosa: in parte capendo cosa e quanto le grandi aziende effettivamente registrino o eventualmente ascoltino; in parte sviluppando norme e abitudini di comportamento appropriate (ed estendibili anche ad altri dispositivi tecnologici intelligenti); in parte, ed è il caso più estremo, usando altre tecnologie per inibire l’ascolto da parte di questi dispositivi.
– Leggi anche: Gli assistenti vocali e le vite degli altri
È esagerato sostenere che gli assistenti per la casa registrino di nascosto tutte le nostre conversazioni – così come non è vero che gli smartphone ascoltano tutto quello che diciamo e che le nostre televisioni intelligenti passano il tempo a spiarci – ma ci sono diverse prove del fatto che questi dispositivi abbiano in passato registrato più dello stretto indispensabile, a volte anche solo per sbaglio.
In uno studio in parte ancora in corso, alcuni ricercatori hanno dimostrato, per esempio, che ci sono diverse parole che, per vicinanza fonetica con quelle che attivano gli assistenti vocali, permettono ai dispositivi di registrare quello che non dovrebbero. Per capirci, le parole “seria” o “Siria” possono, a certe condizioni, attivare Siri; o basta che qualcuno, magari anche solo in tv, dica Google, per attivare un dispositivo Google Home. Come hanno scritto gli autori dello studio, «è una cosa che sa chiunque abbia usato un assistente vocale». Uno degli autori dello studio, il ricercatore David Choffnes, ha precisato che «la paura che questi dispositivi siano sempre attivi è sbagliata», ma ha aggiunto che «può succedere che registrino quando non dovrebbero». Come può anche succedere che qualcuno manometta questi dispositivi, violando la privacy di chi li possiede.
– Leggi anche: Un assistente vocale diventa una spia con poco
Col tempo le aziende hanno migliorato i loro dispositivi, chiarito quello che registrano e quello che fanno di quelle registrazioni e, soprattutto, aggiunto la possibilità, per gli utenti che ne sentono la necessità, di ridurre le possibilità di ascolto. Ma la grande e veloce diffusione degli assistenti vocali – si pensa che un adulto statunitense su cinque possegga ormai uno di questi dispositivi – ha fatto sì che sempre più persone si stiano preoccupando di quel che questi dispositivi potrebbero registrare. Come ha scritto il New York Times, «bussare alla porta di qualcuno o farsi una chiacchierata in quella cucina potrebbe implicare una concreta possibilità di essere registrato».
Si sta quindi parlando del fatto che sia forse arrivato il momento, per chi ha in casa un dispositivo dotato di assistente vocale, di farlo sapere ai propri ospiti, così che possano regolarsi di conseguenza o magari richiedere che venga spento. Potrebbe sembrare un’esagerazione, ma qualche mese fa fu addirittura Rick Osterloh, capo della divisione hardware di Google, a parlarne. A chi gli chiese un’opinione, Osterloh prima disse di non averci mai pensato prima, poi rispose che lui l’avrebbe fatto con i suoi ospiti e che era «qualcosa che forse i produttori stessi dovrebbero suggerire».
È vero che già da ben prima che esistessero Siri o Alexa era pieno di modi per registrare qualcuno a sua insaputa. Il fatto, con dispositivi come Siri o Alexa, è che queste registrazioni potrebbero avvenire anche a insaputa dei proprietari dei dispositivi. Seppur non esistano regole o approcci condivisi, qualcuno sta proponendo che questi dispositivi vengano segnalati in qualche modo o addirittura che possano essere loro stessi, nel rilevare nuove voci, a presentarsi. Sono tutte cose teoricamente piuttosto semplici, ma in certi casi di difficile applicazione.
Un esempio, tra i tanti possibili: una ragazza conosce un ragazzo a una festa, lo invita a casa e fanno sesso: quando e come la ragazza dovrebbe dirgli che dispositivo possiede e dove si trova? Quali opzioni avrebbe a disposizione il ragazzo?
C’è anche chi pensa che tra le alternative a disposizione di quel povero ragazzo, e di chi come lui non volesse farsi ascoltare da un qualche aggeggio tecnologico, dovrebbero essere usati altri aggeggi tecnologici. Il New York Times ha raccontato la storia di due coniugi di Chicago, entrambi professori universitari d’informatica, che in seguito a una discussione sull’opportunità di usare un assistente vocale perché «il microfono è sempre acceso», hanno progettato e costruito, con l’aiuto di un altro professore, uno speciale “braccialetto del silenzio”.
Il braccialetto, non particolarmente comodo, ha 24 piccoli altoparlanti che, se accesi, emettono speciali ultrasuoni che impediscono la registrazione agli assistenti vocali (o a qualsiasi altro microfono) nelle vicinanze. Gli ultrasuoni, scrive il New York Times, sono impercettibili alla maggior parte delle persone, fatta eccezione per bambini e adolescenti.
Pedro Lopes, uno dei professori che si è occupato del braccialetto, ha detto: «Ormai è così facile registrare qualcosa. Il braccialetto può essere attivato se devi dirti qualcosa di riservato». Ben Zhao, il professore che per primo si occupò del braccialetto, ha detto: «In futuro saremo circondati da sempre più dispositivi, e dovremo partire dal presupposto che possano potenzialmente essere compromessi. Il nostro cerchio della fiducia sarà più ristretto, in certi casi si ridurrà al nostro solo corpo».
Il New York Times ha spiegato anche che il braccialetto del silenzio – che per ora è solo un prototipo, ma che secondo gli sviluppatori potrebbe costare circa una ventina di euro – non è l’unico strumento ideato per inibire le registrazioni indesiderate. Uno è Project Alias, una sorta di coperchio per assistenti per la casa che, tra le altre cose, ne può inibire l’uso in certi momenti.
Sempre il New York Times ricorda che ancora prima che si diffondessero gli assistenti vocali erano stati pensati e realizzati dispositivi per inibire altri strumenti tecnologici: una specie di cappotto per evitare che le onde radio arrivino agli smartphone o alle carte di credito, indumenti per evitare di essere individuati dalle termocamere e occhiali per impedire che la faccia di chi li indossa venga riconosciuta da apposite telecamere. O, molto più semplicemente, il pezzo di scotch che diverse persone usano ormai per coprire la videocamere del proprio computer portatile.
Scott Urban, che realizzò gli occhiali anti-telecamera, ha detto: «Quelli che ci tengono alla propria privacy non sono più visti come degli svitati; il problema ora è sentito da persone tra loro molto diverse, di tutte le età e di ogni parte politica». Woodrow Hartzog, professore della Northeastern University che si occupa di giurisprudenza e informatica, ha detto invece che in una gara tecnologica tra le grandi aziende e i consumatori, le grandi aziende arriveranno sempre davanti. Secondo lui, sarebbe molto più utile fare pressioni perché vengano approvate leggi chiare e efficaci sulla privacy, adeguate alle nuove tecnologie.