Il sistema di Apple a tutela dei minori che non piaceva a nessuno
Prevedeva di cercare negli iPhone materiale pedopornografico, ma è stato sospeso dopo le critiche per i grandi rischi per la privacy
Dopo un mese di critiche e polemiche, Apple ha deciso di rinviare a data da destinarsi l’attivazione di un sistema che avrebbe dovuto verificare l’eventuale presenza di immagini pedopornografiche negli iPhone e negli altri dispositivi prodotti dall’azienda, per tutelare i minori. L’opzione, destinata unicamente agli Stati Uniti, era stata annunciata a inizio agosto in vista della diffusione nell’autunno di iOS 15, l’ultima versione del sistema operativo per gli iPhone.
Da allora, numerose organizzazioni a difesa della privacy, associazioni per la tutela dei minori e analisti avevano segnalato le loro contrarietà ed evidenziato i pericoli del nuovo sistema, al punto da spingere Apple a un raro ripensamento su una iniziativa annunciata da poche settimane e sulla quale sembrava avere investito molto in termini di comunicazione.
La diffusione di materiale che mostra abusi sessuali sui minori (CSAM, da child sexual abuse material in inglese) è un problema diffuso in molti paesi anche a causa della disponibilità di sistemi per scambiarsi messaggi criptati che possono essere letti solo da chi li invia e da chi li riceve. Se da un lato queste applicazioni hanno reso più sicure e private le conversazioni, aiutando per esempio i dissidenti politici a subire minori controlli dai governi autoritari, dall’altro hanno reso più difficoltosa la verifica del loro impiego per fini leciti. Il dibattito su come bilanciare tutele e verifiche prosegue ormai da anni e ha spesso al centro le aziende tecnologiche che producono e gestiscono i sistemi di comunicazione.
Fino ad agosto, Apple non aveva mai accennato alla possibilità di attivare sistemi di verifica dei contenuti sugli iPhone, mostrando semmai una grande attenzione per la privacy dei propri utenti al punto da farne uno dei punti di forza della propria offerta. Negli anni aveva sviluppato sistemi per ridurre il tracciamento da parte di terzi delle attività svolte online da chi utilizza iPhone, iPad e altri dispositivi, insieme a soluzioni per rendere più sicura la gestione dei dati privati e la loro analisi direttamente sui dispositivi, per esempio per riconoscere i contenuti delle immagini senza la necessità di doverle inviare a un centro dati esterno per l’elaborazione.
Forse per prevenire richieste di accesso a specifici dati da parte delle autorità in futuro, con tutti i problemi di privacy conseguenti, a inizio agosto Apple aveva annunciato la propria iniziativa per il controllo di CSAM attraverso una tecnologia che aveva chiamato NeuralHash. L’idea era di utilizzarla per verificare se negli iPhone ci fossero contenuti segnalati come CSAM dalle varie organizzazioni che catalogano questi tipi di contenuti per contrastarne la circolazione online.
Semplificando, NeuralHash avrebbe messo a confronto specifiche porzioni delle serie di lettere e numeri (hash) attribuite a un’immagine CSAM già nota con i contenuti nella galleria fotografica degli iPhone, alla ricerca di possibili corrispondenze. Nel caso in cui avesse trovato più di 30 corrispondenze di hash in una stessa immagine, il sistema avrebbe segnalato l’immagine ai moderatori di Apple, che avrebbero poi dovuto verificarla manualmente tramite l’account iCloud dell’utente interessato (iCloud è il servizio che permette di archiviare online i propri file, per averli a disposizione su più dispositivi).
Se l’immagine si fosse confermata illecita, Apple avrebbe poi provveduto a segnalare l’utente alle forze dell’ordine. Quando aveva annunciato il sistema a inizio agosto, l’azienda aveva sostenuto non solo che tutelasse la privacy degli utenti, visto che il sistema controllava solo alcuni hash, ma anche che fosse estremamente sicuro nell’evitare falsi positivi: «Assicura meno di un caso su mille miliardi di falsi positivi all’anno».
Nelle settimane dopo l’annuncio, alcuni informatici avevano però esaminato il funzionamento di NeuralHash, derivandolo dalle versioni più recenti di iOS, sulle quali è inattivo. Dai vari esperimenti era emerso che il sistema potesse portare a casi in cui due immagini completamente differenti avessero tratti in comune tali da rendere probabili errate rilevazioni di CSAM. Apple aveva in parte smentito la circostanza, sostenendo che la versione di NeuralHash utilizzata negli esperimenti non fosse quella definitiva, e che comunque il sistema avrebbe previsto un ultimo controllo manuale proprio per evitare segnalazioni errate alle forze dell’ordine.
I potenziali problemi tecnici erano diventati ulteriori spunti per le critiche contro il sistema, che avevano messo d’accordo esperti informatici, associazioni e gruppi di attivisti. Le preoccupazioni più condivise erano intorno alla possibilità che il nuovo sistema potesse essere sfruttato dai governi per cercare informazioni, aggirando le varie protezioni per tutelare i dati dei singoli utenti.
In pochi giorni, l’Electronic Frontier Foundation, una delle più importanti organizzazioni per la libertà online, aveva raccolto oltre 25mila firme per chiedere ad Apple di abbandonare il progetto. Un gruppo di oltre 100 organizzazioni per i diritti civili aveva chiesto la stessa cosa, sottoscrivendo una dichiarazione diretta all’azienda.
Ad Apple era stato riconosciuto l’intento di tenere sotto controllo la diffusione di CSAM, provando ad adottare un sistema che riducesse il meno possibile le garanzie di privacy e sicurezza per gli utenti. La società era stata invece criticata per avere deciso unilateralmente su un argomento così delicato, senza consultarsi prima con chi si occupa del contrasto a contenuti di questo tipo e con gli utenti finali. Il progetto avrebbe inciso su decine di milioni di persone negli Stati Uniti, e in prospettiva su centinaia di milioni di altre persone in giro per il mondo.
Negli ultimi giorni le numerose critiche hanno infine spinto Apple a rinviare l’introduzione di NeuralHash negli Stati Uniti, che sarebbe dovuta avvenire dopo la diffusione del nuovo iOS 15, atteso entro poche settimane. La notizia è stata comunicata alla fine della scorsa settimana dall’azienda: «Visti i riscontri da parte dei clienti, dei gruppi per la tutela dei minori, dei ricercatori e di altri soggetti, abbiamo deciso di prenderci altro tempo nei prossimi mesi per raccogliere suggerimenti e apportare dei miglioramenti prima di diffondere queste funzionalità essenziali per la sicurezza dei bambini».
Il rinvio è stato accolto con favore da chi aveva criticato il nuovo sistema, mentre vari osservatori hanno segnalato come sia piuttosto raro che Apple decida di rivedere i propri piani, soprattutto su progetti già annunciati e con una certa enfasi. L’azienda sembra comunque essere interessata a proseguire nell’iniziativa, anche se al momento non ha fornito dettagli su come intenda modificare il sistema di riconoscimento e altre soluzioni, sempre per contrastare gli abusi sui minori online, che avrebbe dovuto introdurre a breve.