La storia dell’uomo segnalato da Google per aver fotografato i genitali del figlio
Che mostra quanto sia facile per tecnologie e moderatori confondere foto fatte per motivi medici con materiali pedopornografici
Negli ultimi giorni sui giornali italiani e internazionali è stata molto ripresa la storia di un uomo di San Francisco, negli Stati Uniti, a cui Google disabilitò l’account nel 2021 perché aveva scattato alcune foto dell’inguine del figlio per motivi medici. Secondo Google, infatti, quelle foto rappresentavano materiale pedopornografico e per questo l’uomo era stato anche segnalato alla polizia. La storia è stata raccontata inizialmente domenica in un articolo pubblicato sul New York Times.
L’accaduto dice molto sui limiti delle tecnologie impiegate da Google, che identificano in maniera automatica le immagini scambiate tramite i suoi servizi che potrebbero essere collegate ad abusi sessuali su minori, e dei possibili effetti di una rigida applicazione delle norme interne da parte dei moderatori, che sono tenuti a segnalare qualsiasi comportamento ritenuto sospetto per prevenire possibili reati. Google ha commentato la vicenda dicendo di essersi attenuta alla legge federale statunitense sui contenuti pedopornografici.
I fatti risalgono al febbraio del 2021 e riguardano alcune foto scattate da Mark (che ha chiesto di essere identificato solo col nome per il timore di subire danni di reputazione), e dalla moglie al figlio, un bambino di pochi anni. Poiché il bambino provava dolore al pene, che risultava gonfio, Mark ha raccontato al New York Times di aver scattato con il proprio smartphone alcune foto della sua zona inguinale, utilizzando un telefono con sistema operativo Android, sviluppato da Google. Un venerdì sera, a causa delle restrizioni per la pandemia da coronavirus, sua moglie programmò un consulto medico online per il giorno seguente: l’infermiera che aveva fissato l’appuntamento le aveva chiesto di inviare alcune foto così che il pediatra potesse vederle prima. La moglie così ne scattò delle altre, sempre con il telefono di Mark, in cui si vedeva la mano del marito che indicava il gonfiore.
Due giorni dopo aver scattato queste foto, Mark ricevette una notifica con cui Google lo avvisava di aver disabilitato il suo account a causa di «contenuti pericolosi» che venivano descritti come «una grave violazione delle regole di Google e potenzialmente illegali». Furono disabilitati anche il servizio Gmail che Mark aveva aperto a metà anni Duemila e quello telefonico Google Fi (attivo solo negli Stati Uniti), impedendogli di chiamare e navigare su Internet. Oltre alle e-mail di oltre quindici anni, Mark perse anche le foto e i video che erano stati archiviati sul cloud di Google.
Mark, un programmatore che peraltro nella sua carriera si era occupato anche di sviluppare uno strumento per rimuovere i contenuti online considerati problematici dagli utenti, chiese a Google di ripristinare i suoi account spiegando la situazione: la richiesta però fu rifiutata senza una spiegazione, ha raccontato. Scoprì in un secondo momento che la polizia di San Francisco lo stava indagando per via di un altro video salvato nel suo telefono che era stato segnalato da Google come potenzialmente pericoloso.
Adesso Mark non è più sotto indagine, ma i suoi account su Google sono ancora disabilitati. Dopo la pubblicazione della storia, una portavoce dell’azienda ha ribadito che Google segue la legge federale degli Stati Uniti sui contenuti pedopornografici e usa varie tecnologie e sistemi di intelligenza artificiale «per identificarli e rimuoverli dalle [sue] piattaforme». Christa Muldon, la portavoce, ha aggiunto che i moderatori che devono revisionare il materiale segnalato come potenzialmente sospetto vengono formati da operatori sanitari per imparare a riconoscere irritazioni, sfoghi cutanei o altri problemi medici nelle immagini di corpi nudi, pur non essendo medici; nella revisione del caso di Mark comunque non erano stati consultati né medici né operatori sanitari, ha detto Muldon.
– Leggi anche: Sempre più stati vogliono controllare i dati dei propri cittadini
Il New York Times ha raccontato che la stessa cosa accaduta a Mark era successa negli stessi giorni anche a un uomo di Houston, in Texas. Secondo Jon Callas, esperto di tecnologia dell’organizzazione per le libertà civili nell’era digitale Electronic Frontier Foundation, i casi come questi però potrebbero essere «decine, centinaia, migliaia».
Solo nel 2021 Google dice in effetti di avere raccolto più di 600mila segnalazioni di contenuti riconosciuti come pedopornografici dai suoi sistemi e di aver disabilitato oltre 270mila account per violazioni sulle relative norme.
Le persone che si occupano di diritti dei bambini sostengono che la cooperazione delle grosse piattaforme tecnologiche sia necessaria per combattere la diffusione online di materiale pedopornografico. Il caso di Mark tuttavia mostra come questo tipo di controlli non riguardi solo la condivisione attiva di immagini riconosciute come potenzialmente pedopornografiche, ma si estenda poi a tutti i contenuti che rientrano in quella che Callas ha definito «la sfera del privato».
Secondo gli esperti di tecnologia, questi sistemi di controllo e protezione tuttavia sono fallibili e possono avere conseguenze gravi e inaspettate per le persone che non avevano avuto comportamenti intenzionalmente dannosi.
Daniel Kahn Gillmor, esperto di tecnologia alla American Civil Liberties Union – una delle più attive organizzazioni statunitensi per la difesa dei diritti e delle libertà individuali – ha detto che società come Google hanno accesso a una quantità enorme di dati privati delle persone, e allo stesso tempo «in ogni caso non hanno il contesto» per capire come funzionano davvero le loro vite. Spesso inoltre, secondo Gillmor, l’analisi dei contenuti potenzialmente pericolosi è complicata dai limiti delle competenze dei moderatori, e la tecnologia non sembra essere una soluzione al problema, ma potrebbe anzi contribuire ad aggravarlo.
In un comunicato, Google ha detto che:
Il materiale pedopornografico (CSAM) è ripugnante e siamo impegnati per prevenire ogni sua diffusione sulle nostre piattaforme. Seguiamo la legge statunitense nel definire cosa costituisce CSAM e utilizziamo una combinazione di tecnologia di hash matching e di intelligenza artificiale per identificarlo e rimuoverlo. Inoltre, il nostro team dedicato alla sicurezza dei minori esamina l’accuratezza dei contenuti segnalati e si consulta con esperti pediatri per garantire la possibilità di identificare i casi in cui gli utenti potrebbero richiedere un consiglio medico.