La storia della ricercatrice che accusa Google di censura
Timnit Gebru sostiene di essere stata licenziata per aver scritto uno studio che criticava l'azienda sull'uso dell'intelligenza artificiale
Qualche giorno fa Timnit Gebru, una delle più importanti ricercatrici nel campo dell’etica della tecnologia, che aveva la leadership condivisa del team di etica dell’intelligenza artificiale a Google, ha scritto su Twitter di essere stata licenziata dopo aver scritto assieme ad altri colleghi un articolo accademico in cui si criticano diversi aspetti — etici, tecnici e sociali — dell’utilizzo dell’intelligenza artificiale.
La notizia ha creato notevole scompiglio nel mondo della tecnologia e della ricerca, sia perché Gebru è una studiosa famosa e rispettata, sia perché le condizioni del suo allontanamento da Google sono state contestate dall’azienda, che sostiene si sia dimessa. In pochi giorni, migliaia di ricercatori da tutto il mondo hanno firmato un appello che esprime solidarietà a Gebru e che accusa Google di censura.
Il dissidio tra Google e Gebru è cominciato a fine novembre, a proposito di un articolo firmato dalla ricercatrice e da altre sei persone, tra cui altri quattro impiegati di Google. L’articolo non è pubblico: è stato scritto per essere presentato a una conferenza a marzo 2021 ed è in corso in questo momento il processo di peer review. Gebru, però, aveva cominciato a farlo circolare tra i suoi colleghi di Google e l’aveva sottoposto a un processo di revisione interna, richiesto da Google per evitare che i suoi dipendenti possano diffondere per errore informazioni sensibili. Di solito questo processo è una formalità, come ha scritto su Twitter un altro ricercatore che lavora per Google: l’azienda controlla le informazioni sensibili, non la qualità accademica del contenuto.
Nel caso di Gebru, però, le cose sono andate diversamente. I suoi superiori le hanno chiesto di ritirare dall’articolo la sua firma e quella degli altri colleghi, senza — sostiene Gebru — fornire una spiegazione valida. Secondo Gebru, c’è stata un po’ di contrattazione, ma da Google hanno insistito sul ritiro della firma. A quel punto Gebru, che ha raccontato la sua versione dei fatti a Wired e a Bloomberg, avrebbe fatto due richieste ai suoi superiori: una spiegazione completa delle ragioni per cui avrebbe dovuto ritirare la firma e garanzie sulle procedure future di approvazione dei paper. Nel caso in cui le sue richieste fossero state accolte avrebbe ritirato la firma, altrimenti avrebbe cominciato i preparativi per lasciare la compagnia.
– Leggi anche: L’enorme causa del governo americano contro Google
Contestualmente, Gebru ha inviato un’altra email a un gruppo interno al team sull’intelligenza artificiale di Google che si chiama «Google Brain Women and Allies», in cui ha descritto la sua frustrazione per il dissidio a proposito dell’articolo e in generale per il trattamento di sufficienza che avrebbe ricevuto in Google. La mail commentava un report prodotto da altri in cui si notava come, durante la pandemia, Google avesse assunto pochissime donne. Gebru scriveva: «Smettetela di scrivere questi documenti perché tanto non fa nessuna differenza». Continuava dicendo che la cultura dentro a Google non fornisce incentivi per assumere donne e minoranze, che «quando cominci a difendere le persone meno rappresentate la tua vita diventa peggiore» in azienda, poi proseguiva descrivendo le sue tribolazioni a proposito dell’articolo che Google le contestava. La lettera è stata pubblicata dalla newsletter Platformer.
Il giorno dopo, sostiene Gebru, Google l’ha licenziata con un’email in cui dice di aver accettato le sue dimissioni — di cui lei aveva parlato, ma che non aveva mai presentato formalmente. Improvvisamente, il suo account aziendale è stato cancellato. Quando Gebru ne ha scritto su Twitter, si è creato un enorme movimento di solidarietà nei suoi confronti, con centinaia e poi migliaia di studiosi e ricercatori — moltissimi interni a Google, tra cui il suo diretto superiore — che le esprimevano solidarietà e condannavano l’azienda. A quel punto è intervenuto Jeff Dean, che è uno scienziato famoso ed è il capo di tutto il settore di ricerca sull’intelligenza artificiale a Google, che ha pubblicato un lungo comunicato in cui dice che Gebru aveva presentato l’articolo per la revisione interna molto tardi, con un solo giorno a disposizione per valutarlo, violando le regole, e soprattutto che l’articolo «non era all’altezza di essere pubblicato» in associazione al nome di Google perché, tra le altre cose, «ignorava troppe ricerche pregresse».
Gebru ha detto ai media che il suo allontanamento è una forma di censura.
Di cosa parlava precisamente l’articolo? Come dicevamo, non è stato pubblicato, ma gli autori hanno consentito alla MIT Technology Review di leggerlo e di scriverne un riassunto. Si intitola «On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?» e fa molte critiche all’utilizzo dei grandi modelli di elaborazione del linguaggio che sono sviluppate da molte aziende che si occupano di intelligenza artificiale, tra cui Google. In pratica, questi modelli sono intelligenze artificiali che vengono addestrate a riconoscere e manipolare il linguaggio naturale usando come base per l’addestramento un’enorme quantità di materiale testuale, che di solito è preso da internet. Questa tecnica ha un enorme successo nell’industria. Per esempio, Google da poco tempo ha cominciato a usare uno di questi modelli di elaborazione del linguaggio (si chiama BERT) nel suo sistema di ricerca: grazie all’intelligenza artificiale, Google riesce a comprendere il linguaggio della chiave di ricerca e a fornire spesso risultati più competenti.
Ma, scrivono Gebru e gli altri, addestrare queste intelligenze artificiali con enormi quantità di testi raccolti da internet può provocare problemi perché a causa della loro mole i testi non possono essere vagliati, ed è probabile che i sistemi siano addestrati con testi sessisti, razzisti e violenti. Questo non significa semplicemente che c’è il rischio (raro) che un modello linguistico dia risposte razziste, ma soprattutto che non riuscirà a tenere conto dei molti avanzamenti nel linguaggio fatti dai movimenti sociali in questi anni. Sia il movimento MeToo sia Black Lives Matter hanno lavorato molto per diffondere un linguaggio meno sessista e razzista: nei modelli di linguaggio addestrati con enormi moli di dati, questi cambiamenti non sono contemplati.
– Leggi anche: Il caso che potrebbe cambiare il movimento #MeToo in Cina
Inoltre l’articolo cita ricerche secondo cui l’addestramento di questi sistemi avrebbe gravi conseguenze sull’ambiente: addestrare un’intelligenza artificiale come BERT produce come minimo tanta CO2 quanto un volo andata e ritorno tra San Francisco e New York. E le intelligenze artificiali sono addestrate e riaddestrate molte volte prima di essere messe a punto. Queste tecniche poi hanno un costo enorme, che avvantaggia le grandi aziende a discapito di quelle piccole, e favorisce la manipolazione del linguaggio, più redditizia, rispetto alla sua comprensione effettiva, più difficile da ottenere.
Insomma, l’articolo, almeno per come è presentato dalla MIT Technology Review, critica duramente uno degli aspetti più efficaci e redditizi del business di Google e di molte altre aziende. Secondo Jeff Dean lo fa ingiustamente, perché ci sarebbero altre ricerche non citate che smentiscono queste tesi (Dean cita in particolare il fatto che l’intelligenza artificiale non produrrebbe così tanta CO2). Gli autori dell’articolo, invece, dicono che la loro bibliografia è ampia e solida.
Gebru è stata difesa anche dall’accusa di aver presentato l’articolo con troppo ritardo: Google Walkout, un gruppo che ha cominciato a sostenerla, ha detto che la maggior parte degli articoli viene presentata a Google con un giorno o meno di preavviso. Anche un ex membro del team di pubbliche relazioni di Google l’ha confermato su Twitter. Google continua a sostenere che Gebru si sarebbe dimessa, ma Google Walkout dice invece che la ricercatrice è stata licenziata.
La vicenda di Gebru ha ricevuto moltissime attenzioni anche perché la ricercatrice è nota e rispettata da anni. Tra i suoi studi più famosi, ce n’è uno estremamente influente pubblicato nel 2018 assieme a Joy Buolamwini a proposito della discriminazione nelle tecnologie di riconoscimento facciale: lo studio mostrava come le intelligenze artificiali riuscissero a riconoscere i volti di maschi bianchi in maniera quasi perfetta, ma sbagliassero in maniera sempre più pronunciata con foto di donne e di persone di colore. Alla fine, i sistemi non riconoscevano le donne nere nel 35 per cento dei casi. Sempre nel 2018, Google la assunse come leader del gruppo di etica dell’intelligenza artificiale.
Un anno fa un’altra nota studiosa dell’etica dell’intelligenza artificiale, Meredith Whittaker, aveva lasciato Google dopo essere stata molto contrastata all’interno dell’azienda per aver organizzato proteste contro i contratti militari di Google e contro le discriminazioni sessuali all’interno dell’azienda. La settimana scorsa, inoltre, il National Labor Relations Board americano, l’agenzia federale che si occupa di questioni del lavoro, ha accusato Google di aver sorvegliato e poi licenziato illecitamente alcuni dipendenti che contestavano la politica dell’azienda e cercavano, tra le altre cose, di formare un sindacato. Google nega tutte le accuse.