Cosa fa Facebook contro il terrorismo
Intelligenze artificiali, esperti di antiterrorismo e migliaia di moderatori, ma tenere sotto controllo una comunità di 2 miliardi di persone non è semplice
Facebook ha spiegato per la prima volta nel dettaglio quali soluzioni sta adottando per contrastare il terrorismo sul suo social network, con nuovi sistemi per identificare rapidamente i profili dei terroristi e i contenuti di propaganda, in modo da renderlo uno spazio più sicuro. In passato, soprattutto dopo alcuni attentati terroristici, Facebook è stato accusato di fare poco contro le organizzazioni terroristiche che sfruttano i suoi profili e le sue Pagine per diffondere i loro contenuti, e in alcuni casi assoldare nuovi terroristi. Ora, in un lungo post, i responsabili della società hanno raccontato quali contromisure sono state assunte di recente, ricordando che tenere sotto controllo una comunità di 2 miliardi di persone non è semplice e richiede l’utilizzo di molte risorse, comprese quelle di intelligenza artificiale.
Gli studi condotti negli ultimi anni sul terrorismo, soprattutto su quello islamico, hanno messo in evidenza come le dinamiche che portano una persona e radicalizzarsi e a unirsi a un’organizzazione terroristica avvengano per lo più offline. Internet ha comunque un ruolo, soprattutto per quanto riguarda la facilità con cui possono circolare fotografie, video e altri contenuti di propaganda.
Gli sforzi di Facebook si sono concentrati in questi mesi sui gruppi più grandi, come ISIS e al Qaida, che fanno ampio utilizzo degli strumenti online per raggiungere i loro seguaci e simpatizzanti. Buona parte del controllo dei contenuti passa attraverso sistemi di intelligenza artificiale (AI), che servono in primo luogo a riconoscere che cosa è stato pubblicato da una Pagina o da un profilo e se possa costituire un pericolo. Se per esempio un utente prova a caricare una foto o un video di propaganda dell’ISIS, l’AI può confrontare il contenuto con quelli già noti e segnalati e rimuoverlo automaticamente se trova una corrispondenza. In molti casi il blocco è preventivo: il sistema se ne accorge mentre sta elaborando il video appena caricato e impedisce che possa partire lo streaming. Altri sistemi di AI si occupano di interpretare il testo nei post, alla ricerca di frasi a favore del terrorismo.
I terroristi organizzano le loro attività in gruppo e la stessa cosa si riflette anche online. Quando viene identificato un account sospetto, Facebook procede anche al controllo dei suoi amici e delle persone con cui è venuto in contatto attraverso il social network. Incrociando le informazioni provenienti da diversi profili, dalle Pagine e dai post in cui sono menzionati altri utenti, l’AI può avere un quadro piuttosto completo e segnalare persone per le quali è consigliabile chiudere il profilo. Chi subisce la cancellazione, spesso prova a iscriversi nuovamente usando una nuova identità: stare dietro alla creazione di tutti gli account è complicato, ma Facebook dice di avere diversi sistemi per trovare i recidivi rapidamente e bloccare i loro nuovi tentativi di accesso. Per affinare ulteriormente le ricerche, Facebook utilizza anche i dati disponibili sulle sue altre applicazioni come Instagram e WhatsApp (compatibilmente con i loro sistemi per criptare i dati).
Per stessa ammissione di Facebook, l’AI non è sufficiente per tenere alla larga i terroristi, anche perché a volte gli algoritmi non riescono a interpretare correttamente un’informazione. Se una Pagina di un sito di notizie pubblica un articolo che ha come immagine in evidenza un uomo che sventola una bandiera dell’ISIS, non significa che quel contenuto sia di propaganda. In molti casi è quindi necessario l’intervento umano. Facebook ha rivelato che nella sua divisione che si occupa di antiterrorismo lavorano 150 persone, quasi tutte esperte in specifici ambiti: dall’intelligence al lavoro sul campo, passando per analisti e docenti accademici. Tra tutti parlano circa 30 lingue diverse, cosa che contribuisce a rendere più preciso il controllo nelle varie versioni locali di Facebook.
Oltre agli esperti antiterrorismo, a Facebook ci sono migliaia di impiegati (diventeranno presto 3mila) che ogni giorno lavorano per rivedere i contenuti segnalati dagli utenti. Il sistema di revisione delle segnalazioni non è perfetto e ha dimostrato di avere molte lacune, con indicazioni generiche e spesso contraddittorie per gli stessi operatori, ma rende comunque possibile una verifica piuttosto rapida se confrontata con i temi di altri social network, come Twitter. Facebook collabora inoltre con le forze dell’ordine e l’intelligence di numerosi paesi, con un gruppo di lavoro dedicato che interviene in pochi minuti in seguito alle segnalazioni delle autorità.
Facebook è il social network più grande al mondo, ma questo non significa che i terroristi non utilizzino anche altre piattaforme. Per questo motivo dallo scorso dicembre Facebook collabora con Microsoft, Twitter e YouTube per condividere informazioni su fotografie e video legati al terrorismo e alla propaganda, in modo da rimuovere prima contenuti di questo tipo.
Nel suo post, Facebook dice di voler essere “un posto ostile per i terroristi”, e che una sfida di questo tipo è tale a quelle che si devono affrontare nel mondo offline per fermare il terrorismo. La società ha anche annunciato l’avvio di una nuova iniziativa che si chiama Hard Questions, a cui possono partecipare tutti per inviare consigli e suggerimenti per migliorare il modo in cui viene gestita la sicurezza su Facebook e non solo.