Lavori usuranti da affidare alle intelligenze artificiali: moderare i commenti
Ci sta provando Google, che ha insegnato a un software a riconoscere automaticamente quelli violenti e fuori tema
Alphabet, la società che controlla Google, ha avviato un progetto per utilizzare sistemi di intelligenza artificiale per migliorare la moderazione automatica dei commenti online, riducendo la necessità di un intervento umano. L’iniziativa è portata avanti da Jigsaw, una divisione di Alphabet che si occupa di indagare e realizzare nuove tecnologie, e secondo i suoi ideatori potrebbe migliorare sensibilmente la qualità dei commenti online, riducendo soprattutto la violenza verbale e le intemperanze degli utenti che spesso rendono inutilizzabili e infrequentabili le sezioni per commentare gli articoli. Il sistema, già disponibile in una prima versione sperimentale, è pensato soprattutto per i gestori di siti che spesso devono investire notevoli risorse per tenere sotto controllo i commenti e moderarli dopo la pubblicazione, o in forma preventiva (come avviene sul Post).
Il software sviluppato da Jigsaw si chiama Perspective ed è stato realizzato utilizzando sistemi di apprendimento automatico (“machine learning”), la cui programmazione avviene in modo autonomo imparando dalla ripetizione di determinati eventi. Semplificando, il software analizza una grande quantità di esempi per la gestione di un dato scenario, fino al punto di avere una tale padronanza da potere anticipare la giusta risposta quando si presentano situazioni simili a quelle degli esempi analizzati.
Nel caso di Perspective, gli sviluppatori di Jigsaw hanno prima rivisto migliaia di commenti, isolando quelli più aggressivi o completamente fuori tema al punto da indurre un altro utente a non rispondere e a non esprimere la propria opinione. I commenti sono stati poi utilizzati come esempi da fornire, in gran numero, al sistema di apprendimento automatico di Perspective, che ha imparato a dare un punteggio da 0 a 100 ai nuovi commenti in base alla loro somiglianza con quelli indicati come violenti od oltraggiosi dai programmatori. Jigsaw definisce questi tipi di commenti “tossici”, proprio perché dalle loro analisi è emerso che intossicano in poco tempo la conversazione, facendola morire o degenerare.
Tra i primi a sperimentare Perspective c’è il New York Times, uno dei siti d’informazione che ha una comunità piuttosto ampia e dinamica di commentatori. In media ogni giorno il sito del giornale deve moderare circa 11mila commenti e per farlo ha una squadra di 14 persone. È un lavoro costante di revisione dei commenti che per ora ha impedito al New York Times di aprire la sezione per i commentatori in tutti i suoi articoli: solo un 10 per cento degli articoli pubblicati ogni giorno è commentabile.
Il New York Times ha fornito la propria collaborazione nella fase di sviluppo di Perspective, insieme con altre organizzazioni come Wikipedia, passando a Jigsaw il suo archivio dei commenti per calibrare il nuovo software. Ora il suo utilizzo dovrebbe alleggerire il lavoro dei moderatori, rendendo possibile la moderazione di più commenti per volta, attraverso un sistema che li suddivide in base al loro grado di tossicità e del tipo di informazioni che contengono. Perspective sarà sperimentato dai siti di altri giornali come l’Economist e il Guardian.