La soluzione europea al governo dei social network
È contenuta in una proposta di legge della Commissione Europea, che tenta di rispondere all'annoso problema di cosa possono ospitare
L’attacco al Congresso statunitense compiuto dai sostenitori del presidente uscente Donald Trump, e organizzato a distanza grazie ai social network, ha fatto riemergere il dibattito sull’esigenza di introdurre o meno regole più stringenti sulle conversazioni online, un tema di cui si discute ormai da molti anni senza moltissime conseguenze concrete.
In un primo momento i social network hanno cercato di descriversi come un contenitore neutro di informazioni e opinioni scambiate da persone fisiche: più o meno come le Poste. Da tempo gli esperti spiegano che le cose non stanno assolutamente così, e che soprattutto negli ultimi anni hanno avuto un ruolo preminente nella progressiva polarizzazione politica in varie parti del mondo e nel peggioramento del discorso pubblico.
Più di recente alcuni di loro hanno ammesso di avere avuto una parte in questo – grande o piccola, a seconda delle opinioni – ma al contempo hanno abdicato quasi del tutto al ruolo di stabilire cosa possa essere pubblicato sulle proprie piattaforme e cosa no, spiegando che una decisione spetta allo stato. Negli Stati Uniti circola ancora moltissima titubanza a prescrivere regole precise, per via del fatto che i più diffusi social network hanno la sede proprio negli Stati Uniti – e quindi si portano dietro decine di migliaia di dipendenti, e miliardi di tasse pagate ogni anno – e per una certa sacralità rivolta al Primo Emendamento della Costituzione, che protegge in maniera molto esplicita la libertà di espressione. Per queste ragioni hanno avuto un’eco enorme le decisioni di rimuovere o sospendere gli account ufficiali di Trump, considerate anche dai critici più benevoli decisioni estremamente problematiche.
In Europa, invece, il dibattito è da tempo più progredito e meno ideologico, tanto che diversi paesi hanno provato a fare da soli introducendo limiti e obblighi piuttosto estemporanei. A livello di istituzioni europee le discussioni degli ultimi anni sono culminate a dicembre in una proposta di legge molto dettagliata avanzata dalla Commissione Europea. Le misure che interessano i contenuti dei social network e la loro responsabilità sono contenute in particolare nel Digital Services Act (DSA), messo insieme dal commissario al Mercato Interno e ai Servizi Thierry Breton.
Breton ha 65 anni ed è un ex professore di Harvard, ex scrittore di fantascienza, ex amministratore delegato di France Télécom, nonché ex ministro francese dell’Economia nel governo di centrodestra di Jacques Chirac. Fin dalla sua nomina a commissario, avvenuta un anno e mezzo fa, Breton sostiene che i social network dovrebbero abituarsi a un intervento più diretto degli stati e delle istituzioni europee nelle loro pratiche commerciali ed editoriali: e quindi pagare più tasse ed accettare una serie di paletti che rispecchiano i «valori» europei.
Being smart is good💡
But being too smart with #taxes is never a right idea.
“Pay taxes” and other insights during @CERRE_ThinkTank debate with Facebook CEO Mark Zuckerberg on #governance in the tech sector 💻👇🏼https://t.co/LotPO1ADbh pic.twitter.com/oqQtobLZNe
— Thierry Breton (@ThierryBreton) May 19, 2020
Il DSA proposto da Breton parte da premesse simili a quelle americane – cioè che le piattaforme come i social network in linea generale non siano responsabili dei contenuti che pubblicano – ma chiede maggiore rapidità nel rimuovere i contenuti chiaramente illegali come violazioni di copyright, materiale terroristico e pedopornografico, e prevede alcune limitazioni maggiori per quelli che definisce very large online platforms, “piattaforme digitali molto grandi”, un’espressione che nel DSA si ritrova ben 92 volte.
L’articolo 25 del DSA definisce le very large online platforms come dei servizi che servono ogni mese una media del 10 per cento della popolazione europea, cioè più o meno 45 milioni di persone. A queste piattaforme chiede soprattutto maggiore trasparenza sulle inserzioni pubblicitarie di politici o aziende, un processo annuale di verifica di un organo indipendente sulle proprie attività, ma soprattutto un meccanismo di “analisi del rischio” che secondo gli esperti sarà uno dei punti più controversi della proposta di legge.
La proposta prevede che almeno una volta all’anno le very large online platforms individuino e condividano pubblicamente i «rischi sistemici» provenienti dalle loro attività: in sostanza, che spieghino al pubblico quali sono gli elementi più problematici delle conversazioni fra utenti che avvengono al proprio interno. Al comma c) del paragrafo 1 dell’articolo, vengono specificati gli ambiti dei «rischi sistemici», che per ora sono molto ampi: la Commissione cita «la manipolazione intenzionale dei servizi […] con effetti negativi presenti o futuri sulla protezione della salute pubblica, dei minori, del dibattito pubblico, o effetti negativi presenti o futuri sul processo elettorale e la pubblica sicurezza».
Secondo alcuni, questo è il testo con cui di fatto la Commissione Europea vorrebbe vincolare legalmente i social network a prendere provvedimenti contro le notizie false e il cosiddetto hate speech, che in italiano chiamiamo “incitamento all’odio”: due elementi che favoriscono la polarizzazione e che portati all’estremo possono anche alimentare movimenti radicali come quello che si è organizzato per attaccare il Congresso. Per i social che violano queste misure, la Commissione proporrebbe infatti multe elevatissime (che peraltro già oggi vengono comminate senza un preciso sistema di riferimento).
Il problema è che entrambi sono concetti piuttosto sfuggenti e scivolosi da applicare, tanto che al momento nemmeno le leggi nazionali riescono a definirle con confini precisi. In altre parole, come ha detto a Politico l’ex vicepresidente di Facebook Richard Allan: «un sacco di conversazioni online sono sgradevoli e offensive ma non contengono materiale illegale: come vanno gestite?».
Un esempio nel dibattito pubblico italiano è l’utilizzo della parola “clandestino”. Ormai da anni gli esperti di diritto e immigrazione e l’Ordine dei giornalisti spiegano che è scorretta dal punto di vista giuridico e contiene una connotazione negativa e discriminante per definire le persone che sono entrate irregolarmente in Italia. Eppure giornali e politici di destra continuano ad usarla con frequenza, così come altre espressioni offensive e discriminatorie: possono farlo oppure no? Dove tracciare una linea? E chi la decide? Sono domande a cui è molto difficile dare una risposta.
La libertà di utilizzare formule del genere – e di diffondere notizie false o distorte – viene peraltro esplicitamente rivendicata dall’estrema destra.
Un paio d’anni fa Luca Morisi, stretto collaboratore del segretario della Lega Matteo Salvini e responsabile della gestione dei suoi canali social, rispose a una domanda di YouTrend sul proprio stile comunicativo spiegando che «Salvini fotografa una realtà, lo fa con tinte forti e piace anche per il realismo, la nettezza e la chiarezza dei propri messaggi». Ancora oggi tramite i propri account Salvini diffonde quotidianamente notizie false usando spesso un linguaggio discriminatorio, seguendo un metodo che unisce tutti i principali leader dell’estrema destra nel mondo, compreso Trump. E lo fa senza però violare alcuna legge, almeno esplicitamente, né incoraggiare apertamente alla violenza.
D’altronde avere leggi troppo stringenti su questi temi potrebbe avere conseguenze opposte: uno dei paesi europei che hanno adottato le misure più stringenti sulle notizie false e che desidererebbero maggiore controllo sulle conversazioni che avvengono sui social network è l’Ungheria, un paese guidato da un governo-semiautoritario che lo scorso anno aveva promosso una legge che imponeva il carcere per chi diffondeva notizie considerate false, poi revocata.
Per questa ragione secondo diversi esperti sarà molto difficile che la Commissione possa scegliere di regolare più severamente i contenuti di questo tipo. Mario Mariniello, esperto di tecnologia del think tank Bruegel, sostiene per esempio che il testo del DSA sia molto generico su questo punto, e sottolinea che non si parli mai né di hate speech né di diffusione di notizie false, né di obblighi per assicurare la rimozione di contenuti del genere in tempi rapidi. Se invece verrà interpretato in maniera espansiva, la misura potrebbe vincolare i social network a sospendere o rimuovere gli account che rappresentano quel «rischio sistemico» di cui parla la Commissione: come successo in questi giorni a Trump, insomma, ma inserito in una procedura più chiara e trasparente.
Molto dipenderà dalle modifiche che la proposta della Commissione subirà nel suo iter legislativo, passando dal Parlamento Europeo e dal Consiglio dell’Unione Europea, l’organo composto dai rappresentanti dei governi dei 27 paesi membri.
Il Parlamento Europeo potrebbe chiedere per esempio misure più restrittive: già in passato aveva approvato delle risoluzioni per chiedere norme europee più chiare sulla disinformazione e lo hate speech sui social network, e il centro studi del Parlamento ritiene per esempio che in assenza di un quadro normativo chiaro ogni stato si muoverà in ordine sparso, per esempio sul tema dello hate speech, permettendo di fatto zone d’ombra e indebolendo la posizione della Commissione. Come succede molto spesso per le leggi europee, per capire la portata e l’ambiziosità di una certa misura bisognerà aspettare il testo finale.
La Commissione Europea ha detto di aspettarsi che l’iter legislativo del DSA e del suo provvedimento gemello – il Digital Markets Act (DMA), che si propone di individuare, limitare e punire i comportamenti anticompetitivi delle piattaforme – verrà approvato in circa un anno e mezzo, per poi entrare in vigore nel 2023.