L’approccio di Substack alla moderazione dei contenuti
Il problema non è la disinformazione ma la fiducia, secondo il popolare servizio di newsletter, e la censura non fa che aggravarlo
La recente disputa tra la piattaforma di streaming Spotify e il cantautore canadese Neil Young ha ravvivato negli Stati Uniti e in altri paesi del mondo un dibattito da diversi anni molto presente riguardo ai limiti della libertà d’espressione sui social e alle responsabilità delle piattaforme sviluppate dalle grandi aziende di Internet nella diffusione della disinformazione. In sostanza, tralasciando ragioni più complesse alla base delle divergenze, Young ha fatto rimuovere tutta la sua musica da Spotify perché disapprova la scelta dell’azienda di ospitare un popolarissimo podcast responsabile, secondo lui, della diffusione di false informazioni sui vaccini.
Un originale contributo al dibattito sul ruolo delle piattaforme nella moderazione dei contenuti ingannevoli o, in generale, problematici è arrivato nei giorni scorsi dai fondatori del servizio di newsletter Substack. Contributo che, letto nella prospettiva della disputa tra Young e Spotify, da loro non citata esplicitamente, sembrerebbe sostenere la legittimità e utilità della scelta di Spotify di non censurare il podcast controverso, al netto delle considerazioni di tipo economico.
In un post sul canale curato dall’azienda, i fondatori di Substack Chris Best, Hamish McKenzie e Jairaj Sethi hanno descritto la perdita di fiducia delle persone come un problema più presente e urgente nelle società rispetto a quello della disinformazione, ritenuta piuttosto una conseguenza del primo. E hanno indicato come preferibile modello di moderazione dei contenuti quello meno incline possibile alla censura, considerata da Substack una scelta in grado di accrescere le conseguenze negative della disinformazione anziché di limitarla.
La questione della fiducia, intesa come la capacità delle persone di fidarsi non soltanto delle fonti d’informazione più attendibili ma anche della stessa autorità pubblica, era già emersa più volte durante la pandemia nelle analisi meno superficiali e più approfondite del fenomeno dei cosiddetti no vax. L’antropologa americana Heidi Larson, direttrice del progetto di contrasto della disinformazione sui vaccini Vaccine Confidence Project e da anni collaboratrice di UNICEF nei programmi di vaccinazione nel mondo, era stata tra le esperte più citate e intervistate da giornali e programmi di informazione.
– Leggi anche: Si fa presto a dire “no vax”
Secondo Larson il successo dei piani vaccinali è in larga parte fondato non sulla corretta comunicazione dei «fatti», generalmente rifiutati da molti no vax, bensì sulla solidità di un «contratto sociale» tra le persone, che tende a logorarsi in un contesto come quello attuale, dominato da sentimenti di anti-globalizzazione, nazionalismo e populismo. Sentimenti che «non spariranno se chiudi Facebook domani: si sposteranno», disse Larson in un’intervista del 2020 al New York Times citata dai fondatori di Substack, che condividono il suo punto di vista.
Substack è un apprezzato servizio di creazione e gestione di newsletter, il cui successo è molto aumentato durante la pandemia. Offre una piattaforma gratuita che permette di scrivere una newsletter e chiedere soldi ai lettori per finanziarla su base mensile o annuale, e si mantiene trattenendo il 10 per cento delle entrate totali di ogni newsletter. Ciascun autore può anche decidere di volta in volta quali nuove uscite della newsletter rendere gratuite e leggibili da chiunque e quali soltanto ai finanziatori.
La crescita di popolarità del servizio ha portato Substack a misurarsi con maggiori e più frequenti richieste di intervenire sui contenuti che ad alcune persone possono apparire discutibili, offensivi o addirittura pericolosi: una situazione abbastanza inevitabile per qualsiasi piattaforma che aumenti progressivamente il proprio numero di utenti (di autori e commentatori di newsletter, nel caso di Substack). «La nostra risposta rimane la stessa: prendiamo decisioni basate su principi e non su pubbliche relazioni, difenderemo la libertà di espressione e ci atterremo al nostro approccio discreto alla moderazione dei contenuti», hanno scritto Best, McKenzie e Sethi.
Esistono ovviamente dei limiti alla libertà d’espressione anche su Substack, definiti da una serie di linee guida che hanno lo scopo di salvaguardare la rispettabilità della piattaforma e impedire che diventi uno spazio o uno strumento per gli estremismi. E che preservi una sua attuale reputazione che la pone in un campionato del tutto differente – anche tecnicamente – da quello di altre piattaforme come Reddit, 8chan e simili, che fanno della sostanziale assenza di moderazione un loro tratto caratteristico.
– Leggi anche: Il New York Times non ha più voglia di gestire il suo gruppo Facebook sulla cucina
Fatto salvo il rispetto delle linee guida, Substack privilegia un approccio che attribuisce responsabilità principalmente a chi legge e a chi scrive, non a chi gestisce la piattaforma, tra l’altro molto diversa da quelle che filtrano e ordinano i loro contenuti tramite algoritmi. Considera inoltre la censura «come l’ultima risorsa, perché crediamo che un dibattito aperto sia la cosa migliore per gli autori e per la società», hanno scritto Best, McKenzie e Sethi. Anche se questo può portare a dover tollerare la presenza sulla piattaforma di cose che molte persone giudicano sbagliate o offensive, ma che altre decidono liberamente di leggere.
Questo approccio «è una precondizione necessaria per creare fiducia nell’ecosistema dell’informazione nel suo insieme», secondo Substack, perché all’aumentare dei tentativi delle istituzioni di controllare cosa può e cosa non può essere detto pubblicamente corrisponde un aumento di persone «pronte a creare narrazioni alternative su ciò che è “vero”». Quelle persone, come dimostrano già molti casi nelle nostre società, finiscono anzi per essere incentivate da teorie del complotto che proliferano in condizioni di scarsa fiducia sia nei media tradizionali che nei social media, e di limitazione del dibattito.
Anche la polarizzazione del dibattito è considerata da Substack come un effetto e allo stesso tempo, in un circolo vizioso, come una causa della perdita di fiducia reciproca tra le persone, oltre che nelle istituzioni. Spesso sui social le teorie del complotto finiscono infatti per essere rafforzate dalla diffusa tendenza a difendere un argomento soltanto per mostrare una qualche appartenenza a un gruppo, anche a costo di essere iperbolici o intellettualmente disonesti. E questo genera a sua volta in tutti i gruppi la tendenza a individuare eccessi negli altri gruppi e mai nel proprio, comportamento che accresce il sentimento di sfiducia e restringe sempre di più la gamma di punti di vista e opinioni accettabili all’interno di ciascun gruppo.
La dinamica è sempre la stessa: «È sempre l’altra parte, a essere folle, disonesta e pericolosa. È l’altra parte, che non accetta critiche perché sa di non poter vincere la discussione. Sono loro, che non si preoccupano della verità». E in questo modo ciascun gruppo diventa sempre più infastidito dai misfatti degli altri gruppi e cieco di fronte ai propri. E se è vero che non sono stati i nostri attuali sistemi di informazione a creare questa sfiducia, secondo Substack, è anche vero che quei sistemi – a cominciare dai social media – hanno contribuito ad amplificarla e ad accelerare certe dinamiche.
– Leggi anche: Dovremmo studiare meglio gli effetti dei social network sul comportamento collettivo
In particolare, uno degli effetti dell’avvento dei social media è stato quello di rendere ancora più affollata e agguerrita la competizione per l’attenzione a tutti i costi, a cui partecipano indistintamente stampa tradizionale, televisioni, radio, podcast e altri media. Da questo punto di vista l’approccio molto cauto nella moderazione dei contenuti adottato da Substack potrebbe, secondo i suoi fondatori, rivelarsi più utile nella costruzione di un’«economia dell’informazione» che privilegi la forza e la qualità delle relazioni sviluppate nel tempo. Al contrario di quanto avviene con l’«economia dell’attenzione», che si sviluppa attraverso lo sfruttamento di pulsioni basilari.
Ma le relazioni nell’economia dell’informazione sono tanto più solide e fondate su un rapporto di fiducia quanto più le persone che scrivono e quelle che leggono non si sentono ingannate, compiaciute e «coccolate». Sono solide se quelle persone hanno la percezione di trovarsi su una piattaforma che difende la libertà d’espressione e offre maggiori garanzie sull’assenza di manipolazioni poco chiare delle fonti di informazione a monte. «Detta chiaramente: la censura delle cattive idee rende le persone meno propense, non più propense, a fidarsi delle buone idee».
Il modo per far funzionare questi rapporti su Substack, secondo i suoi fondatori, è permettere alle persone che scrivono newsletter di avere una certa libertà e autonomia nelle loro relazioni con i lettori. Condizione evidentemente favorita da un sistema incentrato sugli abbonamenti anziché sulla pubblicità, e che fissa l’asticella di ammissibilità di un intervento esterno da parte degli amministratori a un punto «estremamente alto».
Rivolgendosi alle persone che disapprovano questo approccio e chiedono anzi maggiore intervento da parte di chi gestisce le piattaforme, secondo una tendenza ultimamente sempre più diffusa, Best, McKenzie e Sethi si chiedono: «Come sta andando? Funziona?». L’idea di Substack è che difendere la libertà di espressione sulla piattaforma non risolve il problema della disinformazione ma evita che peggiori quello della mancanza di fiducia. Perché la fiducia nasce dal rispetto delle relazioni costruite nel tempo, «non può essere conquistata con un comunicato stampa o un divieto sui social media», né può essere rafforzata respingendo conversazioni difficili.