“Siamo ancora delle scimmie”
Un nuovo saggio di Beniamino Pagliaro spiega il valore dell'attenzione in un mondo pieno di stimoli e distrazioni, e come ha cambiato il giornalismo e le notizie
Una delle cose che contraddistinguono di più la vita contemporanea nelle società sviluppate è il valore dell’attenzione: l’aumento dei mezzi di comunicazione e di intrattenimento, unito alla grandissima diffusione degli smartphone, ha moltiplicato gli stimoli a cui siamo sottoposti e quindi le distrazioni possibili. Molto più che in passato siamo continuamente stimolati a leggere, guardare, ascoltare e comprare, oltre che ovviamente a condividere noi stessi inserendoci nel flusso di stimoli e contenuti che chiedono l’attenzione di qualcuno. Beniamino Pagliaro, giornalista della Stampa e fondatore della newsletter di notizie Good Morning Italia, ne parla in un agile saggio pubblicato da Hoepli e da oggi in libreria: Attenzione! Capire l’economia digitale ti può cambiare la vita. Il libro spiega i sistemi che i social network e Google usano per attirare la nostra attenzione, e parla anche di giornalismo e di come è cambiato negli ultimi anni.
L’estratto di seguito parla in particolare di come gli articoli e i servizi prodotti dai giornalisti debbano competere con le informazioni prodotte da chi in passato era solo un lettore. Poi di come siamo passati dall’accesso alle notizie attraverso le prime pagine dei giornali – «bene prezioso e pensato nell’era della società di massa che non c’è più» – a quello del feed di Facebook, che inevitabilmente ci chiude in una “bolla di attenzione” personalizzata.
***
Tutti produciamo informazione, ed è facile pensare che dunque il mestiere più antico del mondo – il giornalismo, non la prostituzione – sia compito di tutti. Per alcuni versi, lo è. Quando la terra trema, i primi a sapere del terremoto sono i cittadini, e i social media si riempiono di messaggi. È normale: prima dei giornalisti arrivano le persone. La differenza la fa il luogo dove stiamo scrivendo – il vecchio contenitore – e per chi lo stiamo facendo. Ma l’informazione che stiamo diffondendo è verificata e affidabile?
Ognuno di noi ha sperimentato il fastidio di conoscere qualcosa molto meglio di come quella stessa storia veniva raccontata. Quante volte hai letto su un grande giornale nazionale un articolo impreciso sulla tua città? Quante volte hai pensato che, in fondo, conoscevi meglio la realtà di quella grande firma giunta fino a casa tua? Le risposte possono essere almeno due: forse hai ragione e l’inviato di turno si è convinto facilmente di una teoria senza indagare, non ha studiato, non ha proprio capito. Oppure ha intuito una via corretta che però è incoerente con l’idea di città che tu hai da anni. Siamo di nuovo a fare i conti con “il mondo oltre la tua testa”. E aggiungiamo la complessità di dover raccontare una dimensione locale in mezza pagina a una platea di lettori che legittimamente, della tua amata città, non aveva mai sentito nemmeno il nome.
Così la reazione più scontata è l’intolleranza. Quando un cronista si avventura nelle Prealpi venete e racconta il fisiologico declino demografico di un piccolo comune, il sindaco prende carta e penna per scrivere al direttore del giornale e contestare la ricostruzione. Il mondo che vede quel sindaco è diverso da quello visto dal cronista, e forse è perfino giusto che sia così.
La prima pagina non conterrà mai tutti i nostri punti di vista, ma c’è uno spazio che raccoglie le nostre notizie, le sensazioni e le immagini. Fatto su misura per noi. È una nuova invenzione e risponde in buona parte a una logica che ricorda quella editoriale. Se ti suona familiare non è sorprendente: il tuo newsfeed di Facebook è un flusso di coscienza collettivo ma personalizzato. Non è una prima pagina, perché può cambiare in ogni istante, ma sembra essere sempre in grado di raccontare da vicino il tuo mondo. Il newsfeed è su misura, e nella personalizzazione sta la sua grande e incontrollabile potenza. Gli ingegneri che disegnano le regole del newsfeed ce l’hanno spiegato: lavorano giorno e notte per far sì che, ogni volta che un utente decida di aprire l’app di Facebook, il suo mondo si ricomponga sullo schermo. A scegliere cosa vedremo sono gli algoritmi impostati in precedenza: regole che analizzano il nostro comportamento, segnali che abbiamo lasciato nel nostro cammino online, tracce che dovrebbero consigliare a Facebook quale post mostrarci per primo. Il social media è il filtro attraverso il quale guardiamo il nostro mondo, e contiene quasi tutto: le fotografie di una vacanza, il dotto editoriale sulla riforma costituzionale, la pubblicità di una serata nel bar migliore della città, il video di un gattino che cade nella neve fresca, un articolo sullo sciopero dei treni. L’elenco è davvero infinito, perché infinito è il numero di aggiornamenti che la somma dei nostri amici pubblica.
Gli algoritmi decidono cosa vedremo prima: le regole sono disegnate per non farci perdere una foto importante o il post di una persona vicina. Ma non sempre è facile comprendere il significato di “importante”: una fotografia con molti commenti e like riscuote grande interesse, forse però non è davvero importante. Abbiamo appena cliccato ripetutamente sul profilo di un lontano conoscente, per squisiti e oscuri meccanismi della nostra attenzione? Facebook potrebbe pensare che d’ora in poi siamo molto interessati a sapere tutto di lui.
Ritorniamo alla riunione della prima pagina: ci vogliono ore, a volte, e discussioni, conoscenze, competenze, per decidere cosa è più importante. Ma chi decide non sa quasi nulla di chi leggerà. Chi decide la “prima pagina” di Facebook conosce invece molto, ma deve tradurre in significato la mole di dati che ha su di noi. Non è facile, ma a giudicare dalla crescita di Facebook il gioco continua a funzionare. Ogni giorno milioni, miliardi di utenti aprono l’app e guardano il mondo attraverso Facebook.
La storia si complica ancora di più quando tra i post inseriamo anche la variabile della notizia. Tutto il newsfeed, a partire dallo stesso nome, usa concetti vicini al contesto editoriale. Pubblichiamo un aggiornamento o scriviamo un commento, come abbiamo fatto per anni sul sito di un giornale. Sono gli amici a consigliarci di leggere un articolo, e il nome della testata sembra sempre meno importante: abituati da secoli a riconoscere l’autorevolezza della fonte e poi a concentrarci sul contenuto, scopriamo ora articoli presentati come se fossero tutti uguali. Tessere blu su sfondo azzurrino di un mosaico multiforme di informazione.
Non è finita qui. Il meccanismo di Facebook usa complesse tecnologie di elaborazione dei dati e arruola le migliori menti di una generazione in progetti di intelligenza artificiale, ma per ora appare incrementale: registra ogni azione che facciamo e amplifica quello che intuisce esserne il significato. Se facciamo like a ogni post pubblicato dal nostro amico che condivide serialmente tutti gli articoli del Manifesto, è probabile che i contenuti condivisi da quell’amico e anche quelli condivisi dallo stesso Manifesto appaiano di frequente in testa al nostro newsfeed. Se oltre all’amico marxista abbiamo su Facebook anche un amico di estrema destra che condivide tutti gli articoli di Libero, e se anche in quel caso faremo like a ogni suo post, è altrettanto probabile che il nostro newsfeed, seppur rivelando qualche segnale di confusione dell’identità politica, sia ben composito e offra visioni molto diverse tra loro. Ma se così non fosse?
Stiamo scoprendo una delle conseguenze estreme della personalizzazione. Quando cerchiamo su Google la parola “cinema” e siamo a Torino, può essere utile scoprire direttamente nei risultati il luogo dove andremo a vedere un film. Non c’è alcuna magia: stiamo dando a Google due informazioni – la nostra posizione geografica e la parola cinema –, e il motore di ricerca ci risponde al meglio. Buona visione. Ma se cerchiamo un’informazione su un partito politico, il gioco si complica, e raramente la nostra attenzione correrà oltre il primo risultato. Così arrivare primi significa essere la verità e arrivare secondi non conta.
Con tecniche e risultati diversi, i giganti dell’attenzione utilizzano algoritmi che provano a darci la migliore risposta basandosi su ciò che sanno di noi. È sbagliato pensare a un complotto internazionale, non c’è un disegno che muove le pedine, ma è così che nasce la filter bubble, la bolla definita nel 2011 dall’attivista di Internet Eli Pariser. “Un mondo costruito da ciò che ci è familiare”, disse Pariser, “è un mondo in cui non c’è nulla da imparare, in cui c’è un’invisibile autopropaganda che ci indottrina con le nostre stesse idee”.
La sua tesi è stata discussa per anni e in pochi hanno una risposta certa. Nel 2015 Facebook ha pubblicato uno studio su oltre 10 milioni di utenti americani che ridimensiona l’idea della bolla. Facebook sostiene infatti che la polarizzazione e l’isolamento nelle proprie convinzioni derivi più dalle scelte autonome compiute dalle persone che dai suoi algoritmi. È possibile. Gli studi sul funzionamento del nostro cervello spiegano che riconosciamo con più facilità ciò che abbiamo già visto in precedenza.
Un ricercatore italiano si è messo a studiare i meccanismi e a sperimentare la diffusione di informazione e disinformazione su Facebook. L’esperimento della squadra di Walter Quattrociocchi ha coinvolto due milioni di utenti in Italia e 55 milioni negli Stati Uniti. A questi utenti sono state mostrate due tipologie di informazione: notizie scientifiche e notizie di complotti e cospirazioni. La conclusione di Quattrociocchi è che “siamo ancora delle scimmie”: tutti gli utenti sono polarizzati e il grafico con le reazioni si divide presto a metà. Coloro che credono ai complotti e coloro che credono alla scienza creano due gruppi ben diversi che raramente si intersecano.
Cosa significa la ricerca di Quattrociocchi se proviamo a spostarla nel campo dell’informazione? Davanti a una notizia tendiamo sempre a cercare di confermare un nostro pregiudizio, ciò che sappiamo già, e ignoriamo le voci contrastanti. È questo meccanismo a creare le bolle: “Più un utente è coinvolto da una narrativa specifica”, spiega Quattrociocchi, “più è circondato da amici che condividono la sua visione del mondo”. La ricerca è andata oltre e ha provato a contestare, un post alla volta, le teorie cospirazioniste, ma pochissimi hanno dato prova di accorgersene: provare a convincere qualcuno di un fatto è praticamente inutile, oppure dannoso, perché amplifica le condivisioni del post originale che contiene la bufala.
“Siamo ancora delle scimmie”, ammette dunque Quattrociocchi. Il suo studio non smentisce del tutto la risposta ufficiale di Facebook, che sposta il fuoco sulla scelta delle persone, ma apre un ennesimo squarcio inquietante sul rapporto tra noi e la realtà: quanto ci rendiamo conto di avere un filtro davanti agli occhi?
Copyright © Ulrico Hoepli Editore S.p.A. 2018