Dovremmo non rispondere ai sondaggi elettorali?
Non è detto che prevedere il risultato delle elezioni con precisione, ammesso sia possibile, sia per forza un bene
Da diversi anni in molti paesi del mondo il dibattito sull’affidabilità dei sondaggi tende a occupare grande spazio sui media nei giorni successivi alle elezioni politiche. Nel 2016, dopo le presidenziali statunitensi vinte da Donald Trump, si parlò per settimane dell’errore dei sondaggi principali nel prevedere i risultati in alcuni stati. In molti si chiesero se il margine di quell’errore fosse più o meno ampio rispetto a quello di circa tre punti previsto nei sondaggi, ma in generale emerse un’inclinazione – ancora piuttosto diffusa – a screditare i sondaggi perché considerati inaffidabili e quindi poco utili.
Esiste tuttavia un dibattito laterale e per il momento abbastanza teorico che, partendo da premesse opposte, e cioè che i sondaggi tendenzialmente ci prendono molto, cerca di comprendere quali rischi comporterebbe per il funzionamento della democrazia un ipotetico scenario in cui algoritmi straordinariamente accurati siano in grado di prevedere con esattezza i risultati di qualsiasi elezione. Sebbene non sia questo l’obiettivo dei sondaggi, la cui capacità riconosciuta è soltanto quella di fornire una rappresentazione significativa ma presente e provvisoria dell’opinione pubblica, in anni recenti diversi sondaggisti hanno sviluppato modelli statistici che includono una quantità crescente di informazioni demografiche e di altro tipo, riducendo l’incertezza delle previsioni.
Alcuni analisti affermano che una condizione ipotetica in cui l’incertezza delle previsioni fosse ridotta a zero, ammesso che sia raggiungibile nella pratica, non sarebbe desiderabile. In questo caso, dicono, l’azione politica rischierebbe di avvitarsi ed esaurirsi in una continua interrogazione dell’elettorato per mantenere il consenso, a vantaggio dei gruppi in grado di far sviluppare la tecnologia necessaria per le previsioni e sostenerne le spese. In parte è una trasformazione della politica in atto già da anni, come osservano gli stessi analisti chiedendosi se non sia il caso di negare o limitare l’accesso alle informazioni richieste nei sondaggi prima che i continui progressi tecnologici li rendano infallibili.
Un’opinione piuttosto comune riguardo ai sondaggi è che siano uno strumento di indagine scientifico e “neutro”, cioè in grado di fornire dati grezzi utili a chi è chiamato a prendere decisioni politiche. Alcune ricerche suggeriscono tuttavia come questo strumento, per quanto autonomo nel suo funzionamento, sia nelle democrazie parte di un sistema più ampio e complesso, soggetto a influenze di vario tipo, come anche i media e la scienza stessa. E di tutte queste influenze le stesse società di sondaggi, perlomeno le più autorevoli e affidabili, sono perfettamente consapevoli.
– Leggi anche: Quanto siamo prevedibili
In uno studio pubblicato a novembre sulla rivista Politics & Society il sociologo del Dartmouth College Sunmin Kim e il politologo della Harvard University Taeku Lee hanno studiato la relazione tra l’opinione pubblica e i sondaggi esaminando quelli condotti nel corso degli anni in Corea del Sud, da loro considerata un esempio di evoluzione politica significativa e più facile da osservare. Nell’arco di una generazione, tra gli anni Cinquanta e la fine degli Ottanta, la Corea del Sud passò da un regime autoritario a una società democratica in cui i sondaggi diventarono parte integrante del tessuto politico.
Dopo aver intervistato sondaggisti, giornalisti, professori universitari ed esperti di campagne elettorali sudcoreani, Kim e Lee hanno confutato l’idea che i sondaggi siano una semplice tecnica di misurazione delle opinioni politiche del pubblico, o che migliorino necessariamente la democrazia, se adeguatamente condotti. Come vale per altri strumenti di indagine, la loro utilità dipende dalla qualità dei dati, dalla tecnologia utilizzata per ottenerli e da altri numerosi «fattori di mediazione». Sebbene nelle scienze sociali siano ampiamente considerati un tipo di processo democratico, i sondaggi d’opinione «rappresentano una costruzione sociale dell’opinione pubblica, gran parte della quale è influenzata dai sondaggisti e dai loro processi, e dai media», hanno scritto Kim e Lee.
Secondo gli autori dello studio esiste una contraddizione tra l’ideale del sondaggio e la sua pratica: «la realtà è che entra in gioco ogni tipo di rumore, compresi i comportamenti in malafede e opportunistici». Un tipo di condizionamento tipico del campione del sondaggio deriva innanzitutto dalla tecnologia utilizzata per raccogliere i dati. Anche se la percentuale di copertura della rete cellulare in Corea del Sud è tra il 95 e il 98 per cento, per esempio, condurre sondaggi tramite cellulare tende a generare una sovrarappresentazione dell’elettorato giovane. Le persone intervistate possono poi essere più o meno propense a esprimere le loro opinioni a seconda del metodo utilizzato: se il sondaggio è automatizzato o condotto di persona.
Le risposte possono inoltre essere più o meno condizionate dall’intervistatore e variare a seconda delle parole utilizzate nelle domande, come è ben noto anche a chi si occupa di studi scientifici o di testimonianze nei processi. Nella storia della Corea del Sud, hanno scritto Kim e Lee, ci sono stati casi di società di sondaggi assunte da candidati politici interessati a migliorare le loro campagne elettorali. A quelle società i candidati chiedevano, tra le altre cose, di condurre sondaggi con domande appositamente formulate per screditare in modo implicito un rivale politico.
Alle domande ingannevoli e agli altri rischi noti di manipolazione dell’opinione pubblica, che i sondaggisti affidabili conoscono e sanno come evitare o limitare, alludeva in parte anche il giornalista scientifico statunitense e primo storico redattore della sezione news della rivista scientifica Science Daniel Greenberg in un articolo pubblicato nel 1996 sul quotidiano The Baltimore Sun, riguardo alla «piaga quadriennale dei sondaggi per le elezioni presidenziali». Più che all’affidabilità dei risultati dei sondaggi, Greenberg si riferiva a «un’infestazione di sondaggi che si muove più in profondità nel sistema elettorale» attraverso il dibattito sviluppato dai media a partire dai sondaggi: un aspetto preso in considerazione anche da Kim e Lee.
Analizzando i sondaggi diffusi prima delle elezioni, per esempio, i media si concentrano spesso sul candidato favorito rispetto a quello sfavorito, e questo può aiutare il candidato principale a guadagnare ulteriore slancio. Nel caso di un’elezione molto combattuta, in cui uno dei candidati sia dato in vantaggio di cinque punti percentuali da un sondaggio il cui margine di errore sia di 4,5 punti, i due candidati sarebbero di fatto in parità in termini statistici, ma i media tenderebbero a concentrarsi su chi è più avanti tra i due e a trascurare il contesto, hanno scritto Kim e Lee.
– Leggi anche: I sondaggi elettorali negli Stati Uniti sono ancora utili?
Elencando una serie di possibili effetti distorsivi noti dei sondaggi, che in alcuni paesi sono peraltro alla base del divieto di diffonderli a ridosso delle elezioni, Greenberg scrisse che i sondaggi «sono facilmente confusi con la realtà politica», «rassicurano i leader» e «scoraggiano gli elettori ritardatari». Possono far sembrare che «tutto sia finito molto prima del giorno delle elezioni», e questo secondo lui ha progressivamente indebolito la funzione storica delle campagne: «informare gli elettori sui candidati e sui problemi in modo che potessero arrivare a una decisione il giorno delle elezioni».
I risultati dei sondaggi hanno incentivato la tendenza dei candidati a modificare il loro approccio, il loro carattere e la loro personalità sulla base delle ansie e delle paure rilevate nell’elettorato, promuovendo un’idea di governo fondata sui sondaggi stessi. «La politica del “dito al vento” rappresenta il trionfo della tecnica dei sondaggi, essenziale per i politici moderni quanto il radar lo è per l’aviazione», scrisse Greenberg, suggerendo poi implicitamente alle persone intervistate di non rispondere e quindi di non condividere la loro opinione, per ridurre nel tempo la popolarità dei sondaggi e l’influenza che esercitano sull’azione politica.
La possibilità che le persone intervistate preferiscano non ammettere le loro preferenze o mentire sui candidati che voterebbero è nota da tempo ai sondaggisti. Negli Stati Uniti, per esempio, è alla base del cosiddetto “effetto Bradley”, dal nome del sindaco di Los Angeles Tom Bradley, democratico e nero, che alle elezioni governative della California del 1982 perse contro George Deukmejian, repubblicano e bianco, nonostante fosse in testa nei sondaggi. Secondo questa teoria può esistere una discrepanza più o meno ampia tra i risultati dei sondaggi e i risultati elettorali in alcune elezioni in cui un candidato bianco ne affronta uno non bianco. Alcuni elettori bianchi che intendono votare per il candidato bianco tendono infatti a mostrare incertezza nei sondaggi, o a mentire del tutto sulla loro preferenza, per apparire di mentalità più aperta.
La critica fondamentale di Greenberg non riguardava tuttavia le presunte imperfezioni dei sondaggi né l’eventuale manipolazione dei risultati, ma la centralità storica che i sondaggi avevano assunto nel dibattito e sui media già negli anni Novanta. Secondo altri analisti d’accordo con la sua interpretazione quella centralità ha a sua volta incentivato nel corso del tempo un’ambizione crescente ad ampliare quanto più possibile la raccolta dei dati, attraverso strumenti tecnologici sempre più sofisticati, in modo da limitare i margini di errore delle previsioni.
Nel libro del 2023 The Age of Prediction: Algorithms, AI, and the Shifting Shadows of Risk gli autori statunitensi Christopher Mason e Igor Tulchinsky citano come esempio noto ed estremo di previsione basata sulla raccolta dei dati il caso Cambridge Analytica, l’azienda accusata nel 2018 di aver permesso a società terze di accedere ai dati personali degli utenti senza il loro consenso. Facebook, in particolare, aveva permesso all’azienda di accedere ai dati di 87 milioni di utenti, poi utilizzati dai clienti di Cambridge Analytica, fra cui il comitato elettorale di Trump, per realizzare campagne personalizzate su ogni singolo utente.
Cambridge Analytica, fallita nel 2018, era stata co-fondata nel 2013 da Robert Mercer, un imprenditore miliardario statunitense molto conservatore (e in rapporti con Steve Bannon, ex consigliere e stratega di Trump). Come raccontato dall’informatico canadese ed ex dipendente dell’azienda Christopher Wylie, principale fonte dei giornali che resero noto il caso, uno degli obiettivi di Cambridge Analytica era analizzare le relazioni tra gli orientamenti politici e le tendenze culturali e psicologiche nella società statunitense. «Se avessimo potuto copiare i profili dei dati di tutti e replicare la società in un computer – come il videogame The Sims, ma con dati di persone reali – avremmo potuto simulare e prevedere cosa sarebbe accaduto nella società e nel mercato», scrisse Wylie descrivendo l’ambizione di Mercer.
Sebbene Cambridge Analytica non fosse una società di sondaggi, lo scandalo in cui fu poi coinvolta insieme a Facebook cominciò da un’applicazione basata su un sondaggio di 120 domande sviluppato da un ricercatore dell’Università di Cambridge, Aleksandr Kogan. Descritta come uno strumento per ricerche psicologiche, l’applicazione proponeva agli utenti di compilare un quiz retribuito con pochi dollari e prometteva di indovinare alcuni aspetti della loro personalità e di prevedere il loro comportamento, basandosi sulle attività svolte online. Circa 270mila persone la utilizzarono, condividendo informazioni personali e relative anche alla loro rete di amici. Secondo le stime dei giornali che se ne occuparono, quella raccolta dei dati permise di memorizzare informazioni di vario tipo su milioni di profili Facebook, tra cui interessi, fotografie, posizioni geografiche, pagine seguite e contenuti graditi.
Mason e Tulchinsky considerano significativo il caso di Cambridge Analytica perché mostra, secondo loro, un aspetto centrale delle moderne tecnologie di previsione: a un certo punto, per avere successo, sollevano questioni relative alla privacy. È un problema che interessa peraltro settori anche molto diversi, accomunati dal fatto di utilizzare la tecnologia per prevedere il futuro: dall’andamento dei mercati finanziari alla genomica (Mason è un professore di genomica e biofisica all’università Weill Cornell Medicine a New York, Tulchinsky il fondatore di WorldQuant, una società d’investimento del Connecticut specializzata in fondi speculativi). «La previsione dei fenomeni naturali è l’oggetto di quello sforzo maestoso noto come scienza moderna. Vogliamo sapere che tempo farà, come si diffonderà la pandemia o quando si verificherà il terremoto», scrivono Mason e Tulchinsky.
Sebbene alcune questioni teoriche come quella posta da Greenberg siano già emerse da decenni, il recente sviluppo di tecniche per ordinare enormi quantità di dati alla ricerca di modelli e regolarità di qualsiasi tipo pone questioni sostanzialmente nuove. «Sequenziare 3 miliardi di coppie di basi azotate [il genoma contenuto nel nucleo delle cellule] in meno di otto ore costa oggi meno di 200 dollari: una riduzione dei costi di un milione di volte rispetto ai primi progetti di sequenziamento, che richiesero circa un decennio per essere completati», scrivono Mason e Tulchinsky. Ma come mostra l’esempio della genomica servirebbero dati unici per ciascun individuo per ottenere previsioni il più possibile accurate, dal momento che non esiste un solo genoma, perché il materiale genetico è diverso da persona a persona.
Nel caso del comportamento umano, cioè il genere di informazioni che interessano ad aziende come Cambridge Analytica, le previsioni sono estremamente difficili e richiedono una comprensione approfondita degli impulsi e delle dinamiche umane, per raggiungere un certo grado di precisione o quantificare il margine di incertezza. Ma rispetto agli anni Novanta è comunque più facile immaginare una serie di algoritmi e programmi sviluppati non per manipolare i dati elettorali – il rischio più noto e dibattuto, di cui esiste maggiore consapevolezza – ma per apprendere modi di prevedere con accuratezza i risultati delle elezioni.
Un sistema sviluppato con questo scopo, scrivono Mason e Tulchinsky, probabilmente includerebbe il divieto di utilizzare tecniche di manipolazione, e si concentrerebbe soltanto sulle informazioni che tradizionalmente interessano ai sondaggisti: quante persone voteranno, quanto è grande l’insieme degli elettori indecisi. Ma terrebbe in considerazione anche i fattori psicologici che determinano il modo in cui le persone prendono le decisioni. È possibile immaginare che «i fallimenti che costellano la storia dei sondaggi svaniranno, i tassi di errore si ridurranno e la fiducia del pubblico aumenterà». E man mano che la capacità predittiva aumenterà, il rischio di fallimento delle previsioni diminuirà costantemente fino ad avvicinarsi allo zero.
Una situazione del genere, ammesso sia possibile raggiungerla, «sarebbe un bene o un male, da una prospettiva democratica?», si chiedono Mason e Tulchinsky: i sondaggi, cioè, rispecchierebbero i sentimenti degli elettori oppure no? «Come reagirebbero i potenziali elettori alla convinzione profonda che i sondaggi pre-elettorali siano corretti? Eccetto che nelle elezioni che si prevedono estremamente combattute, perché dovrebbero preoccuparsi di riflettere su questioni pubbliche o di votare, se non per una sorta di gesto civico o un rito rassicurante?». Qualcosa di simile succede peraltro già nei mercati, dove un numero crescente di investitori sceglie di acquistare indici senza alcuno sforzo di ricerca né di analisi, osservano Mason e Tulchinsky.
L’ipotesi di un elettorato dissuaso dal votare, perché portato a credere di essere ininfluente rispetto all’esito previsto delle elezioni, è presente in molte riflessioni critiche sui sondaggi, tra cui quella di Greenberg. Ma se le previsioni diventassero estremamente accurate, come gli attuali mezzi tecnologici permettono di immaginare, il rischio di smettere di votare potrebbe interessare milioni di persone convinte dell’infallibilità dei sondaggi, secondo Mason e Tulchinsky. E questo finirebbe per introdurre un elemento di grande volatilità nei risultati, come succede ai titoli di mercato con un basso capitale “flottante”, cioè la quota di azioni effettivamente disponibili per la negoziazione: in questi casi anche un numero relativamente basso di transazioni (i voti, nel caso delle elezioni) può avere un impatto notevole sul prezzo delle azioni (i risultati delle elezioni).
Un’estesa fiducia nell’infallibilità dei sondaggi avrebbe probabilmente ripercussioni profonde anche sulla politica. I sondaggi potrebbero diventare uno strumento di governo, appannaggio di classi politiche pronte a «rivolgersi direttamente al popolo, eliminando il margine di manovra tradizionalmente concesso ai legislatori eletti per prendere decisioni nelle democrazie rappresentative». Secondo Mason e Tulchinsky la politica è un’attività fondata sulla necessità di far fronte a un futuro incerto, mentre le previsioni si basano sull’ambizione di ridurre quell’incertezza, sfruttando possibilità tecnologiche inimmaginabili all’epoca della nascita delle moderne democrazie. E la raccolta dei dati personali, scrivono Mason e Tulchinsky, è uno degli aspetti che tendono a mostrare con maggiore chiarezza la divergenza latente tra lo scopo della politica e quello delle previsioni.
In una democrazia la politica ha atteggiamenti ambivalenti verso le previsioni: da un lato venera esperti di mercato e commentatori politici che vestono i panni dei veggenti (finché non si sbagliano troppe volte), ma dall’altro resiste ai tentativi di limitare il libero arbitrio e alle ingerenze nell’autonomia dell’individuo. Le previsioni in grado di eliminare il rischio e l’incertezza potrebbero richiedere un tipo di raccolta di dati personali che può essere percepita come una violazione (e in alcuni casi richiedono già un pagamento). Oltretutto, il confine tra previsione e controllo – nessun accesso ai dati, nessuna garanzia – è spesso controverso.
Non c’è dubbio che il miglioramento delle capacità di previsione comporti enormi benefici in moltissimi ambiti, come mostra il caso della genomica nello sviluppo di efficienti strumenti diagnostici, preventivi e terapeutici delle malattie. Ma la continua spinta verso previsioni più accurate e affidabili comporta anche nuovi problemi e nuovi rischi, tra cui l’aumento degli incentivi per la raccolta di dati sempre più numerosi e migliori. Questa spinta, secondo la psicologa sociale Shoshana Zuboff, è alla base di un più ampio fenomeno di «capitalismo della sorveglianza», cioè la traduzione di esperienze umane private in dati comportamentali grezzi da poter vendere a inserzionisti desiderosi di anticipare le tendenze del mercato e ottenere previsioni accurate.
Secondo molti sondaggisti, per quanto i progressi tecnologici permettano di considerarla più verosimile che in passato, l’ipotesi di una società in grado di prevedere le scelte dell’elettorato è tuttavia alquanto irrealistica. Anche utilizzando le tecniche di sondaggio più sofisticate tra quelle attualmente disponibili, gli errori sono inevitabili, soprattutto nel caso di elezioni sul filo di lana, cioè un caso frequente nella storia recente. Come disse nel 2019 alla rivista Knowable Courtney Kennedy, vicepresidente del Pew Research Center, uno dei più importanti centri di studi specializzati nell’analisi dell’opinione pubblica e degli andamenti demografici, ogni sondaggio include sfumature e incertezze spesso trascurate sia dal pubblico che dagli esperti.
In generale è molto difficile valutare il sentimento di un intero paese, spiegò Kennedy, e lo è ancora di più prevederlo settimane o anche soltanto pochi giorni in anticipo rispetto al momento in cui le persone esprimono la loro preferenza nel giorno delle elezioni. «Per quanto io creda che siano preziosi nella società, i sondaggi non sono strutturati per dirti chi sarà il vincitore di elezioni combattute, perché semplicemente non hanno la precisione necessaria per farlo», disse Kennedy.