domenica 23 Giugno 2024
Un articolo sulla Columbia Journalism Review firmato da Mathew Ingram – esperto osservatore dei cambiamenti nel giornalismo – ha ridimensionato le paure delle conseguenze dell’uso di tecnologie raffinate nel diffondere informazioni false, citando alcune ricerche. Ingram spiega, in sintesi, che “deepfake” o altri contenuti artefatti con grande verosimiglianza non attecchirebbero particolarmente per questa loro crescente “qualità”, ma grazie alla disponibilità delle persone a voler credere ai loro messaggi. E che insomma la vera efficacia di questi messaggi dipende da chi li riceve: “riflettono le opinioni delle persone, le confermano, le lusingano, e cercano di approfittarne”. O che, per esempio, a confortare un messaggio servano di più i bot e gli account falsi che sembrano condividerlo, facendolo credere “normale” e diffuso, piuttosto che la sua qualità tecnica originaria o il suo sembrare più realistico. «Più rilevante del problema tecnologico è quello umano: che la nostra capacità di pensiero si sciolga nei nostri pregiudizi; che condividiamo messaggi perché sono divertenti o generano indignazione e non perché sono veri; che la nostra fiducia in qualunque fonte di informazione scompaia».
Le truffe funzionano sull’ingenuità dei truffati, ed è sugli umani che bisogna intervenire, sembra dire Ingram, più che sulla tecnologia: media tradizionali e social network – che sono una tecnologia assai tradizionale, solo amplificata – possono essere strumenti di questo intervento, oppure assecondare le nostre tendenze a voler essere accontentati, indignati, mobilitati, lusingati dal pensare di avere ragione e convinti che qualcuno ci stia togliendo ciò che ci spetta.
Fine di questo prologo.
Charlie è la newsletter del Post sui giornali e sull'informazione, puoi riceverla gratuitamente ogni domenica mattina iscrivendoti qui.