domenica 5 Marzo 2023
«Per essere chiari, le intelligenze artificiali come ChatGPT o Sydney non possono avere emozioni», ha spiegato Emily Bell, ultima di una serie di commenti simili, sul Guardian venerdì. Insieme a Bell – che è un’esperta e stimata studiosa inglese di giornalismo e innovazione – anche molti altri hanno criticato il recente affollamento di articoli suggestivi appartenenti al fortunato format giornalistico “ho-parlato-con-un’intelligenza-artificiale-e-non-avete-idea-delle-cose-sconvolgenti-che-mi-ha-detto”. «Quello che questi sistemi sono incredibilmente capaci di fare è di emulare la scrittura degli umani e di prevedere le parole “corrette” da attaccare insieme: “grandi modelli di linguaggio” che hanno archiviato miliardi di articoli e dati pubblicati su internet. Quindi possono dare risposte alle domande che ricevono».
Accanto a questo ridimensionamento della deriva “emozionale” dell’informazione recente sulle intelligenze artificiali, Bell ha posto il problema dei rischi di affidabilità per il giornalismo – e per le nostre comunità di conseguenza – in termini meno vaghi di come viene fatto spesso: «il problema è che per le intelligenze artificiali la verità non è una priorità». Il loro uso produrrà una mole enorme di contenuti che saranno più che falsi, saranno autonomi dalla realtà e dalla verità come criteri di scelta. E se queste ipotesi sui rischi sembrano vaghe e inutilmente terroristiche, pensate alla leggerezza e all’eccitazione con cui vennero accolte a suo tempo le rivoluzioni dei social network, e a quanto ci abbiamo messo a registrarne una grande quota di controindicazioni ed effetti problematici, capaci di cambiare le convivenze.
Considerare le implicazioni di disinformazione dell’uso delle intelligenze artificiali è una riflessione che non vuole aizzare irrealistici luddismi contemporanei – le cose cambieranno, inevitabilmente – ma che consiglia di pensarci un po’ prima alle cose, stavolta: e provare a essere consapevoli di alcuni aspetti prima di esserne completamente governati. Non governati dalle intelligenze artificiali, che sono software, ma dai comportamenti umani che replicano e da quelli che incentivano.
Fine di questo prologo.
Charlie è la newsletter del Post sui giornali e sull'informazione, puoi riceverla gratuitamente ogni domenica mattina iscrivendoti qui.