Come l’editoria si sta adattando all’intelligenza artificiale
Per ora con cautela, mentre cominciano a esserci libri scritti da software venduti agli umani e libri scritti da umani venduti ai software
di Pietro Minto
Negli ultimi mesi sia Microsoft sia TikTok hanno annunciato la creazione di due marchi editoriali (detti anche imprint) per la pubblicazione di libri. Quello di Microsoft si chiama 8080 Books – in onore di un microprocessore degli anni Settanta, l’Intel 8080 – e ha già pubblicato la sua prima opera, No Prize for Pessimism, del responsabile tecnologico dell’azienda Sam Schillace. ByteDance, il gruppo cinese proprietario di TikTok, ha invece creato 8th Note Press, con cui pubblicherà soprattutto romanzi fantasy, romance e di altri generi di successo tra i giovani adulti su BookTok, la sezione del social network dedicata alla lettura.
Oltre alle nuove iniziative editoriali, Microsoft e TikTok hanno in comune anche un certo interesse nei confronti delle intelligenze artificiali: la prima ha investito circa 13 miliardi di dollari in questa tecnologia grazie soprattutto all’alleanza con OpenAI, l’azienda sviluppatrice di ChatGPT, e anche TikTok sta sviluppando le sue. In particolare Microsoft ha detto che 8080 Books ambisce ad «accelerare il processo di pubblicazione, accorciando lo scarto tra il manoscritto finale e l’uscita del libro sul mercato», constatando che finora la tecnologia ha velocizzato qualsiasi settore «tranne quello editoriale».
E proprio il fatto che ad aver avviato i propri progetti editoriali siano due aziende così impegnate nel settore delle intelligenze artificiali ha suscitato delle discussioni. La crescita delle intelligenze artificiali generative, infatti, si è accompagnata negli ultimi anni a una serie di polemiche da parte di artisti, scrittori e giornalisti che accusano le aziende del settore di aver usato senza alcuna autorizzazione contenuti protetti da copyright per lo sviluppo di questi sistemi. Moli incredibili di testi scritti da persone professioniste sono stati usati per allenare i modelli linguistici, la tecnologia su cui si basano sistemi come ChatGPT e Google Gemini. Il settore delle AI è per questo impegnato in una serie di cause legali portate avanti da artisti ed editori, come quello della comica statunitense Sarah Silverman, che denunciò nel 2023 OpenAI e Meta per violazione di copyright (il caso è stato in parte chiuso dal giudice). Anche il New York Times ha denunciato OpenAI e Microsoft per lo stesso motivo.
– Leggi anche: «Su TikTok lo leggono tutti»
È indubbio il fatto che le intelligenze artificiali generative siano state sviluppate con contenuti di vario tipo, spesso provenienti dal web, anche se non è ancora stato chiarito giuridicamente se il loro utilizzo per lo sviluppo dei modelli linguistici rappresenti una violazione del diritto d’autore. L’importanza del lavoro di artisti, giornalisti e autori nello sviluppo delle AI è però tale che da tempo si discute dell’esigenza di trovare nuovi contenuti per continuare lo sviluppo di questi modelli.
Secondo alcuni, infatti, le AI avrebbero raggiunto il limite di sviluppo possibile con la tecnologia a nostra disposizione, anche perché i dati pubblici sono stati in buona parte già usati per lo sviluppo di questi modelli. Il continuo progresso del settore dipende quindi anche dalla disponibilità di nuovo materiale originale, scritto e prodotto da esseri umani. Created by Humans è una startup statunitense nata per creare un mercato per tutti quegli autori che vogliono vendere la licenza di sfruttamento delle loro opere direttamente alle aziende che sviluppano modelli linguistici. La società vuole permettere agli autori di mettere a disposizione le proprie opere per lo sviluppo di nuovi modelli, o di renderli consultabili in tempo reale alle intelligenze artificiali. Inoltre, gli utenti possono scegliere di cedere i loro «diritti trasformativi», permettendo alle AI di generare opere derivate dai loro stessi lavori.
Secondo Walter Isaacson, autore di alcune recenti biografie di successo, come quelle di Steve Jobs e Elon Musk, consigliere e investitore della startup, quello in corso sarebbe «un grande punto di svolta, simile all’invenzione dei motori di ricerca come Google, dal quale le persone che producono contenuti possono trarre vantaggio, o rimanere indietro». Non tutti condividono l’ottimismo di Isaacson: lo scrittore e giornalista britannico Hari Kunzru, ad esempio, ha da poco firmato un nuovo contratto per due nuovi libri con l’editore Knopf, chiedendo la garanzia che i suoi lavori non vengano usati per sviluppare AI.
A preoccupare in realtà non è solo l’uso di contenuti per l’allenamento di nuovi modelli, ma anche l’utilizzo di questi strumenti per produrre nuovi libri o contenuti editoriali. La startup Spines ha recentemente ricevuto 16 milioni di dollari di investimenti per velocizzare e ottimizzare la produzione di libri usando le AI, con l’obiettivo di pubblicare ottomila libri nel corso dell’anno prossimo.
– Leggi anche: I giornali stanno facendo un grave errore con OpenAI?
Spines propone una forma di self-publishing, il genere di servizio con cui è possibile pubblicare un libro a pagamento: i suoi utenti, infatti, pagano tra i 1.200 e i 5.000 dollari per pubblicare un’opera, a seconda dei servizi richiesti dall’utente. Anche la distribuzione dei titoli si baserà su un sistema particolare, con abbonamenti mensili tra i 19 e i 49 dollari al mese. Per quanto riguarda invece le royalties, cioè i proventi dei diritti d’autore dati dalle vendite, il 70% andrà all’autore mentre a Spines il restante 30%: un modello radicalmente diverso da quello tradizionale, nel quale all’autore spetta circa il 10% delle royalties – e la porzione principale va alla distribuzione. È simile invece al modello delle autopubblicazioni su Amazon, che non prevede i costi fissi sostenuti da un editore, da quelli per l’editing fatto dalla redazione a quelli di distribuzione, oltre alle sue stesse ambizioni di profitto.
Un’altra conseguenza della diffusione di questo tipo di intelligenze artificiali nel settore è evidente su siti come Amazon, che da alcuni anni si sono riempiti di titoli palesemente generati con servizi come ChatGPT, in particolare guide turistiche. Si tratta di opere di scarsa qualità e con titoli molto lunghi, che sembrano pensati per facilitare la loro comparsa tra i risultati di ricerca. In molti casi, questo tipo di libri sono accompagnati da recensioni entusiastiche, a loro volta provenienti da bot e generate con le AI.
Nonostante queste resistenze, anche alcune delle principali case editrici italiane hanno cominciato a offrire corsi di aggiornamento sulle intelligenze artificiali ai propri dipendenti. In alcuni casi, quindi, le AI vengono già utilizzate nel settore, soprattutto per redigere testi tecnici – come le schede libro, con cui si presentano le opere in uscita – o fare traduzioni.
Mattia de Bernardis, direttore editoriale dell’editore UTET, parte del gruppo Mondadori Libri, trova che «i testi prodotti da questi strumenti di AI siano assolutamente sbalorditivi, almeno fino a quando non si tratta di produrre un testo per fini professionali». A questo punto, continua, si presentano due problemi: «Il primo è che i testi generati sono spesso corretti, scorrevoli e sensati, ma piuttosto piatti e prevedibili, quando non del tutto generici. I testi che produciamo per presentare i nostri libri dovrebbero essere, al contrario, vivaci, efficaci e originali». Tuttavia, precisa, «è impressionante dare in pasto un libro intero a ChatGPT e ottenerne immediatamente, per dire, una sinossi e una scheda di lettura».
Il secondo problema è legato al fenomeno delle cosiddette allucinazioni che interessano questo tipo di tecnologie, che portano alla generazione di risposte insensate o false mantenendo uno stile corretto. «Il fatto è che ancora questi strumenti non sanno cosa dicono – né loro stessi, né i testi che processano. Quindi non è detto che riferiscano correttamente il contenuto o che non inventino risposte alle nostre domande. Per il momento, quindi, non sono ancora pronto a utilizzare professionalmente questi strumenti», dice de Bernardis.
Un altro professionista del settore sentito dal Post, e che preferisce rimanere anonimo, ha spiegato l’utilizzo interno a un grande editore italiano di una versione particolare e «chiusa» di ChatGPT, sviluppata appositamente per l’azienda per cui lavora, allo scopo di garantire la privacy e la tutela del diritto d’autore. In questa versione del software, infatti, i dati inseriti dagli utenti non vengono usati per l’apprendimento dei modelli linguistici e non finiscono per potenziare il modello linguistico di OpenAI. Ad oggi, questi strumenti sono utili per tradurre estratti o schede libro provenienti dall’estero, anche da mercati come quello giapponese e sudcoreano, per comprenderne più agevolmente il contenuto.
Secondo l’editor, il lavoro di traduzione letteraria non sarebbe comunque messo a rischio da questi strumenti, e non solo perché la traduzione offerta dalle AI non è ancora all’altezza. Sulla genuinità delle traduzioni letterarie c’è un controllo doppio, che interessa sia l’editore italiano, che per contratto non può usare ChatGPT e simili per le traduzioni, sia quello da cui vengono comprati i diritti dell’opera.