Ha ancora senso il test di Turing?
In un futuro imprecisato, un sistema operativo in grado di conversare in maniera calda, divertente, sexy, e per di più con la voce roca di Scarlett Johansson, farà innamorare perdutamente di sé un essere umano. I due passeranno insieme notti bellissime a chiacchierare (altro non possono fare), lui gli racconterà la sua vita, lei cambierà e crescerà, aggiungendo nuovi algoritmi al suo repertorio di comportamenti programmati. Faranno progetti per il futuro e si prometteranno di non lasciarsi mai più, ma poi il dubbio si insinuerà, e l’innamorato inizierà a tormentarsi: ok, la amo come non ho mai amato nessuno prima d’ora, ma supererà il test di Turing?
Sul serio, ma non sarà il caso di piantarla, con il test di Turing? Dai, è un’idea del 1950 (l’articolo in cui compare per la prima volta si può leggere qui): all’epoca i computer avevano le valvole e li programmavano tecnici in camice bianco usando schede perforate. Turing avrà pensato che costringerci a immaginare una macchina in grado di rispondere in linguaggio ordinario alle domande di un essere umano fosse una cosa pazzesca, il modo migliore per spingerci a riflettere sulla domanda: “Le macchine possono pensare?” Il che, ovviamente, presupporrebbe saper spiegare cosa significhi “pensare”. E siccome Turing si rendeva conto della difficoltà di trovare una definizione, e di non poter misurare il pensiero con la stessa oggettività con cui misuriamo le grandezze fisiche, decise di tagliare la testa al toro. Chiedersi se una macchina possa pensare, dice Turing, è privo di senso, è una domanda ambigua e mal definita: chiediamoci piuttosto se una macchina potrà mai arrivare al punto da ingannare un essere umano con le chiacchiere, facendogli credere di esserlo a sua volta. “Imitation game”, gioco imitativo, lo chiama Turing. Questa è una domanda a cui possiamo cercare di rispondere in maniera sperimentale. Il famigerato test di Turing è tutto qui: non una prova di intelligenza, né di umanità, ma una gara di imitazione. Quella di Turing, in un certo senso, è una provocazione filosofica, che ci costringe a fronteggiare e analizzare le nostre convinzioni in materia di pensiero. Se una macchina può sostenere una conversazione come farebbe un essere umano, possiamo dire che pensa? E se crediamo che questo non basti, sapremmo anche dire perché? Possiamo dire che il nostro cervello, quando pensa, fa qualcosa di diverso e, se sì, che cosa?
Il punto di vista di Turing è pragmatico: se una macchina riesce nel gioco imitativo, dobbiamo concludere che in un qualche senso — che è anche l’unico senso possibile ai fini pratici, l’unico che possiamo valutare dall’esterno senza essere noi stessi quella macchina — quella macchina pensa. Non c’è distinzione possibile tra la cosa vera e la sua simulazione perfetta. Si può essere d’accordo o no con il punto di partenza di Turing, ma la sua proposta è consequenziale alla sua posizione filosofica. Oltre metà dell’articolo originale di Turing è dedicato a rispondere alle principali obiezioni a questa posizione: l’obiezione teologica (l’uomo è dotato di anima, le macchine no, quindi non possono pensare), l’obiezione “testa nella sabbia” (speriamo che le macchine non arrivino mai a pensare, sarebbe terribile), l’argomento della coscienza (solo se la macchina è consapevole di ciò che sta facendo, e non semplicemente manipolando simboli, possiamo dire che pensa), l’argomento delle inabilità (ok, la macchina sa conversare benissimo, ma non sa fare X, dove X è una caratteristica scelta in un insieme più o meno arbitrario di cose che sanno fare gli esseri umani), l’argomento di Lady Lovelace (le macchine fanno solo quello che noi gli ordiniamo di fare), e così via.
Turing purtroppo si uccise quattro anni dopo aver scritto il suo articolo, e quindi non poté assistere agli sviluppi del dibattito scatenato dalla sua proposta e, in parallelo, agli straordinari progressi dell’informatica. Non c’era già più, per esempio, quando un programmino chiamato ELIZA cominciò a manipolare un lungo elenco di frasi in modo da fornire risposte agli input, riuscendo fin da subito a ingannare qualche utente. Erano appena gli anni ’60, e magari da quel momento in poi Turing avrebbe chiarito e raffinato il suo test, introducendo criteri più selettivi. O magari avrebbe fatto i salti di gioia nel vedere che un calcolatore era riuscito in così breve tempo a sostenere una conversazione rudimentale ma plausibile, e avrebbe dichiarato concluso l’esperimento. Non lo sappiamo. Quello che sappiamo è che, per un po’, i ricercatori nel campo dell’intelligenza artificiale hanno preso sul serio il suo spunto fino a farne un programma di ricerca, escogitando algoritmi in grado di simulare conversazioni sempre più realistiche. Sono passati sessant’anni, e cosa abbiamo imparato?
Be’, intanto che lo sappiamo fare: sappiamo programmare software che imitano la conversazione umana. Ma subito dopo aver imparato a farlo ci è sembrato troppo facile, ci è sembrato che mancasse qualcosa. Abbiamo cominciato a chiederci se le persone ingannate da questi software non fossero troppo credulone, se il campione non fosse stato scelto male, abbiamo dibattuto su quale fosse la percentuale di persone da ingannare e su quanto dovesse durare l’inganno per essere considerato tale, e altri dettagli che Turing aveva lasciato nel vago, forse volutamente. «Credo che entro circa cinquant’anni sarà possibile programmare computer […] per far loro giocare il gioco imitativo talmente bene che un interrogatore medio non avrà più del 70% di probabilità di fare l’identificazione corretta dopo cinque minuti di domande.» I software attuali sono in grado di superare il test, così come lo aveva immaginato Turing? Le opinioni divergono, ma la domanda giusta forse sarebbe: interessa davvero ancora a qualcuno, a parte quelli che mirano a intascare qualche decina di migliaia di euro di premio e a farsi un po’ di pubblicità? Chi lavora sulla frontiera dell’intelligenza artificiale ha da tempo spostato l’asticella molto più in alto, occupandosi di problemi più complessi. I software in grado di imitare la conversazione umana sono ormai considerati poco più che elaborati giochini: li chiamiamo “chatbot”, tanto per chiarire che li consideriamo solo scatole programmate per sputare parole senza capirle davvero. Se ne trovano in rete a dozzine, compreso quello che è riuscito a spacciarsi per un tredicenne ucraino con il 33% degli interlocutori, scatenando proclami sensazionalistici e critiche feroci (a proposito: quelli che hanno gridato alla truffa ritengono forse che un vero tredicenne ucraino non sarebbe adatto a sostenere il test di Turing?). Insomma, forse abbiamo davvero raggiunto il punto immaginato da Turing oltre sessant’anni fa o forse no, ma di sicuro non abbiamo tratto le conclusioni che lui si aspettava: «La domanda originale “possono le macchine pensare?” credo sia troppo priva di significato da meritare discussione. Ciò nonostante, credo che alla fine del secolo l’uso delle parole e l’opinione generale delle persone informate sarà cambiata al punto che si sarà in grado di parlare di macchine pensanti senza aspettarsi di essere contraddetti.» Be’, no, non proprio.
Quindi, su, piantiamola con il test di Turing: è un’idea invecchiata, e pure male. E però, la domanda che sollevava è rimasta inevasa: cosa dovrebbe fare, una macchina, per convincerci che sta pensando? Una risposta non ce l’abbiamo ancora e, in fondo, più che delle macchine, questo ci dice qualcosa di noi umani. Da un lato, siamo portati a antropomorfizzare qualunque cosa, dagli animali più o meno evoluti, alle piante, agli oggetti inanimati. Parliamo con i cuccioli, imprechiamo con le stampanti, chiediamo informazioni al nostro smartphone, in casi veramente disperati facciamo amicizia con un pallone da pallavolo. Dall’altro, ci riteniamo speciali, dotati di un quid che è assente in qualunque altro aggregato materiale. Non ci piace pensare alla coscienza, o all’intelligenza, come a una gradazione continua di grigi, una proprietà che può essere presente in misura minore o maggiore. Noi abbiamo qualcosa in più, siamo gli unici che sanno pensare, siamo gli unici davvero intelligenti, e faremmo qualunque cosa per restare in questa convinzione. Una parte di noi, quando conversa con un chatbot, ci proietta se stessa, mette in moto i circuiti dell’empatia, cerca di specchiarsi in quella relazione: vuole essere ingannata. Ma un’altra parte non accetterà mai che un sistema artificiale, per quanto sofisticato, possa essere in grado di pensare. Siamo appena agli inizi del cammino, ma abbiamo già raggiunto e abbandonato criteri che cinquant’anni fa erano nella lista dei sogni dei teorici dell’intelligenza artificiale. Quando i computer hanno iniziato a battere gli esseri umani a scacchi, abbiamo deciso che giocare bene a scacchi non era un buon indicatore di comportamento intelligente. Quando hanno imitato decentemente la conversazione abbiamo deciso che, vabbe’, a mettere in fila quattro frasi erano capaci tutti, e che in fondo quello era un po’ barare.
In Battlestar Galactica — che è una serie di fantascienza di qualche anno fa in cui ci sono degli esseri artificiali chiamati Cylon che sono completamente indistinguibili da un essere umano — c’è una scena ricorrente, quella in cui un essere umano si confronta con un Cylon, e gli dice: “Noi siamo umani, voi siete soltanto macchine”. Ecco: noi umani un giorno forse riusciremo a programmare Hal 9000, o ci innamoreremo di un sistema operativo con la voce di Scarlett Johansson, o addirittura costruiremo un Cylon. Ma cinque minuti dopo averlo fatto, qualcuno alzerà il dito e dirà: “Ok, ma non ci siamo ancora”.