Perché siamo gentili con le intelligenze artificiali?
Dipende in parte da un istinto a considerare viva e umana ogni cosa che è in grado di interagire con noi con una certa autonomia
La presenza di un chatbot, cioè un programma informatico progettato per simulare conversazioni umane, può essere snervante in particolari casi in cui preferiremmo parlare con un essere umano. Un caso tipico è il servizio clienti di molte aziende di servizi, generalmente contattate da clienti che hanno fretta di risolvere un problema. Ma a parte questi casi – e a volte anche in questi – le interazioni tra gli esseri umani e i programmi di intelligenza artificiale sono contraddistinte da una certa gentilezza reciproca. E in generale suscitano nell’interlocutore umano risposte emotive complesse e diverse da quelle che ci si aspetterebbe in un’interazione con un programma, incapace di provare emozioni.
Una delle possibili spiegazioni è che programmi via via più efficienti, in grado di imitare comportamenti umani in modo piuttosto preciso, sono sempre più diffusi in contesti quotidiani in cui interagiremmo con altri esseri umani dicendo cortesie come «grazie». In quegli stessi contesti interagire con le intelligenze artificiali in un modo completamente diverso, senza convenevoli, oltre che risultare innaturale potrebbe essere percepito come un comportamento controproducente.
Esiste inoltre la possibilità che la gentilezza verso chatbot e altri programmi di intelligenza artificiale sviluppati per interagire con gli esseri umani sia l’effetto di un’attitudine umana ad attribuire alle macchine una sostanziale incapacità di agire sulla base di un’intenzione. Inclusa l’eventuale intenzione di commettere errori o fare del male di proposito, cosa che renderebbe più comprensibili eventuali reazioni scortesi da parte dell’essere umano. Negare alle macchine questa capacità è peraltro una delle ragioni per cui molte persone sono in generale più tolleranti nei loro confronti.
In un recente studio uscito sulla rivista Computers in Human Behavior un gruppo di ricerca svedese, tedesco e australiano ha pubblicato i risultati di un esperimento condotto su 111 bambini di età compresa tra tre e sei anni. Il gruppo voleva esaminare come i bambini valutano le informazioni che ricevono dai robot rispetto a quelle che ricevono dagli esseri umani. Hanno mostrato loro video di robot e umani che apponevano delle etichette a una serie di oggetti, di cui i bambini in alcuni casi conoscevano già il nome e in altri casi no.
Quando un robot commetteva un errore – per esempio, etichettava un piatto con il nome “cucchiaio” – i bambini non lo consideravano inaffidabile quanto consideravano inaffidabile un essere umano che faceva lo stesso tipo di sbaglio. Affermavano che gli esseri umani avessero sbagliato di proposito, e quando sia gli esseri umani che i robot si erano invece dimostrati affidabili nell’etichettatura i bambini erano comunque più inclini a chiedere ai robot i nomi di oggetti nuovi, di cui non conoscevano il nome, e a fidarsi di più delle etichette dei robot.
Secondo Kate Darling, esperta nel campo dell’etica dei robot e ricercatrice del MIT Media Lab, un laboratorio di ricerca del Massachusetts Institute of Technology, le reazioni emotive umane nelle interazioni con le macchine hanno a che fare con la nostra empatia e con processi psicologici complessi, in parte indipendenti dalla nostra valutazione razionale del livello di coscienza e intenzionalità delle macchine. Darling si è occupata nello specifico delle interazioni tra umani e robot, che spesso trattiamo come esseri umani pur sapendo perfettamente che non lo sono, come scrive in The New Breed: How to Think About Robots.
Nel libro Darling racconta di una volta in cui nel 2008 chiese a un suo collega di tenere per la coda e appeso a testa in giù un pupazzo animatronico a forma di dinosauro, un modello prodotto dall’azienda di Hong Kong Ugobe e chiamato Pleo, che lei aveva comprato poco tempo prima. Il robot integrava diversi motori, una telecamera a infrarossi e alcuni sensori, tra cui un sensore di inclinazione che permetteva al dinosauro di riconoscere la direzione in cui era rivolto. Dopo pochi secondi, vedendo il robot dimenarsi e sentendolo piangere, Darling chiese al suo collega di smettere.
La ricerca nel campo della robotica mostra come le persone siano inclini ad applicare anche alle interazioni con i robot – come a quelle con gli animali da compagnia – diverse convenzioni sociali, dal parlare con loro al cercare di aiutarli quando ci sembrano in difficoltà. È un fenomeno che, secondo Darling, contraddice l’idea comune secondo cui è possibile sviluppare relazioni emotive solo con esseri a cui attribuiamo una capacità di provare sensazioni ed emozioni come la sofferenza, la gioia o la paura. Tendiamo infatti a relazionarci con gentilezza anche con macchine che non consideriamo né definiremmo mai esseri senzienti, perché «siamo noi a sentire per loro», scrive Darling.
Nel 2012, durante un workshop a Ginevra, in Svizzera, Darling e il suo collega Hannes Gassert chiesero ai relatori e alle relatrici di partecipare a un esperimento informale, non controllato. Formarono cinque gruppi di persone, a cui affidarono un robot dinosauro Pleo ciascuno, chiedendo a ogni gruppo di dare un nome al robot e di interagirci per circa un’ora. Poi diedero a ogni gruppo un’ascia, e chiesero di distruggere il robot: nessuno accettò di farlo. Infine dissero a ciascun gruppo che poteva salvare il robot a patto di distruggere quello di un altro gruppo, e anche in quel caso le persone rifiutarono.
Alla fine Darling e Gassert riunirono i gruppi e dissero loro che avrebbero comunque distrutto tutti i robot, a meno che qualcuno non accettasse di distruggerne almeno uno con l’ascia. Solo a quel punto un ragazzo si alzò, tra qualche risata, e decapitò il Pleo del suo gruppo: un gesto seguito da un certo silenzio e imbarazzo nella stanza.
Secondo Darling la capacità umana di formare relazioni emotive con un’ampia varietà di «altri», incluse le macchine, potrebbe aumentare in futuro con la diffusione di dispositivi sempre più efficienti nel prendere decisioni autonome e in grado di apprendere all’interno di spazi condivisi con le persone. E la crescente integrazione tra l’intelligenza artificiale e i robot potrebbe da questo punto di vista stimolare ulteriormente l’antropomorfismo, la tendenza umana ad attribuire motivazioni, comportamenti ed emozioni proprie agli altri.
Sebbene sia citato soprattutto in relazione agli animali, l’antropomorfismo si adatta molto bene anche alle macchine, e in particolare ai robot sociali, perché siamo biologicamente programmati per trattare come un essere vivente qualsiasi cosa sia in grado di muoversi e funzionare autonomamente, scrive Darling. Dalle semplici forme geometriche su uno schermo a un dispositivo telecomandato.
Credere invece che l’antropomorfismo sia un approccio da contrastare, perché ingenuo, primitivo e dannoso, potrebbe limitare la nostra capacità di comprendere il modo in cui gli esseri umani interagiscono istintivamente sia con gli animali che con i robot. Alcuni studi sull’interazione tra gli esseri umani e i robot suggeriscono, per esempio, che le persone con livelli più alti di empatia abbiano maggiori probabilità di essere gentili sia con gli esseri umani che con gli animali e i robot.
Ci sono poi altri fattori che condizionano la relazione che i bambini hanno con i programmi di intelligenza artificiale integrati, per esempio, negli assistenti vocali. Uno di questi è il senso di autorità che quegli assistenti trasmettono, disse a USA Today la dottoressa Pamela Rutledge, direttrice del Media Psychology Research Center di Newport Beach, in California. Per quanto possa sembrare strano ad alcuni adulti che i bambini trattino i dispositivi elettronici come se fossero esseri umani, ai bambini quei dispositivi «sembrano adulti, perché sanno un sacco di cose, ed è molto facile antropomorfizzarli», disse Rutledge.
La gentilezza che le persone, sia quelle adulte che le più giovani, tendono a mostrare nelle conversazioni con i chatbot potrebbe infine dipendere dalla convinzione che avere comportamenti rudi e scortesi nell’utilizzo dei programmi di intelligenza artificiale possa ritorcersi contro l’utente, ostacolando o rallentando l’interazione stessa. Anche se alcune persone mandano volentieri al diavolo i chatbot e li usano come un mezzo con cui sfogarsi, altre persone pensano che essere educati e gentili in ambienti virtuali nei confronti di macchine sviluppate per apprendere continuamente sia alla lunga un vantaggio, ha scritto il Wall Street Journal.
Altre ancora dicono di rivolgersi ai chatbot come si rivolgerebbero alle persone perché trovano più «naturale» questo tipo di interazione, e perché ritengono che utilizzare lo stesso tipo di linguaggio in ogni conversazione informale, indipendentemente dal tipo di interlocutore, sia più semplice e coerente. A volte la gentilezza è anche una reazione incentivata dai chatbot stessi, che sono perlopiù addestrati sulla base di interazioni umane in cui sono presenti parole esplicite di cortesia. Parole che possono servire a migliorare la qualità della conversazione, in un contesto in cui mancano tratti prossemici e prosodici (cioè relativi a movimento e tono degli interlocutori) che nelle conversazioni di persona contribuiscono a denotare la cortesia della relazione.
Nel 2018, prima che Amazon cominciasse a vendere negli Stati Uniti un dispositivo destinato ai clienti minorenni, l’Amazon Echo Dot Kids, molti clienti avevano detto di essere preoccupati del fatto che formulare domande in modo rude e sgarbato sembrasse non influire sulla reattività e sulla capacità di funzionare degli assistenti vocali. E secondo quei clienti questa indifferenza dei dispositivi rischiava di dare un messaggio sbagliato alle persone più giovani. L’Echo Dot Kids fu quindi sviluppato in modo da incentivare la gentilezza umana. Ai clienti che usavano buone maniere, chiedendo per esempio «Alexa, per favore puoi dirmi quanto fa 5 più 7?», il dispositivo forniva la risposta giusta e aggiungeva un rinforzo positivo: «A proposito, grazie di avermelo chiesto così gentilmente».
La paura che comportarsi in modo scortese con le intelligenze artificiali possa condizionare negativamente l’interazione ha peraltro, secondo alcune persone, qualche aspetto in comune con il tipo di paura suscitata dal basilisco di Roko, un esperimento mentale proposto nel 2010 da un utente di nome Roko sul forum LessWrong, fondato nel 2009 dal teorico dell’intelligenza artificiale Eliezer Yudkowsky. L’esperimento ipotizza un futuro apocalittico in cui una super-intelligenza artificiale altrimenti benevola sarebbe incentivata a creare una realtà virtuale di dolore e sofferenze per tutte le persone che fossero state a conoscenza della sua potenziale esistenza e avessero ostacolato lo sviluppo di quella super-intelligenza in qualsiasi modo, inclusa la scortesia.