I cinque giorni matti di OpenAI
Quelli in cui la più importante società di intelligenza artificiale al mondo ha licenziato e poi ripreso il suo CEO, in quella che sembra essere stata una lotta tra due fazioni interne
La vicenda che tra il 17 e il 22 novembre ha coinvolto OpenAI, la più importante società al mondo a occuparsi di intelligenza artificiale, e Sam Altman, il suo cofondatore e amministratore delegato, è stata definita da molti osservatori del mercato tecnologico come una delle più rocambolesche degli ultimi anni, e potrebbe avere conseguenze notevoli tanto sull’azienda quanto sullo sviluppo futuro delle tecnologie di intelligenza artificiale (AI).
Nel giro di pochi giorni Sam Altman è stato licenziato dal consiglio di amministrazione dell’azienda tra enormi polemiche e con poche spiegazioni, e questa decisione ha generato enormi sommovimenti all’interno di tutto il settore tecnologico statunitense: tra le altre cose, c’è stato un ammutinamento generale tra i dipendenti e OpenAI ha rischiato di fallire nel momento del suo massimo successo. A quel punto sono seguiti giorni di negoziati intensissimi, che alla fine hanno portato al ritorno di Sam Altman a capo dell’azienda e alla rimozione di quasi tutto il consiglio di amministrazione che l’aveva licenziato.
Quello che è successo dentro a OpenAI è al tempo stesso una lotta di potere all’interno di una delle aziende più ricche e promettenti del mondo e – secondo molti analisti che se ne sono occupati – uno scontro tra due modi di concepire lo sviluppo dell’intelligenza artificiale e di valutare i potenziali pericoli della tecnologia: da un lato Sam Altman, che negli ultimi anni ha spinto fortemente per una commercializzazione rapida delle tecnologie sviluppate dal OpenAI, a partire da ChatGPT; dall’altro il consiglio di amministrazione, che con ogni probabilità premeva per uno sviluppo più cauto e una maggiore attenzione agli ipotetici pericoli che tecnologie di intelligenza artificiale sempre più avanzate potrebbero generare.
Questo scontro nasce dalla storia e dalla struttura molto originale di OpenAI, che non è una normale startup tecnologica. Fu fondata nel 2015 da Altman e da altri importanti imprenditori e ricercatori (tra cui Elon Musk e Peter Thiel) come un’associazione senza scopo di lucro che aveva il compito di sviluppare le tecnologie di intelligenza artificiale «in una maniera che possa essere di beneficio all’umanità nel suo complesso, e che non abbia la necessità di generare profitti economici». La necessità di controllare lo sviluppo dell’intelligenza artificiale nasce dalla convinzione – molto popolare tra gli imprenditori tecnologici – che lo sviluppo di una “intelligenza artificiale generale”, capace cioè di svolgere praticamente qualsiasi compito quasi alla pari con gli esseri umani, possa essere un pericolo esistenziale che debba essere valutato con estrema cautela.
Nel 2018, trovandosi a corto di denaro (tra le altre cose si disse che Elon Musk avesse cercato di prendere il controllo dell’azienda, non ci fosse riuscito e quindi avesse ritirato i suoi finanziamenti), OpenAI si divise in due unità: una rimase non profit e mantenne il suo obiettivo primario di sviluppare tecnologie di intelligenza artificiale non dannose per l’umanità, mentre l’altra divenne una società quasi pienamente for profit, che avrebbe operato come una normale azienda, avrebbe attratto investimenti, assunto programmatori talentuosi, commercializzato nuovi prodotti. La nuova unità for profit (che mantenne comunque il nome di OpenAI) ottenne un grosso investimento da Microsoft: inizialmente un miliardo di dollari, a cui poi se ne aggiunsero altri 12. In base alla nuova organizzazione, i guadagni della for profit sarebbero stati in parte distribuiti agli investitori ma soprattutto reinvestiti per la ricerca.
Tra le due unità sarebbe comunque rimasto un rapporto di dipendenza: il consiglio di amministrazione della non profit, composto da quattro persone, avrebbe mantenuto il controllo totale sulla for profit, per monitorare che l’obiettivo generale di OpenAI – creare un’intelligenza artificiale non dannosa per l’umanità – fosse rispettato. Le quattro persone che compongono il consiglio di amministrazione erano, fino a pochi giorni fa: Adam D’Angelo, cofondatore del sito di domande e risposte Quora, Ilya Sutskever, uno dei cofondatori di OpenAI e capo del team di ricerca, Tasha McCauley, un’imprenditrice tecnologica, e Helen Toner, una ricercatrice sulla sicurezza delle tecnologie emergenti.
Il grande momento di crescita per OpenAI è arrivato l’anno scorso, quando – su pressione dell’amministratore delegato Sam Altman – l’unità for profit della società ha reso pubblico ChatGPT, un software di intelligenza artificiale estremamente avanzato che in pochissimo tempo è diventato estremamente popolare e ha fatto guadagnare a OpenAI enorme visibilità e grossi investimenti. Soprattutto grazie a ChatGPT e ai suoi sviluppi successivi, oggi OpenAI è una delle aziende tecnologiche più importanti del mondo, il cui valore stimato è di 86 miliardi di dollari.
Ma il successo di ChatGPT ha provocato all’interno della società una specie di spaccatura. Da un lato Sam Altman, sostenuto dagli investitori come Microsoft, ha fatto pressioni per velocizzare e intensificare la messa in commercio di nuovi prodotti che possano garantire nuove entrate e maggiore crescita a OpenAI; dall’altro altri dirigenti della società, come per esempio Ilya Sutskever, uno dei membri del consiglio di amministrazione, che ritenevano che la commercializzazione di nuovi prodotti e la ricerca dovessero essere rallentate e sottoposte a un controllo più rigoroso.
Come ha scritto l’Atlantic dentro a OpenAI è ormai in corso «una lotta di potere tra i due poli ideologici della società: uno gruppo nato dal tecno-ottimismo della Silicon Valley, energizzato dalla rapida commercializzazione [di nuovi prodotti]; l’altro convinto che l’intelligenza artificiale rappresenti un rischio esistenziale per l’umanità e che debba essere controllata con estrema cautela».
In questa condizione si arriva a venerdì 17 novembre, quando il consiglio di amministrazione di OpenAI (la non profit) ha annunciato il licenziamento immediato di Sam Altman. Il consiglio non ha dato ragioni puntuali, ma ha soltanto emesso un comunicato in cui ha scritto che Altman «non era stato sempre sincero» nelle sue comunicazioni con il consiglio.
L’annuncio ha colto tutti di sorpresa: tanto i dipendenti di OpenAI quanto Microsoft, che ormai ha enormi interessi economici nell’azienda. Le reazioni sono state immediate e quasi tutte negative: Sam Altman è una figura estremamente nota nel mondo tecnologico americano, un imprenditore carismatico e di successo che nel sistema di conoscenze della Silicon Valley è quasi unanimemente apprezzato e a cui viene dato il merito del successo di OpenAI.
Nel giro di poche ore alcuni dirigenti dell’azienda come il presidente Greg Brockman si sono dimessi per protesta. Anche Microsoft ha reagito criticando duramente la decisione del consiglio. Il consiglio però è rimasto sulle sue posizioni e domenica sera, il 19 novembre, ha nominato come nuovo amministratore delegato di OpenAI Emmett Shear, il cofondatore del sito di streaming Twitch, che è un critico dell’intelligenza artificiale e che in passato aveva sostenuto che la ricerca andasse rallentata e sottoposta a controlli molto più stringenti. Nel frattempo Microsoft ha offerto ad Altman e a Brockman di creare una nuova unità che si occupasse di intelligenza artificiale.
A quel punto i dipendenti di OpenAI hanno organizzato un ammutinamento quasi generale contro il consiglio: oltre 700 su 770 dipendenti hanno firmato una lettera aperta in cui hanno minacciato di seguire Altman a Microsoft, tra i cui firmatari c’è perfino Ilya Sutskever, uno dei quattro del consiglio, che ha detto di essere pentito di aver contribuito al licenziamento di Altman.
A quel punto sono cominciati nuovi negoziati molto intensi tra Altman e il consiglio, che si sono conclusi martedì sera: Altman è tornato al suo posto come amministratore delegato, e il consiglio è stato rimosso quasi per intero e sostituito con figure meno intransigenti, tra cui il celebre economista Larry Summers. Il consiglio ha ottenuto però, secondo i resoconti di vari media, che OpenAI apra un’indagine interna sul comportamento di Altman. Martedì sera, nella sede di OpenAI a San Francisco, si è tenuta una festa per il ritorno di Altman che è andata avanti fino a notte fonda.
A qualche giorno di distanza non si è ancora capito del tutto perché il consiglio abbia improvvisamente deciso di licenziare Altman. Reuters ha pubblicato un’indiscrezione secondo cui OpenAI sarebbe stata molto vicina a nuovi grossi risultati nel campo dell’intelligenza artificiale, che avrebbero preoccupato molto i membri del consiglio. Quest’indiscrezione però non è stata confermata e, poiché le fonti di Reuters sono tutte interne all’azienda, è anche possibile che sia un po’ esagerata.
Altri analisti hanno sostenuto che Altman avesse assunto comportamenti ritenuti inaccettabili dal consiglio, e che fosse diventato troppo spregiudicato nelle promesse fatte agli investitori e nella commercializzazione di nuovi prodotti (che effettivamente negli ultimi mesi sono stati numerosi).
L’ipotesi ritenuta più probabile è che il licenziamento di Altman abbia costituito il culmine dello scontro tra le due posizioni presenti nell’azienda sull’intelligenza artificiale: quella più cauta e quella più aggressiva.
Ora che Altman e la posizione più aggressiva hanno di fatto vinto, è possibile che anche OpenAI cambierà. La disputa con il consiglio ha mostrato che la struttura societaria composta da due unità, benché pensata per garantire l’indipendenza della ricerca dal profitto, in realtà è comunque vulnerabile alla volontà dei grossi investitori come Microsoft, che ora potrebbero assumere un ruolo più rilevante nell’azienda. L’opinione di molti analisti è che, con il ritorno di Altman, OpenAI abbandonerà sempre di più il suo obiettivo da no profit e si trasformerà con più decisione in un’azienda come le altre.