Come stiamo provando a regolare il settore delle intelligenze artificiali
L'Unione Europea voterà nelle prossime settimane una legge che potrebbe diventare un riferimento anche per il resto del mondo
A metà giugno il Parlamento Europeo voterà l’Artificial Intelligence Act, una legge che ha lo scopo di introdurre un quadro normativo comune per l’intelligenza artificiale (AI, dall’acronimo inglese) all’interno dell’Unione Europea. Il provvedimento è in lavorazione da più di due anni, ma è tornato di stretta attualità negli ultimi mesi, dopo il rinnovato interesse verso le AI soprattutto in seguito alla diffusione di ChatGPT, il software che simula le conversazioni umane, e ad alcune dichiarazioni preoccupate da parte di esperti del settore.
Gli stati europei saranno tra i primi ad avere una legge di questo tipo sulle intelligenze artificiali e per questo molti paesi da altre parti del mondo osservano con interesse, in attesa di produrre leggi simili per normare un settore in piena espansione, con le grandi opportunità e i rischi che si porta dietro.
Martedì 30 maggio il Center for AI Safety, un’organizzazione statunitense senza scopo di lucro, ha pubblicato una lettera aperta dove si dice che i sistemi di intelligenza artificiale potrebbero portare a una minaccia «esistenziale» per l’umanità, e che dovrebbero quindi essere considerati i loro rischi al pari di quelli delle pandemie e delle guerre nucleari. La lettera è stata sottoscritta da oltre 350 responsabili del settore, compresi alcuni dirigenti delle principali aziende impegnate nello sviluppo delle AI come OpenAI e Google. Il documento ha riscosso grande interesse e ha mostrato quanto sia attuale e sentita la necessità di regolamentare un settore in rapida crescita.
Decidere le regole per le AI non è semplice, sia perché non tutti concordano su che cosa possa essere definito “intelligenza artificiale “ e cosa no (lo abbiamo spiegato estesamente qui), sia per la presenza di due approcci alla questione contrapposti. Da una parte ci sono osservatori, analisti e politici che chiedono regole rigide e vincolanti per tutelare i diritti delle persone e delle società, dall’altra i responsabili delle aziende che sviluppano le AI e i portatori d’interesse che sostengono la necessità di avere poche e chiare regole per non ostacolare la crescita e la ricerca nel settore.
AI e UE
L’esigenza di trovare un compromesso accettabile tra queste due posizioni ha condizionato buona parte delle attività di scrittura della nuova legge europea, le cui basi erano state messe in alcune attività preparatorie nel 2018 cui era seguita la presentazione di una bozza da parte della Commissione europea nel 2021. All’epoca l’argomento era discusso soprattutto dagli addetti ai lavori, mentre c’era una minore attenzione da parte della popolazione in generale, comprensibilmente concentrata sulle prime difficili fasi della pandemia da coronavirus. Ora le cose sono cambiate, soprattutto nel percepito delle persone, con la diffusione di AI che disegnano da sole, che compongono testi e che progressivamente stanno finendo in molti dei programmi e dei servizi online che utilizziamo ogni giorno.
Nello sviluppare la nuova legge, la Commissione europea si è basata soprattutto sulle tecnologie esistenti e sui problemi che possono porre in termini di tutela della privacy e più in generale dei diritti della popolazione. Secondo i tecnici che se ne sono occupati, sarebbe stato prematuro e probabilmente poco utile un approccio più ampio che rientra nel dibattito sulle eventuali minacce per la nostra esistenza poste dalle AI e soprattutto da quelle che ancora devono essere sviluppate.
A oggi non c’è un’intelligenza artificiale generale che sappia fare tutto, come quelle che troviamo spesso nei romanzi e nei film di fantascienza, e che soprattutto mostri di avere coscienza di sé. Ciò non significa che la questione delle AI debba essere sottovalutata, considerato che sono già parte delle nostre esistenze e che lo diventeranno sempre di più.
Per definire le regole, le istituzioni europee sono partite da una valutazione del rischio in vari settori a seconda delle funzionalità delle AI e delle loro probabili evoluzioni. Da questa analisi è emerso che gli ambiti più a rischio sono quelli dell’occupazione, dei servizi pubblici e delle attività legate ai diritti dei singoli cittadini. Le AI con un livello di rischio per le persone che viene definito «inaccettabile» saranno proibite e tra queste sono compresi i sistemi che classificano le persone in base ai loro comportamenti sociali, alle loro caratteristiche personali ed economiche.
Le commissioni del Parlamento europeo che se ne sono occupate hanno integrato la proposta della Commissione europea con alcuni emendamenti, il cui obiettivo è di vietare utilizzi invadenti e discriminatori delle AI. Il testo ora vieta l’impiego di sistemi in tempo reale per il riconoscimento delle persone negli spazi pubblici, ma sono comunque previste eccezioni per le analisi da svolgere in un secondo momento, solo nel caso in cui queste servano per attività di indagine. Tra le altre cose è stato proibito l’impiego di sistemi di AI per rilevare lo stato emozionale delle persone in contesti come gestione delle persone migranti ai confini, sui posti di lavoro e nelle attività di polizia. Gli emendamenti sono anche serviti a inserire il divieto di utilizzare la raccolta di grandi quantità di dati dai social network e dai sistemi di telecamere a circuito chiuso per addestrare le AI al riconoscimento facciale.
La legge in discussione prescrive inoltre più trasparenza nel processo di sviluppo delle intelligenze artificiali. È per esempio richiesto agli sviluppatori di fornire indicazioni sulle grandi quantità di dati utilizzati per formare le loro AI e di dimostrare di avere applicato correzioni, filtri e altri accorgimenti per ridurre il rischio di pregiudizi da parte dei loro sistemi che potrebbero poi portare a discriminazioni. Le basi di dati di partenza possono infatti influire su come svolge un determinato compito una AI, per esempio trascurando o sfavorendo le minoranze.
I soggetti che sviluppano AI di tipo generativo, come ChatGPT e DALL•E, dovranno dichiarare se nel processo di formazione dei loro sistemi siano stati impiegati o meno materiali protetti dal diritto d’autore, come testi o immagini. Ciò potrebbe portare a numerosi contenziosi legali tra i proprietari dei copyright delle immagini di partenza, anche se è difficile stabilire un confine chiaro tra sfruttamento di immagini sotto licenza e loro riutilizzo per creare qualcosa di diverso.
I sistemi come DALL•E e Midjourney dovranno inserire nelle immagini che producono segni di riconoscimento per permettere di distinguere le loro elaborazioni dalle immagini reali, riducendo il rischio di un impiego di fotografie fasulle per diffondere false notizie o per scopi illeciti. Dovranno inoltre dimostrare di avere sistemi di controllo per evitare la produzione di immagini che mostrano abusi sui minori, messaggi d’odio o altri contenuti che potrebbero violare le leggi dell’Unione Europea.
La nuova legge potrebbe cambiare ulteriormente nelle prossime settimane. Dopo il voto del Parlamento europeo che dovrebbe avvenire nel corso della prossima sessione tra il 12 e il 15 giugno, inizieranno i negoziati tra parlamentari, stati membri e rappresentanti della Commissione. Dal loro confronto dovrebbe infine essere definita la nuova legge che dovrà poi essere applicata dagli stati membri.
Regole e crescita
Le modifiche via via apportate con l’aggiunta di nuove regole hanno suscitato preoccupazioni tra le grandi aziende tecnologiche che più stanno puntando sull’intelligenza artificiale, come Microsoft, Alphabet (la holding che controlla Google) e OpenAI, i cui prodotti più conosciuti sono proprio ChatGPT e DALL•E. La legge è stata definita da vari esperti un buon compromesso, ma le società del settore temono comunque che possa rallentare, se non ostacolare, i piani per estendere la presenza delle AI in buona parte dei loro servizi. Il grande interesse verso ChatGPT ha soprattutto indotto Google ad accelerare lo sviluppo e la diffusione di nuove intelligenze artificiali, secondo i più scettici abbandonando la tradizionale cautela mantenuta dall’azienda su queste nuove tecnologie.
L’Artificial Intelligence Act è inoltre la prima legge ad ampio spettro sulle AI e diventerà probabilmente uno dei punti di riferimento per i legislatori in altri paesi, un po’ come era avvenuto circa cinque anni fa con il regolamento per la tutela della privacy dei cittadini europei (il cosiddetto GDPR). Indicazioni rigide e maggiori vincoli potrebbero diventare la norma nelle prossime leggi sul tema in giro per il mondo, complicando i piani di chi sviluppa AI e prospetta per queste un ricco futuro, soprattutto in termini economici.
Non è quindi un caso che nell’ultimo periodo Sam Altman, il CEO di OpenAI, si sia dato da fare per organizzare un tour di 17 città in giro per il mondo (molte capitali europee) con il quale intende incontrare rappresentanti delle istituzioni, politici e portatori di interessi per illustrare le opportunità offerte dai nuovi sistemi di intelligenza artificiale. In un incontro pubblico a Londra questa settimana, cui ha partecipato un migliaio di persone, Altman ha detto di essere «entusiasta» delle opportunità offerte dalle AI e ha ricordato l’importanza di non regolamentare troppo il settore, perché si rischierebbe di frenare nuovi avanzamenti tecnologici.
Stati Uniti
Riferendosi alla legge europea, Altman ha detto che la «risposta giusta» per regolamentare le AI è probabilmente una via di mezzo tra l’approccio dell’Unione Europea e quello molto più libero degli Stati Uniti. Per ora le principali istituzioni statunitensi hanno manifestato dubbi e preoccupazioni sulle ultime evoluzioni delle intelligenze artificiali, ma senza che a queste dichiarazioni seguisse qualcosa di concreto. A inizio maggio alcuni dei più importanti CEO delle società tecnologiche del paese hanno partecipato a un incontro alla Casa Bianca su rischi e opportunità delle AI e la vicepresidente statunitense Kamala Harris ha detto che Google, Microsoft, OpenAI e gli altri hanno il «dovere morale» di fornire ai clienti prodotti sicuri.
Le aziende tecnologiche sono molto influenti negli Stati Uniti e negli anni sono riuscite a ottenere numerose concessioni, a partire da una regolamentazione molto lasca delle loro attività, sostenendo che regole più rigide ne avrebbero compromesso lo sviluppo. Gli Stati Uniti sono del resto storicamente poco disposti a introdurre leggi più di tanto vincolanti per le aziende, che devono rispondere in primo luogo ai loro clienti, agli azionisti e in generale al mercato. Per questo si ritiene che il settore delle AI sarà meno regolamentato rispetto all’Unione Europea.
Nel mondo
Poco più a nord, in Canada, si sta lavorando all’Artificial Intelligence & Data Act, una serie di norme per le intelligenze artificiali che fa parte del Digital Charter Implentation Act, una più ampia legge sul digitale che riguarda il modo in cui possono essere impiegati dati sensibili, la privacy dei cittadini e i loro diritti legati al digitale. Come la legge europea, anche quella canadese ha l’obiettivo di identificare gli ambiti a più alto rischio legati all’utilizzo delle AI, in modo da introdurre regole e limiti per gli sviluppatori.
I rapidi progressi raggiunti dalle AI interessano anche la Cina, che le utilizza in alcuni sistemi di sorveglianza di massa. Già nel 2017 il governo cinese aveva introdotto il “Piano di sviluppo dell’intelligenza artificiale di nuova generazione”, teso soprattutto a incentivare lo sviluppo di nuovi sistemi di questo tipo entro il 2030. Nel 2021 era stato poi pubblicato un documento che fornisce linee guida agli sviluppatori, chiedendo che le loro AI rispettino i valori umani e non mettano a rischio la sicurezza pubblica. La gestione delle grandi quantità di dati impiegati dalle intelligenze artificiali dipende comunque dallo stato cinese, che mantiene un forte controllo sulle principali aziende tecnologiche della Cina.
Oltre alle attività dei singoli stati, negli ultimi anni sono emerse iniziative da parte di alcune istituzioni internazionali con l’obiettivo di mantenere un minimo coordinamento tra i paesi, anche perché nel digitale i confini contano solo fino a un certo punto. L’Istituto internazionale delle Nazioni Unite per la ricerca sul crimine e la giustizia ha una propria divisione dedicata alle AI e alla robotica, con la quale produce rapporti e analisi sia sullo stato attuale delle tecnologie sia sui loro prossimi sviluppi. L’UNESCO, altra istituzione dell’ONU conosciuta soprattutto per la tutela del patrimonio storico-artistico, ha avviato nel 2019 iniziative legate agli aspetti etici nello sviluppo delle AI.
Dal giugno del 2020 esiste inoltre la Global Partnership on Artificial Intelligence (GPAI), una iniziativa internazionale inizialmente proposta da Francia e Canada nel corso del G7 del 2018. È un sistema di cooperazione intergovernativa che comprende istituzioni, centri di ricerca, esperti del settore e rappresentanti della società civile per assicurare uno sviluppo delle AI nel rispetto dei diritti umani e dei principi democratici. Il GPAI funziona più o meno come il G7, con la rotazione dei presidenti tra i paesi partecipanti.
Alleanze e regole
Mentre governi e istituzioni discutono leggi e organizzano gruppi di lavoro, da parte di alcune grandi aziende tecnologiche iniziano a esserci ipotesi di alleanze e principi comuni da stabilire insieme per regolamentare il settore in autonomia. Il presidente di Microsoft, Brad Smith, ha detto di recente che le aziende che lavorano con le AI dovrebbero chiedere ai governi di collaborare per la definizione delle regole. La proposta deriva sia dalla necessità di avere un minimo di controllo su eventuali nuove proposte di legge, sia da quella di avere qualche riferimento e appiglio legislativo considerato il numero crescente di ambiti interessati dalle intelligenze artificiali.
Microsoft collabora già con OpenAI e ha finora investito oltre 13 miliardi di dollari nella società, di conseguenza potrebbe avviare facilmente collaborazioni e iniziative sulle regole da darsi. Potrebbe essere più complicato farlo con altre aziende, come Google e Meta, con le quali la concorrenza è diretta e probabilmente si farà più agguerrita per quanto riguarda i sistemi di intelligenza artificiale nei prossimi anni.
La lettera aperta pubblicata questa settimana dal Center for AI Safety conferma quanto siano gli stessi responsabili delle aziende a volere regole chiare, anche per scaricare parte delle responsabilità. Tra i firmatari del documento oltre ad Altman ci sono Demis Hassabis, il CEO di Google DeepMind e Dario Amodei di Anthropica, altra importante startup dedicata alle AI. La lettera è stata sottoscritta inoltre da alcuni dei ricercatori più rispettati e in vista come Geoffrey Hinton e Yoshua Bengio.
Il direttore esecutivo del Center for AI Safety ha detto che la lettera rappresenta un «venire allo scoperto» di alcuni dei più importanti esponenti del settore, che finora avevano espresso le loro preoccupazioni per lo più in privato: «C’è questa idea sbagliata che nella comunità che si occupa di AI ci sia solo una manciata di apocalittici. In realtà, molte persone in privato esprimerebbero le loro preoccupazioni su questo genere di cose».