E Apple che piani ha con l’intelligenza artificiale?
Tra le grandi aziende di tecnologia è quella rimasta più in disparte negli annunci e negli investimenti, ma ci sta lavorando lo stesso
Lo scorso settembre il sito di news tecnologiche The Information rivelò che Apple stava investendo «milioni di dollari al giorno» nelle intelligenze artificiali con l’obiettivo di accelerare lo sviluppo di chatbot (come ChatGPT) e altri strumenti per generare (o modificare) immagini e video. Apple ha creato una divisione interna apposita di cui fanno parte sedici persone, tra cui diversi ex dipendenti di Google, guidata da John Giannandrea, a sua volta ex di Google, che nel 2018 era stato assunto da Apple per migliorare Siri, l’assistente vocale dell’azienda.
Investimenti a parte, però, Apple non sembra aver assunto una strategia precisa sulle AI, mentre gran parte delle grandi aziende tecnologiche si è mossa da tempo: Microsoft ha una stretta alleanza con OpenAI; Meta sta inserendo servizi di AI in molti suoi prodotti; Amazon sta investendo “profondamente nel settore”, secondo il suo amministratore delegato Andy Jassy; e Google è da tempo ritenuta l’azienda più all’avanguardia del settore (nonostante sia stata sorpresa dal successo di ChatGPT).
A marzo Bloomberg ha rivelato che Apple avrebbe «trattative aperte» per utilizzare Gemini – l’intelligenza artificiale di Google – nei prossimi iPhone, e avrebbe anche preso in considerazione l’idea di usare ChatGPT. Una decisione simile sarebbe una novità per Apple, che da sempre preferisce sviluppare i propri software e costruire ambienti chiusi e ben protetti. A tal proposito, l’azienda sta sviluppando un proprio modello linguistico di grandi dimensioni (Large Language Model, o LLM), chiamato Ajax GPT. Ajax è nato per uso interno ad Apple ed è tuttora in via di sviluppo: sempre secondo Bloomberg, è più potente di GPT-3.5, il modello linguistico su cui si basò l’iniziale versione di ChatGPT (da allora OpenAI ha rilasciato GPT-4, considerato un grande progresso rispetto a GPT-3.5).
La strategia di Apple per le AI sarà probabilmente chiarita durante la WWDC, l’annuale conferenza per sviluppatori che si terrà il prossimo giugno. Lo stesso Tim Cook, amministratore delegato della società, ha detto recentemente di considerare le AI generative «un’opportunità fondamentale per i nostri prodotti» e ha assicurato che Apple annuncerà di più «nelle prossime settimane».
– Leggi anche: L’entusiasmo per le intelligenze artificiali si sta un po’ stemperando
Il ritardo percepito di Apple nell’adozione delle AI è in parte legato all’importanza data dall’azienda alla protezione dei dati dei suoi utenti, in particolare in contrapposizione ad Android, che Apple ha definito «un enorme dispositivo per il tracciamento». Apple ha addirittura vietato ai suoi dipendenti di usare ChatGPT (e il servizio Copilot di Microsoft) e una simile decisione è stata presa anche da Verizon, Samsung, Bank of America, Deutsche Bank e Goldman Sachs, tra le altre, perché le condizioni d’uso di ChatGPT dicono chiaramente che i prompt, ovvero le richieste degli utenti, possono essere utilizzati per «allenare» i modelli linguistici di OpenAI (a meno che l’utente non rifiuti questo punto facendo opt out). Il rischio è che i dipendenti di queste società discutano di questioni lavorative con il chatbot, rivelando segreti aziendali a OpenAI.
L’attenzione alla privacy cara ad Apple, però, non si sposa con il funzionamento delle intelligenze artificiali generative, che, almeno a questo punto del loro sviluppo tecnologico, prevedono che ogni richiesta venga elaborata remotamente, in un server di qualche azienda, e non all’interno del dispositivo di partenza. Questo comporta il trasferimento di molti dati personali dell’utente dal dispositivo a un server esterno, gestito con ogni probabilità da un’azienda diversa da Apple, e aumenta il rischio per la privacy degli utenti, un punto su cui Apple insiste da anni.
Tutte le AI generative citate finora si basano infatti su dei modelli linguistici di grandi dimensioni, i quali, come suggerisce il loro nome, sono molto “pesanti” e hanno bisogno di notevoli infrastrutture per funzionare. Lo sviluppo di AI generative, infatti, ha evidenziato l’importanza delle infrastrutture tecnologiche nella produzione di chatbot e servizi simili. Ciò vale soprattutto per le GPU (unità di elaborazione grafica), un tipo di processore molto usato nell’allenamento dei modelli linguistici; tra tutte le GPU prodotte da Nvidia, che nell’ultimo anno è diventata una delle aziende più discusse al mondo.
– Leggi anche: Il formidabile successo in borsa di Nvidia
Secondo molti analisti Apple vuole quindi puntare su modelli linguistici più piccoli, in grado di funzionare completamente all’interno di un dispositivo. A tal proposito lo scorso marzo ha acquisito Darwin AI, una startup canadese che sviluppa tecnologie per rendere le AI «più piccole e più veloci». Ad aprile ha poi presentato OpenELM (“Open-source Efficient Language Models”), un gruppo di otto modelli linguistici di piccole dimensioni open source, pensati proprio per funzionare interamente all’interno di un dispositivo. Sono modelli sperimentali che servono perlopiù a Apple per capire se il concetto alla base di questi modelli sia percorribile, e in quale modo. Alla luce di queste iniziative, le trattative con OpenAI e Google sembrano essere rimedi temporanei, nell’attesa che i modelli di piccole dimensioni siano abbastanza potenti e affidabili.
Per riuscirci Apple sta investendo molto nella ricerca, come dimostrano i molti brevetti registrati dall’azienda, che il sito The Verge ha analizzato. In uno di questi si tenta di risolvere il problema utilizzando le memorie SSD invece di quelle RAM per contenere le informazioni relative a un modello linguistico: in tal modo, i modelli girano più velocemente e con maggiore efficienza, perché «sfruttano lo spazio di archiviazione più economico e disponibile sul dispositivo». I ricercatori di Apple hanno anche creato un sistema, chiamato EELBERT, in grado di comprimere un modello linguistico di grandi dimensioni in uno spazio molto più piccolo senza eccessive perdite di prestazioni. Il modello linguistico BERT di Google, ad esempio, è stato rimpicciolito di 15 volte con una riduzione qualitativa del 4% (ma con alcuni problemi di latenza, termine con cui si indica il tempo impiegato dai dati nel trasferimento attraverso una rete, e quindi il ritardo nella comunicazione).
Non tutte le AI sono fatte per conversare, però. Negli ultimi anni modelli di smartphone come il Samsung Galaxy S20 o i Pixel 8 e 8 Pro si sono fatti notare per la loro capacità di modificare fotografie anche radicalmente, scontornando o rimuovendo degli elementi o cambiando i colori. Uno dei prodotti sviluppati da Apple funziona proprio come un generatore di immagini (simile a DALL-E o Midjourney) in cui gli utenti possono modificare i contenuti prodotti senza bisogno di scrivere altri prompt. Uno dei paper prodotti dall’azienda descrive anche la possibilità di usare prompt scritti per modificare delle fotografie scattate dagli utenti, chiedendo alla AI di «cambiare il colore del cielo» o «rendere la mia faccia meno strana», ad esempio. Apple pare anche intenzionata ad applicare le AI nell’app Salute – per analizzare i molti dati biometrici degli utenti di cui dispone, anche grazie ad Apple Watch – e Apple Music, sviluppando un sistema per separare le varie tracce di cui è composta una canzone.
– Leggi anche: Questa foto è una vera foto?
Il centro delle attività sul campo delle AI di Apple rimane però Siri, grazie anche a novità come STEER (Semantic Turn Extension-Expansion Recognition), un sistema che aiuta l’assistente vocale a gestire le serie di domande, riconoscendo quando l’utente sta chiedendo precisazioni su una domanda già posta o quando ne sta facendo una nuova. A proposito di Siri, Apple fu la prima tra le grandi aziende a lanciare un assistente vocale, nel febbraio del 2010, anche se da allora le aspettative iniziali non sono state rispettate. Siri fu uno degli ultimi progetti curati da Steve Jobs, co-fondatore e amministratore delegato di Apple fino al 2011, poco prima della sua morte avvenuta lo stesso anno, ma il suo progresso fu sin da subito deludente. Già nel 2012, a circa due anni dal lancio di Siri, alcuni dipendenti di Apple si lamentarono dello stato del prodotto, sostenendo che Jobs «sarebbe impazzito» se avesse visto gli scarsi progressi fatti dall’assistente vocale.
Questa potrebbe essere quindi l’occasione perfetta per perfezionare e potenziare il servizio, dotandolo di modelli linguistici in grado di generare risposte molto più complete e sofisticate. Del resto, Siri nacque come una startup e fu acquisita da Apple nel 2010, per volere di Jobs. In un’intervista dell’epoca il giornalista Walt Mossberg chiese conto a Jobs di Siri, che descrisse come un servizio per la ricerca nel web. «No, non è nel settore della ricerca», lo corresse Jobs, «è nel campo delle intelligenze artificiali».