Questa foto è una vera foto?
E cosa vuol dire? Le applicazioni per smartphone che usano le intelligenze artificiali per ottenere immagini migliori hanno aperto un dibattito tecnologico e filosofico
Lo scorso anno nacque un piccolo caso attorno ai telefoni Samsung e alle foto che permettevano di fare alla Luna. Da tempo l’azienda promuoveva le funzioni dei nuovi modelli dello smartphone Samsung Galaxy, in particolare il cosiddetto “Space Zoom 100x”, che consentiva di fotografare il cielo stellato e la Luna – notoriamente difficilissima da immortalare – con ottimi risultati senza particolari apparecchiature. Alcuni degli scatti promozionali erano in effetti notevoli, ma un utente del social network Reddit scoprì che lo smartphone non si limitava ad aggiustare alcuni valori delle fotografie, ma aggiungeva dettagli ed elementi non presenti nello scatto originale. Per dimostrarlo, mostrò come fotografando una foto sfocata della Luna sullo schermo del proprio computer riusciva a ottenere un’immagine quasi nuova.
Secondo Samsung questo miglioramento della fotografia iniziale (detto anche upscaling) non fa altro che rendere più nitidi i dettagli di un’immagine ma, come ha scritto il sito The Verge, «il processo di Samsung è molto più intrusivo di questo: non si limita a migliorare la chiarezza di dettagli sfocati ma li crea». Secondo Wired, sarebbe il software di questi smartphone a riconoscere la presenza della Luna su una fotografia e ad «applicare una texture lunare sulle immagini», sulla base di un archivio di immagini ad alta definizione del satellite. L’azienda ha smentito questa notizia ma lo smartphone Galaxy S23 rimane comunque in grado di creare fotografie con «molti più dettagli dell’immagine originale».
Già nel 2020 esistevano modelli di Galaxy S20 con funzionalità simili, ma lo scorso anno il caso ha ricevuto particolare attenzione per via della diffusione dei software basati sulle intelligenze artificiali generative, cioè che possono stravolgere o generare dal niente immagini e video di quasi qualsiasi tipo. Casi come questo hanno ispirato un dibattito tra il filosofico e il tecnologico su cosa sia una foto “vera”, e quali debbano essere i confini da rispettare. «Non esiste un’immagine reale» ha recentemente dichiarato Patrick Chomet, responsabile di Samsung per l’esperienza dei clienti, in un’intervista al sito TechRadar. «Puoi cercare di definire una foto vera dicendo “l’ho scattata io”, ma se hai usato le IA per ottimizzare lo zoom, l’autofocus, la scena… è davvero reale? O son tutti filtri? Non esistono foto reali, punto e basta».
– Leggi anche: Cos’è questa storia della foto di kate Middleton ritoccata
C’è una differenza però tra il dibattito su applicazioni come Gemini o Midjourney, le due più note tra quelle che usano le IA per creare immagini dal niente, e quello sugli smartphone in grado di stravolgere automaticamente le fotografie che le persone fanno nel quotidiano.
La maggior parte degli smartphone in vendita oggi utilizza già da tempo sistemi come HDR+, in cui ogni fotografia è in realtà il risultato della combinazione di tante fotografie scattate una dietro l’altra. Ci pensa poi un software apposito a mescolare gli elementi salienti, le ombre, i dettagli e altri dati per creare una singola foto il più possibile dettagliata.
Altre funzionalità in questa direzione sono state presentate più di recente. Lo scorso ottobre Google ha presentato gli smartphone Pixel 8 e Pixel 8 Pro, con strumenti che sembrano «sfumare la linea tra lo scatto e la modifica fotografica in modi nuovi». La prima si chiama Magic Eraser, una versione potenziata di uno strumento che esiste da un paio d’anni, nato per cancellare dalle foto elementi poco graditi. Nella demo fornita dall’azienda, Magic Eraser viene usato per rimuovere un’automobile che occupa la parte centrale della foto: al posto dell’oggetto rimosso, le IA generative completano lo sfondo sulla base degli elementi presenti nell’originale.
Un’altra funzione si chiama Best Take e punta a risolvere il problema delle foto di gruppo in cui c’è sempre un partecipante che dice di essere venuto male: scatta una serie di foto in un intervallo di qualche secondo e propone diverse alternative per ciascuna faccia che vi compare. A questo punto l’utente può scegliere per ogni persona nella foto la versione migliore, componendo una nuova foto perfezionata.
La terza funzionalità è la più potente: si chiama Magic Editor e permette di spostare elementi della fotografia stravolgendo l’originale. Le pubblicità realizzate da Google per questi smartphone puntano proprio sulla capacità di trasformazione delle IA: nel caso di Magic Editor, una foto di un padre che lancia in aria suo figlio viene modificata aumentando l’altezza del salto, e viene fatto scomparire il trampolino utilizzato da un ragazzo per aiutarsi in una schiacciata a canestro. Anche Samsung ha presentato strumenti piuttosto radicali nella trasformazione delle immagini, come Generative Edit, che consente modifiche simili a quelle di Magic Editor e Magic Eraser, e quindi di rimuovere, riposizionare e ridimensionare singoli elementi di una fotografia.
Il dibattito su questi programmi è ovviamente parte di quello più ampio sulle intelligenze artificiali e le loro applicazioni, come i deepfake, in cui viene simulato digitalmente il volto di una persona animandolo in modo spesso molto credibile. Allo stesso tempo, però, la manipolazione fotografica è un’attività vecchia quasi quanto la fotografia stessa e non è necessariamente votata alla disinformazione e all’imbroglio. La curatrice del Metropolitan Museum of Art di New York Mia Fineman, che ha dedicato a queste tecniche un libro, Faking It: Manipulated Photography before Photoshop, racconta come «la maggior parte dei primi esempi di manipolazione fotografica erano tentativi di correggere i difetti tecnici del nuovo medium o di compensarne le limitazioni percepite. Alterare il negativo fotografico o la stampa era un modo di accorciare la distanza tra realtà e desiderio: tra la foto scattata e quella che si sarebbe voluto scattare».
L’avvento di programmi per la modifica di immagini come Photoshop ha cambiato tutto, aumentando molto le possibilità di alterazione. Come ha spiegato la curatrice ed editor Chiara Bardelli Nonino, però, utilizzarli non era così semplice e richiedevano (richiedono tuttora) una certa competenza tecnica. «Quello che un tempo era un lavoro da professionista sta diventando alla portata di tutti, un po’ come quando alle prime macchine fotografiche complicatissime si sono sostituite le “point and shoot”», ovvero gli apparecchi in cui l’utente doveva semplicemente puntare la camera e scattare la foto. Una rivoluzione, quest’ultima, ben riassunta da un famoso slogan di Kodak: «You press the button, we do the rest» (tu premi il bottone, noi facciamo il resto).
A cambiare è proprio il significato dato alla parola “resto”, cioè che deleghiamo alla macchina fotografica (o allo smartphone). Oggi dispositivi d’uso comune risultano in grado di ritoccare immagini drasticamente senza bisogno di Photoshop o di computer.
Chomet ha sottolineato «il grande bisogno per i consumatori di distinguere tra reale e nuovo»: le foto modificate da Generative Edit sono infatti dotate di watermark, un contrassegno applicato sulle immagini per rendere evidente il programma con cui sono state fatte, e la stessa cosa è anche segnalata nei metadati (le informazioni tecniche contenute nei file digitali). A tal proposito, ha spiegato, Samsung sta anche lavorando con enti regolatori per assicurarsi che le persone capiscano quando una foto è stata radicalmente modificata dopo lo scatto.
Al momento però tutti i watermark o contrassegni di questo tipo disponibili si sono rivelati inefficaci: un team di ricercatori ha infatti dimostrato i molti modi in cui è possibile «lavare il watermark», rimuovendolo senza lasciare traccia da un’immagine, o addirittura aggiungendolo a immagini che non ne avevano. «Non c’è speranza» ha commentato uno di questi ricercatori a Wired.
In un articolo scritto per Vanity Fair nel 2023, Fred Ritchin, decano emerito dell’International Center of Photography School di New York, ha scritto che le immagini sintetiche hanno «il potenziale non solo di destabilizzare la società, deviare le discussioni e danneggiare gli individui, ma di oscurare il nostro senso di realtà. Gli eventi contemporanei potrebbero essere più facilmente ignorati, gli album di famiglia diventano sempre più sospetti, le storie più amorfe». Alla base del problema, secondo Bardelli Nonino, ci sarebbe anche il fatto che siamo abituati a «considerare un’immagine fotorealistica “realtà”», soprattutto chi non sa ancora quanto questi strumenti siano diffusi e alla portata di tutti.
Lo scorso febbraio OpenAI, l’azienda sviluppatrice di ChatGPT, il chatbot di intelligenza artificiale più famoso, ha presentato Sora, un servizio in grado di produrre video sulla base di descrizioni testuali (nel senso che tu scrivi cosa vuoi vedere nel video e lui lo crea). Lo stesso dibattito sulla realtà fotografica sembra destinato ad arrivare anche nel mondo dei video, con risultati imprevedibili. «Inevitabilmente» ha scritto il giornalista Joshua Rothman sul New Yorker, «il significato di video in quanto medium cambierà. Forse cominceremo a sospettare che tutti i video siano generati dalle IA e smetteremo di fidarci. […] Oppure, se saranno basati su estrapolazioni statistiche affidabili, potremmo arrivare a considerarli sufficientemente reali».
– Leggi anche: I primi video creati con Sora