Internet pesa come un paio di fragole, o forse molto meno
Anche solo accordarsi su come calcolare la massa totale dei dati esistenti è complicato, ma di sicuro è piccola o piccolissima

Nella storia dell’umanità non sono mai esistiti così tanti dati in formato digitale quanti ce ne sono adesso, e nel tempo che avete impiegato a leggere questa frase il record è stato nuovamente superato. Stimare quanti siano tutti i dati presenti su Internet è molto difficile ed è al centro di frequenti diatribe, ma lo è ancora di più provare a calcolare la loro massa. Se potessimo metterli tutti insieme e pesarli con una bilancia estremamente precisa, che risultato otterremmo?
Non potendoli vedere o manipolare direttamente, tendiamo a pensare ai dati come a qualcosa di immateriale, fatti sostanzialmente di stati energetici e quindi di energia. Ma, come ci ricorda una delle più importanti equazioni matematiche prodotte da Albert Einstein (E=mc2), l’energia ha una propria massa e di conseguenza ce l’hanno anche i dati. Dovrebbe essere quindi possibile calcolare quanto pesa sulla Terra tutto ciò che esiste su Internet, senza considerare ovviamente le tonnellate di computer, centri dati e altra ferraglia su cui sono conservati ed elaborati i dati che ogni giorno fanno funzionare il mondo.
Per farlo occorre prima capire quanti dati ci sono su Internet, che è una rete molto più estesa e articolata del Web, la parte a noi più evidente e grazie alla quale state leggendo questo articolo. Ci sono migliaia di centri dati e miliardi di dispositivi che ogni giorno si scambiano enormi quantità di dati conservati nelle loro memorie. Le stime sono di solito orientate nel calcolo della “datasfera”, cioè della quantità di dati accessibili e scambiati su Internet in un certo periodo. È pressoché impossibile avere un dato unico e preciso, per questo si applicano modelli statistici per arrivare a una stima approssimativa, ma verosimile.
Nel 2018 l’International Data Corporation (IDC), una società statunitense che tra le altre cose si occupa di ricerche e analisi di mercato, stimò che nel 2025 si sarebbero raggiunti 175 zettabyte (ZB) di dati su Internet (uno zettabyte equivale a mille miliardi di gigabyte). La previsione fu formulata prima che ci fosse una forte accelerazione nell’analisi e nella produzione di dati in seguito all’introduzione di molti sistemi di intelligenza artificiale, come ChatGPT di OpenAI e Gemini di Google. Negli ultimi anni è inoltre aumentata sensibilmente la produzione di contenuti come fotografie e video che vengono condivisi sui social network e sulle app di messaggistica, senza contare il successo di servizi in streaming come Netflix e Disney+. La stima dei 175 ZB è comunque ancora condivisa e considerata un buon punto di partenza per calcolare la massa dei dati.
Nel 2006, quindi diversi anni prima dei calcoli di IDC, il fisico Russell Seitz dell’Università di Harvard era stato tra i primi a porsi la questione. Aveva preso in considerazione la massa dell’energia utilizzata per alimentare i centri dati che all’epoca facevano funzionare Internet, arrivando alla conclusione che tutti i dati avessero una massa di circa 50 grammi, comparabile con quella di un paio di fragole. La sua ipotesi aveva avuto un certo successo e ancora oggi si trovano post sui social network che alludono alle fragole per misurare Internet.
Più o meno nello stesso periodo fu proposto un altro metodo di calcolo che prendeva in considerazione specificamente i bit, le unità dell’informatica che corrispondono a stati di carica elettrica nei dispositivi di memoria corrispondenti a 1 o 0. La memoria di un computer utilizza dei condensatori per gestire i bit: carichi elettricamente per indicare 1, scarichi per 0. Ogni condensatore richiede circa 40mila elettroni per caricarsi e un elettrone ha una massa di 9,1 • 10-31 kg, quindi moltiplicando i due valori si ottiene una massa di circa 3,64 • 10-26 kg.
Sulla base della stima dell’epoca della quantità di dati esistenti online, si concluse che la massa di Internet fosse di 5,7 microgrammi, cioè meno di sei milionesimi di grammo: una bella differenza rispetto anche solo a una fragola. In quasi vent’anni la quantità di dati è però aumentata enormemente. Prendendo in considerazione la stima dei 175 ZB, la massa attuale equivarrebbe a circa 51 grammi, un risultato in linea con quello di Seitz, che però aveva basato i propri calcoli su una quantità di dati molto inferiore e soprattutto considerando altri parametri per stimare il consumo di energia.
Trovare una risposta convincente non è comunque semplice, come ha dimostrato di recente Wired consultando alcuni esperti per mettere alla prova le stime fatte in passato e per provare a farne di nuove. Il metodo seguito da Seitz ha ricevuto diverse critiche, alcune piuttosto pungenti. Un fisico delle particelle lo ha paragonato all’assumere che il prezzo di una ciambella possa essere calcolato dividendo il prodotto interno lordo mondiale per il numero totale di ciambelle esistenti sul pianeta.
Altri dubbi sono stati espressi sulla stima basata sugli elettroni, considerato che c’è una grande varietà nei consumi a seconda delle architetture dei processori, di come sono organizzati i centri dati e di numerose altre variabili. Un metodo alternativo potrebbe essere di immaginare di raccogliere tutti i dati disponibili su Internet in un unico luogo e di provare poi a calcolare quanta energia sarebbe necessaria per elaborare tutti i 175 ZB. Questi dovrebbero essere moltiplicati per la quantità minima di energia richiesta per resettare un bit a una certa temperatura. Fatti i dovuti calcoli, a temperatura ambiente Internet avrebbe una massa di 53 femtogrammi, cioè circa un ventimillesimo della massa media di una cellula del nostro organismo.
Internet è un insieme di reti e i collegamenti al suo interno cambiano di continuo, per questo è pressoché impossibile fare stime accurate sulla quantità di dati che circolano al suo interno e di conseguenza stimarne la massa. Ciò che è certo è che in termini informatici i dati che produciamo e scambiamo ogni giorno occupano molto spazio, al punto da rendere necessaria con una certa frequenza la costruzione di nuovi centri dati, che a seconda dei casi possono consumare molta energia. Da tempo ci si chiede se possano essere sfruttati altri sistemi per immagazzinare i dati, magari ispirandosi alla natura e al modo in cui conserva alcuni dei suoi dati più preziosi: il DNA. Ci sono da tempo esperimenti in questo senso, ma finora non hanno avuto un grande peso.