Un gregge di pecore e uno stagno disseccato a Contrada Chiapparia, vicino a Caltanissetta, il 19 luglio 2024 (AP Photo/Andrew Medichini)

Come facciamo a calcolare la temperatura media della Terra

O meglio della parte di atmosfera in cui viviamo, quella che si sta riscaldando: lo spiega il meteorologo Giulio Betti nel suo nuovo libro

Negli ultimi anni sono stati costantemente superati record di temperatura massima di vario genere: oltre alle temperature più alte mai misurate in specifiche località di varie parti del mondo, escono spesso nuovi dati che ci dicono ad esempio che un certo mese di aprile o un certo mese di giugno, o l’anno scorso, sono stati i più caldi mai registrati tenendo conto delle temperature medie mondiali. A queste notizie ci siamo forse abituati, ma forse non tutti sanno in che modo vengono calcolate le temperature medie dell’intero pianeta, una cosa tutt’altro che semplice.

Giulio Betti, meteorologo e climatologo del Consiglio nazionale delle ricerche (CNR) e del Consorzio LaMMA, spesso intervistato dal Post e su Tienimi Bordone, spiega come si fa nel suo libro uscito da poco, Ha sempre fatto caldo! E altre comode bugie sul cambiamento climatico, che con uno stile divulgativo rispiega vari aspetti non banali del cambiamento climatico e smonta le obiezioni di chi nega che stia accadendo – o che sia causato dall’umanità. Pubblichiamo un estratto del libro.

***

L’essere umano si è evoluto insieme alla sua più grande ossessione: misurare e quantificare qualsiasi cosa, dalle particelle subatomiche, i quark e i leptoni (10-18 metri), all’intero universo osservabile, il cui diametro è calcolato in 94 miliardi di anni luce. Si tratta di misurazioni precise e molto attendibili, alle quali si arriva attraverso l’uso di supertelescopi, come il James Webb, e di acceleratori di particelle. Cosa volete che sia, quindi, per un animale intelligente come l’uomo, nel fantascientifico 2024, ottenere una stima attendibile e verificabile della temperatura terrestre?

Effettivamente è ormai un processo consolidato e routinario, quasi “banale” rispetto ad altri tipi di misurazioni dalle quali dipendono centinaia di processi e attività che la maggior parte di noi ignora. Ma come funziona?

Partiamo dalla base: la rilevazione del dato termico, demandata alle mitiche stazioni meteorologiche, meglio note come centraline meteo. Queste sono disseminate su tutto il globo, sebbene la loro densità vari molto da zona a zona. In Europa e in Nord America, ad esempio, il numero di stazioni meteorologiche attive è più elevato che in altre aree, sebbene ormai la copertura risulti ottimale su quasi tutte le terre emerse.

Quando parliamo di “stazioni meteorologiche”, infatti, ci riferiamo alle centraline che registrano temperatura e altri parametri meteorologici nelle zone continentali, mentre quelle relative ai mari utilizzano strumenti differenti e più variegati.

I dati meteorologici su terra provengono da diversi network di stazioni, il più importante dei quali, in termini numerici, è il GHCN (Global Historical Climatology Network) della NOAA che conta circa 100.000 serie termometriche provenienti da altrettante stazioni; ognuna di esse copre diversi periodi temporali, cioè non tutte iniziano e finiscono lo stesso anno. La lunghezza delle varie serie storiche, infatti, può variare da 1 a 175 anni. Di queste 100.000 stazioni meteorologiche, oltre 20.000 contribuiscono alle osservazioni quotidiane in tempo reale; il dato raddoppia (40.000) nel caso del network della Berkeley Earth. Alla NOAA e alla Berkeley Earth si aggiungono altre reti di osservazione globale, quali il GISTEMP della NASA, il JMA giapponese, e l’HadCRUT dell’Hadley Center-University of East Anglia (UK).

Oltre ai cinque principali network citati si aggiungono le innumerevoli reti regionali e nazionali i cui dati contribuiscono ad alimentare il flusso quotidiano diretto verso i centri globali.

Le rilevazioni a terra, però, sono soltanto una parte delle osservazioni necessarie per ricostruire la temperatura del nostro pianeta, a queste infatti va aggiunta la componente marina, che rappresenta due terzi dell’intera superficie del mondo.

I valori termici (e non solo) di tutti gli oceani e i mari vengono rilevati ogni giorno grazie a una capillare e fitta rete di osservazione composta da navi commerciali, navi oceanografiche, navi militari, navi faro (light ships), stazioni a costa, boe stazionarie e boe mobili.

Parliamo, come facilmente intuibile, di decine di migliaia di rilevazioni in tempo reale che vanno ad alimentare diversi database, il più importante dei quali è l’ICOADS (International Comprehensive Ocean-Atmosphere Data Set). Quest’ultimo è il frutto della collaborazione tra numerosi centri di ricerca e monitoraggio internazionali (NOC, NOAA, CIRES, CEN, DWD e UCAR). Tutti rintracciabili e consultabili sul web. I dati raccolti vengono utilizzati per ricostruire lo stato termico superficiale dei mari che, unito a quello delle terre emerse, fornisce un valore globale univoco e indica un eventuale scarto rispetto a uno specifico periodo climatico di riferimento.

Come nel caso delle stazioni a terra, anche per le rilevazioni marine esistono numerosi servizi nazionali e regionali. Tra gli strumenti più moderni ed efficaci per il monitoraggio dello stato termico del mare vanno citati i galleggianti del progetto ARGO. Si tratta di una collaborazione internazionale alla quale partecipano 30 nazioni con quasi 4000 galleggianti di ultima generazione. Questi ultimi sono progettati per effettuare screening verticali delle acque oceaniche e marine fino a 2000 metri di profondità; la loro distribuzione è globale ed essi forniscono 12.000 profili ogni mese (400 al giorno) trasmettendoli ai satelliti e ai centri di elaborazione. I parametri rilevati dai sensori includono, oltre alla temperatura alle diverse profondità, anche salinità, indicatori biologici, chimici e fisici.

I dati raccolti da ARGO contribuiscono ad alimentare i database oceanici che vanno a completare, insieme alle osservazioni a terra, lo stato termico del pianeta.
Ma cosa avviene all’interno di questi mastodontici database che, tra le altre cose, sono indispensabili per lo sviluppo dei modelli meteorologici? Nonostante la copertura di stazioni meteorologiche e marine sia ormai capillare, restano alcune aree meno monitorate, come ad esempio l’Antartide o alcune porzioni del continente africano; in questi casi si ricorre alla tecnica dell’interpolazione spaziale, che, in estrema sintesi, utilizza punti aventi valori noti (in questo caso di temperatura) per stimare quelli di altri punti. La superficie interpolata è chiamata “superficie statistica” e il metodo risulta un valido strumento anche per precipitazioni e accumulo nevoso, sebbene quest’ultimo sia ormai appannaggio dei satelliti.

Oltre all’interpolazione si utilizza anche la tecnica della omogeneizzazione, che serve per eliminare l’influenza di alterazioni di rilevamento che possono subire le stazioni meteorologiche nel corso del tempo, tra le quali lo spostamento della centralina o la sua sostituzione con strumentazione più moderna. Ovviamente, dietro queste due tecniche, frutto della necessità di ottenere valori il più possibile corretti e attendibili, esiste un universo statistico molto complesso, che per gentilezza vi risparmio.

Tornando a monte del processo, vale a dire allo strumento che rileva il dato, si incappa nel più classico dei dubbi: ma la misurazione è attendibile? Se il valore di partenza è viziato da problemi strumentali o di posizionamento, ecco che tutto il processo va a farsi benedire.

Per quanto sia semplice insinuare dubbi sull’osservazione, è bene sapere che tutte le centraline meteorologiche ufficiali devono soddisfare i requisiti imposti dall’Organizzazione Mondiale della Meteorologia e che il dato fornito deve sottostare al “controllo qualità”.

Se il signor Tupato da Castelpippolo in Castagnaccio [nota: Tupato in lingua maori significa “diffidente”] asserisce che le rilevazioni termiche in città sono condizionate dall’isola di calore e quindi inattendibili, deve sapere che questa cosa è nota al mondo scientifico da decenni e che, nonostante la sua influenza a livello globale sia pressoché insignificante, vi sono stati posti rimedi molto efficaci.

Partiamo dall’impatto delle isole di calore urbano sulle serie storiche di temperatura. Numerosi studi scientifici (disponibili e consultabili online da chiunque, compreso il signor Tupato) descrivono le tecniche più note per la rimozione del segnale di riscaldamento cittadino dalle osservazioni. Tra queste, il confronto tra la serie termica di una località urbana e quella di una vicina località rurale; l’eventuale surplus termico della serie relativa alla città viene rimosso, semplicemente.
Un altro metodo è quello di dividere le varie città in categorie legate alla densità di popolazione e correggere lo scostamento termico di quelle più popolate con le serie di quelle più piccole.

In alcuni casi si è ricorso alla rilocalizzazione in aree rurali limitrofe delle stazioni meteorologiche troppo condizionate dall’isola di calore urbana, in questo caso il correttivo viene applicato dopo almeno un anno di confronto tra il vecchio e il nuovo sito.

Poiché gli scienziologi del clima sono fondamentalmente dei maniaci della purezza dei dati e sono soliti mangiare pane e regressioni lineari, negli ultimi anni l’influenza delle isole di calore urbane viene rimossa anche attraverso l’utilizzo dei satelliti (con una tecnica chiamata remote sensing). Insomma, una faticaccia, alla quale si aggiunge anche il controllo, per lo più automatico, della presenza di errori sistematici o di comunicazione nei processi di osservazione e trasferimento dei dati rilevati.

Tutto questo sforzo statistico e computazionale viene profuso per rimuovere il contributo delle isole di calore urbane dalle tendenze di temperatura globale che, all’atto pratico, è praticamente nullo. L’impatto complessivo delle rilevazioni provenienti da località urbane che alimentano i dataset globali è, infatti, insignificante, in quanto la maggior parte delle osservazioni su terra è esterna all’influenza delle isole di calore e si somma alla mole di dati provenienti da mari e oceani che coprono, lo ricordo, due terzi della superficie del pianeta.
Quindi, anche senza la rimozione del segnale descritta in precedenza, l’influenza delle isole di calore urbane sulla temperatura globale sarebbe comunque modestissima. Se poi il signor Tupato vuol confrontare l’andamento delle curve termiche nel tempo noterà che non ci sono sostanziali differenze tra località rurali e località urbane: la tendenza all’aumento nel corso degli anni è ben visibile e netta in entrambe le categorie.

Infine, l’aumento delle temperature dal 1880 a oggi è stato maggiore in zone scarsamente urbanizzate e popolate come Polo Nord, Alaska, Canada settentrionale, Russia e Mongolia, mentre è risultato minore in zone densamente abitate come la penisola indiana.

Ecco che tutto questo ragionamento si conclude con un’inversione del paradigma: l’isola di calore urbana non ha alcun impatto sull’aumento della temperatura globale, ma l’aumento della temperatura globale amplifica l’isola di calore urbana. Durante le ondate di calore, infatti, le città possono diventare molto opprimenti, non tanto di giorno, quanto piuttosto nelle ore serali e notturne, quando la dispersione termica rispetto alle zone rurali risulta molto minore. La scarsa presenza di verde e le numerose superfici assorbenti rallentano notevolmente il raffreddamento notturno, allungando così la durata del periodo caratterizzato da disagio termico. Nelle zone di campagna o semirurali, al contrario, per quanto alta la temperatura massima possa essere, l’irraggiamento notturno è comunque tale da garantire almeno alcune ore di comfort.

© 2024 Aboca S.p.A. Società Agricola, Sansepolcro (Ar)

Giulio Betti presenterà Ha sempre fatto caldo! a Milano, insieme a Matteo Bordone, il 16 novembre alle 16, alla Centrale dell’Acqua, in occasione di Bookcity.

Continua sul Post