Una branca della meteorologia poco nota alla gente comune è
l’omogeneizzazione dati, un lavoro molto complesso e delicato che ha il compito
di validare qualsiasi dato meteorologico del passato (recente e remoto) e
uniformarlo agli standard attuali. Come è facile intuire, nel 1800 non esisteva
proprio una scienza simile, né si ponevano le attenzioni su come effettuare
misure.
Per ricostruire con precisione il clima dei decenni (e
secoli) scorsi bisogna ovviamente comparare le modalità di analisi dati
dell’epoca e quelle di oggi (lo standard attuale è proposto nel seguente link).
Si tengano presenti le seguenti cose:
1) due secoli fa le stazioni meteorologiche erano in numero
estremamente inferiore a oggi (ad esempio nel 1850 erano solo 8 in tutta
Italia!)
2) la strumentazione dell’epoca era molto più carente
rispetto a oggi: non esisteva il concetto di “stazione meteorologica”, pertanto
le misure consistevano in un termometro (a bulbo, non certo elettronico!), un
pluviometro (manuale, non automatico!) e al più un barometro (ma non si usava
l’hPa come unità di misura, ma i mmHg nati grazie all’invenzione di Torricelli)
3) termometri e pluviometri non avevano una taratura né una
portata come gli strumenti odierni (non avevano, cioè, la precisione del decimo
di grado o decimo di mm), pertanto le stime erano più grossolane e tutte visive
(era infatti l’operatore se scegliere di scrivere 10.4 o 10.6°C, oppure
scriveva semplicemente 10°C)
4) ultimo ma non ultimo, la meteorologia dell’epoca NON era
affatto una scienza affidata a professionisti, bensì ad agricoltori o
operatori, del tutto ignari di metodo scientifico, che venivano SALTUARIAMENTE
a controllare i dati delle stazioni, soprattutto se fossero ubicate fuori dai
centri urbani: non solo, questi utenti non venivano necessariamente tutti i
giorni e non è detto che analizzassero con precisione la Tmin e la Tmax: loro,
infatti, venivano in un orario prestabilito (dove ragionevolmente ma non
sicuramente ci fossero le Tmin e Tmax) e segnavano il dato, così come non
si svegliavano ogni notte che pioveva e svuotavano il pluviometro alle 23:59,
ma lo facevano il giorno dopo, con possibili sovrastime che mai potremo
analizzare con certezza.
Attualmente esistono diverse tecniche di omogeneizzazione
dati: avviso subito che si tratta di modalità avanzate, studiare da veri e
proprio professionisti del settore (matematici, fisici, ricercatori…) e
pubblicate nei più approfonditi saggi scientifici. In altre parole, questo è un
compito per scienziati che hanno una profonda conoscenza matematica; cito a tal
proposito la mia “bibbia” in materia, l’opera monumentale “Wilks - Statistical
methods in the atmospheric sciences”, un saggio di 600 pagine che approfondisce
in maniera davvero esaustiva e tecnica tutta la scienza dell’omogeneizzazione
dati della climatologia statistica (lo so, è costoso ed è in lingua inglese, ma è un'opera monumentale che posseggo e consiglio a chi voglia approfondire l'argomento).
I problemi principali che sorgono nell’omogeneizzazione dati
sono i seguenti:
- 1) Spostamento della stazione meteo (anche di pochi metri!)
- 2) Costruzione nei paraggi di edifici di qualsiasi tipo, cementificazione e rivalutazione terreni (compresa la nascita di fusti arborei e piante nelle strette vicinanze della stazione)
- 3) Traslazione della stazione meteo in un comune successivamente inglobato in un altro comune
- 4) Comparazione tra diverse unità di misura di temperature, precipitazioni, pressione ecc.
- 5) Anni dove i dati sono incompatibili (es. 100 mm a Milano e 5 a Pavia in inverno è plausibile? No! E come si agisce? Si validano i dati o no? E il mese o l’anno sono regolari o no? Sono tutti problemi frequenti)
- 6) Anni o decenni dove i dati sono mancanti oppure dove sono marcati errori di trascrizione (35°C ad Aprile? Non è più probabile che siano 25°C? Cosa teniamo? 35 o 25? La media cambia!)
I problemi principali di validazione dati vengono risolti
con la tecnica dell’interpolazione punti tra stazioni, della media pesata, del
Test di Craddock, dell’indice di Correlazione di Pearson, dell’analisi taratura
e bontà dei dati delle singole stazioni ecc.
Un altro problema possibile è la validità di un eventuale dato
pluviometrico con errori di trascrizione: se ad esempio a Milano sono piovuti
100 mm in un determinato giorno e a Pavia ne sono caduti 10 è ragionevolmente
un errore se siamo in inverno (possibile errore di trascrizione), mentre non
possiamo dire nulla se siamo in estate, infatti è capitato in diverse occasioni
che questi cumulati potessero essere reali. In altri anni, invece, è capitato
di non avere alcun dato per 30 giorni e il 31º giorno di registrare 75 mm:
questo è il cosiddetto errore da cumulato, poiché l'operatore non è mai
venuto a svuotare il pluviometro per l'intero mese e ha trascritto solo il
valore totale mensile. Come è facile capire, non potremo mai sapere come sono
stati distribuiti questi accumuli, ma soltanto che quel particolare mese ha
avuto un valore complessivo di 75 mm: ciò è utile ai fini statistici per quanto
riguarda gli accumuli annuali e mensili ma ovviamente non per quelli
giornalieri, infatti nulla ci toglie che quei 75 mm potessero essere
distribuiti in 15 giorni di pioggia oppure tutti caduti in due ore di violento
nubifragio. Questo problema è di ordine maggiore se attorno alla stazione
considerata non ce ne siano altre nel raggio di decine di km: a inizio ‘800,
come detto sopra, le stazioni meteo italiane erano meno di una decina e la
tecnica della correzione da interpolazione con altre stazioni non è plausibile
(Milano e Torino possono avere termiche e accumuli mensili ben diversi, anche
nello stesso mese!): in questo caso gli anni meteorologici sono affetti da
errori piuttosto grossolani.
Infine un altro problema: come erano disposti i termometri?
C’è una differenza di taratura tra bulbo ed elettronico (infatti ci sono
opportuni coefficienti correttivi), ma NULLA POSSIAMO FARE in caso di
termometro esposto al sole, non ci sono tecniche scientifiche univoche che
permettano di analizzare la sovrastima sicura. In questi casi si utilizza un
metodo di omogeneizzazione su lungo range, ovvero si fa una media annuale
della stazione e successivamente si calcola la media coi coefficienti
matematici correttivi.
In poche parole riusciamo -con ragionevole sicurezza- a
calcolare con precisione se quel anno (ad es. il 1827) sia stato più caldo o
freddo rispetto alla media 1981-2010, ma non sapremo mai se si sono
battuti record termici giornalieri.
È facile capire che, alla luce di questi problemi esposti
nel mio articolo, la ricostruzione climatica dei secoli passati è alquanto
problematica ed è quasi impossibile dare stime precise: la validazione dei dati
dei primi decenni del 1800 ha portato a notevoli approssimazioni, soprattutto
sui valori pluviometrici (meno quelli termici perché l’errore tra la lettura
dell’orario compatibile della temperatura massima e la massima effettiva
è di pochi decimi di °C): vi sono stati anni, infatti, dove l’incertezza
pluviometrica raggiunge il 10% (sovra o sottostima di 80 mm su una media di 900
non è raro…).
A questo punto sorge spontanea una domanda: il riscaldamento del pianeta è solo una ipotesi? NO:
il riscaldamento globale (e italiano) c’è ed è INEQUIVOCABILE, anche con queste
tecniche, non sappiamo quantificare con precisione al millesimo di grado (come
si fa oggi), ma comunque, nonostante le incertezze più o meno grossolane, pare
ragionevole la sicurezza che il riscaldamento globale sia presente dal 1800 a
oggi. Nonostante ci siano persone (anche potenti...) che lo neghino, il global warming è un fenomeno SCIENTIFICAMENTE ACCERTATO E DIMOSTRATO.
Per concludere, il riscaldamento globale si basa su stime e
dati DECENNALI E/O SECOLARI E NON SUI SINGOLI ANNI: le ondate di calore sono
sempre esistite ma in misura minore rispetto agli ultimi decenni e lo
stesso vale all’inverso per l’inverno.
Per chi vuole approfondire, propongo due letture di facile comprensione (in lingua italiana).
Nessun commento:
Posta un commento