Scienza e supercomputer: il Centro Meteo di Reading all’avanguardia mondiale

Supercomputer

Breve viaggio nella struttura che conserva l’archivio di dati meteorologici più grande del pianeta

Umberto Modigliani - Head of User Support Section
Umberto Modigliani – Head of User Support Section

A Reading, non lontano da Londra, sorge lo European Centre for Medium-Range Weather Forecasts (ECMWF – Centro europeo per le previsioni meteorologiche a medio termine), un’organizzazione intergovernativa indipendente supportata da 34 stati membri – tra cui l’Italia. Il centro è una struttura scientifica di livello mondiale, che ha il duplice scopo di fornire dati meteo alle strutture competenti di ciascuno dei paesi membri, producendo e diffondendo modelli numerici di previsione meteorologica – ovvero modelli matematici dello stato dell’atmosfera per calcolare le equazioni fondamentali che spiegano la dinamica dei fenomeni osservati – e di svolgere le funzioni tipiche di un istituto di ricerca costantemente attivo. La struttura utilizza un supercomputer per raccogliere ed elaborare i dati, che arrivano da diversi canali: satelliti geostazionari, GPS, oppure satelliti orbitanti attorno ai poli terrestri, e ancora sonde, boe, radar e stazioni sulla terraferma. Umberto Modigliani, uno specialista del Centro che svolge la funzione di Head of User Support Section, ci porta in visita alla sala informatica, spiegandoci le caratteristiche salienti e il tipo di lavoro che viene svolto grazie a questo sistema di elaborazione. “Il supercomputer in uso finora è stato un IBM Power775, impiegato in parallelo con un Cray XC30. In questi stessi giorni stiamo completando la transizione al Cray. I dati che ci giungono per le elaborazioni provengono da sistemi di rilevamento sparsi in tutto il mondo. Si tratta di miliardi di informazioni convogliate senza soluzione di continuità nella nostra High Performance Computing Facility”.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

La sfida: precisione assoluta

Le previsioni meteo, ma anche i modelli teorici sull’evoluzione dell’atmosfera che sono alla base delle stesse previsioni, non possono essere perfetti né garantire assoluta precisione, perché si tratta di stime in qualche modo sempre approssimative delle condizioni reali dell’atmosfera e dei cambiamenti che vi intervengono. La loro precisione dipende dalla capacità di simulare processi estremamente complessi (ad esempio l’interazione tra la radiazione solare e le nubi), dalla possibilità di includere tutte le variabili significative, dalla disponibilità di dati sufficienti a stimare le condizioni iniziali del sistema terra-mare-atmosfera. Un passo avanti compiuto negli ultimi vent’anni è stato lo sviluppo di un sistema che simula le sorgenti degli errori, il quale tiene conto delle approssimazioni dei modelli numerici, un sistema basato su un insieme di 51 previsioni invece che una sola. L’ensemble prediction system del Centro permette di calcolare la probabilità che eventi di interesse (ad esempio eventi estremi quali alluvioni oppure ondate di calore) possano accadere nel futuro. Tale ensemble permette di prevedere scenari futuri con proiezioni a 30 giorni e la probabilità di accadimento degli eventi più estremi. “Otteniamo in continuazione dati sull’andamento del tempo, attraverso una rete piuttosto fitta di sonde e satelliti che monitorano il pianeta, cosa resa possibile anche grazie all’Organizzazione Meteorologica Mondiale. Per dare un’idea dell’accuratezza delle misurazioni e del grado di sviluppo tecnologico ormai raggiunto, possiamo citare il fatto che i nostri calcoli e le nostre previsioni a più alta risoluzione utilizzano una griglia tri-dimensionale con un punto ogni 16 chilometri circa, mentre il sistema ensemble usa una griglia di 32 chilometri”.

Leggi anche:  Texia guarda alla moda sostenibile con Monna Lisa di Epson

Miglioramento continuo: qualità, affidabilità e assimilazione dei dati

Con questi modelli a disposizione, si possono prevedere le evoluzioni meteorologiche fino a qualche settimana in anticipo. La precisione della previsione dipende dalla scala del fenomeno considerato e dalla variabile meteo che si vuole prevedere. Mentre la previsione locale di precipitazione intensa o di temporali rimane difficile persino a 24 ore, fenomeni a grande scala possono essere previsti fino a qualche settimana in anticipo. Il Centro ha come obiettivo il miglioramento continuo, e cerca di raggiungerlo lavorando su tre fronti: rendendo il modello numerico che fornisce le previsioni più realistico, raffinando i metodi ensemble utilizzati per stimare l’incertezza della previsione stessa, e migliorando i sistemi di assimilazione dati che forniscono le condizioni iniziali per ogni integrazione numerica. Il Centro fornisce quotidianamente previsioni fino a quindici giorni (sia a 16 km di risoluzione, sia a 32 km con il metodo ensemble) due volte al giorno. Il sistema ad ensemble fornisce previsioni mensili due volte alla settimana (il lunedì e il giovedì), e previsioni stagionali valide fino a 13 mesi una volta al mese. I dati collezionati dal Centro vengono inoltrati ai Servizio Meteorologici Nazionali dei 34 stati membri.

Flags

I numeri: 3.500 server, connessioni superveloci e un sistema “gemello” di backup

“Il supercomputer si occupa di ricevere, elaborare e inoltrare i dati. Si tratta in realtà di un cluster di macchine, 3.500 server con processori Intel Xeon E5 12 core. Ogni server è collegato agli altri da una rete superveloce, che garantisce comunicazioni ottimali. Tra i supercomputer più potenti al mondo, quello ospitato da noi rientra nei top 20. Ma non è l’unico che abbiamo qui. C’è anche un suo ‘gemello’, un altro computer identico nella sala accanto. Se consideriamo anche quello, probabilmente saliamo al decimo posto in classifica…” I costi per finanziare un apparato simile si aggirano intorno ai 12 milioni di sterline l’anno, mentre il consumo del data center corrisponde a circa 6-7 MW. Gli armadi che ospitano il supercomputer Cray sono disegnati con le equazioni alle derivate parziali che la macchina deve calcolare per poter elaborare i dati. “Parliamo di svariati miliardi di calcoli complessi al secondo, è per questo che senza un supercomputer non potremmo lavorare. Quello che facciamo qui ha riflessi in tutto il mondo. Pensiamo a cosa vuol dire avere dati precisi e aggiornati sul tempo, su come evolverà. Le piogge ovviamente influenzano l’agricoltura, cioè l’economia di interi paesi. Possiamo prevedere con una certa affidabilità eventi catastrofici, in questo modo contribuendo a salvare vite umane”.

Leggi anche:  Nel 2024 aprirà a Padova il NEHOS Data Center che può accelerare lo sviluppo digitale del Nord Est

Dalla previsione di catastrofi a nuovi progetti per collaborare

Forse l’esempio recente più significativo a questo proposito è l’uragano Sandy, che devastò la costa orientale degli Usa nel 2012 procurando danni incalcolabili. E’ passato alla storia come uno dei più distruttivi di sempre. “Il nostro istituto aveva previsto la traiettoria esatta che avrebbe assunto Sandy, e ha inoltrato l’informazione al servizio meteorologico americano. La zona tra New York e New Jersey è stata duramente colpita, con danni per circa 50 miliardi di dollari e innumerevoli vite umane perse. Se però l’istituto di Reading non avesse calcolato la curva esatta dell’uragano, i danni sarebbero stati ancora molto superiori, e il prezzo in termini di morti ben più alto”. I dati meteo raccolti vengono archiviati in modo permanente su nastro, più affidabile rispetto ai dischi. Ogni giorno si aggiungono un centinaio di terabyte nello spazio di storage. Dall’inizio della sua storia negli anni ’70 ad oggi, l’istituto ha accumulato circa 80mila terabyte di dati (1 terabyte = 1000 gigabyte). “Con questi numeri, il Centro custodisce il più grande archivio di dati meteorologici al mondo”. Scienziati e ricercatori dei paesi membri della convenzione che ha istituito il Centro possono accedere alle sue risorse informatiche, nel segno della cooperazione e dello sviluppo della ricerca, anche nell’ottica dello sviluppo di progetti internazionali. Le informazioni raccolte vengono analizzate con metodi avanzati anche per studiare il cambiamento climatico verificatosi negli ultimi cento anni. “Lo studio del clima e delle fasi che attraversa è affascinante dal punto di vista scientifico. La tecnologia gioca ovviamente un ruolo insostituibile, tanto più importante in quanto ci può offrire i mezzi per capire meglio, e vivere in armonia con, l’ambiente che ci circonda. Mai come ora è importante la consapevolezza dei profondi legami che esistono tra la natura e l’attività umana”.

Leggi anche:  Cogliere le opportunità offerte dall'AI generativa grazie alle workstation Lenovo AI e l’Accelerated Computing di NVIDIA