Previsioni senza… nuvole


Nei mesi scorsi, prima di partire per un week end al mare o di affrontare un’escursione in montagna, tutti noi abbiamo consultato una previsione del tempo scoprendo, nostro malgrado, che non risultano sempre affidabili. Questo perché, spesso, sono basate su algoritmi puramente matematici, che non sfruttano adeguatamente la competenza e la sensibilità dei meteorologi professionisti. Solitamente, infatti, una previsione parte dall’assimilazione di dati grezzi (come temperatura, pressione, umidità, vento, …), rilevati dalle centraline sparse in tutto il mondo, che vengono poi inseriti in un sistema di elaborazione. Intrecciando simili dati, gli elaboratori sono in grado di fornire le previsioni su come evolveranno, a distanza di alcune ore, tali parametri.

Solo a questo punto intervengono altri software che trasformano i dati, riferiti ad aree di dimensioni variabili (attualmente i modelli più evoluti arrivano fino a una risoluzione di 3 x 3 km), nelle classiche previsioni meteo che siamo abituati a consultare.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Le aree sulle quali si fanno le previsioni con una simile metodologia, seppur molto ristrette, non sempre risultano omogenee e ciò può dar luogo a errori anche grossolani. L’errore potrebbe essere ridotto utilizzando specifici algoritmi statistico-matematici che consentono di correggere il dato del modello attraverso quanto rilevato dalle centraline meteo locali. Quest’ultime, seppur numerose, non coprono comunque tutto il territorio nazionale, e la loro azione sarebbe efficace solo per punti limitati e ben individuati. A oggi l’intervento del meteorologo resta ancora molto importante. Ma come gestirlo in modo “economico”? Sarebbe infatti impensabile che un previsore gestisca tutte le celle di un modello.

Da qui l’idea di identificare circa 300 settori microclimatici sui quali, ogni giorno, i nostri esperti possono intervenire per affinare le previsioni sviluppate automaticamente dagli elaboratori. Anche per questa attività, però, i meteorologi avevano bisogno del supporto informatico. Mentre sul mercato non esiste nessuno strumento dedicato.

Leggi anche:  Gruppo Tea porta a un livello superiore il processo di approvvigionamento con JAGGAER

Abbiamo così maturato la convinzione di creare un gestionale proprietario, in grado di elaborare i dati raccolti e integrarli con l’attività delle persone. Un progetto che ha richiesto agli sviluppatori interni ben tre anni di lavoro, necessari per creare una piattaforma davvero efficiente ed efficace.

I nostri 12 esperti possono così validare le previsioni del sistema sulla scorta di dati storici e della propria esperienza professionale che, a oggi, non può ancora essere formalizzata in un sistema informatico. La piattaforma è però in grado di apprendere e memorizzare le integrazioni inserite, migliorando così progressivamente la propria precisione. Per questa ragione, ogni anno, dedichiamo circa 100 giorni proprio alla manutenzione e al miglioramento delle prestazioni delle nostre piattaforme informatiche. Un’attività che, come la creazione della piattaforma stessa, è stata realizzata integralmente dal nostro personale interno, in quanto è strategica per l’intera azienda. Anche per questa ragione tutte le piattaforme girano su macchine dedicate, che risiedono in una Web Farm a Milano.

In un mercato in continua evoluzione, però, non è sufficiente disporre delle migliori previsioni meteo, ma è necessario comunicare tali informazioni, in modo sempre più personalizzato, ai nostri clienti e agli utenti del sito. Un’attività specifica, anche per la presenza di nuovi media, che ci ha indotto ad affidarci ad aziende specializzate in questo settore. Ed è proprio grazie alle loro soluzioni che ognuno può ricevere informazioni meteo, sempre più precise e dettagliate, sul proprio device preferito.

 

Massimo Bettinelli, responsabile area IT di 3bmeteo