Ricerca IBM: analisi dei dati a velocità record

Alla conferenza della Society for Industrial and Applied Mathematics, i ricercatori IBM presenteranno un nuovo metodo, basato su un algoritmo matematico, che riduce di due ordini di grandezza la complessità computazionale, i costi e il consumo energetico necessari per analizzare enormi quantità di dati. Il nuovo metodo assicura che i dati producano modelli più accurati e prevedibili.

In un esperimento da record, i ricercatori IBM hanno utilizzato il quarto supercomputer più potente al mondo – un sistema Blue Gene/P presso il Forschungszentrum Jülich, di Jülich, Germania – per validare nove terabyte di dati (nove milioni di milioni) in meno di 20 minuti, senza implicazioni sul fronte della accuratezza dell’analisi.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Estrapolato, ciò equivarrebbe ad analizzare l’intero catalogo online della Biblioteca del Congresso statunitense in meno di quattro ore. Di norma, utilizzando lo stesso sistema, ciò avrebbe richiesto più di una giornata. Inoltre, il processo ha portato a un consumo di energia molto ridotto rispetto a quello tradizionalmente necessario.

Uno dei fattori critici nella Business Analytics è la qualità e il livello di affidabilità dei dati che vengono utilizzati e anche generati dal modello. In aree che vanno dall’economia alla finanza e gestione del portafoglio, modellazione climatica, geologia e fino all’astrofisica, il nuovo metodo di IBM potrebbe aprire la strada alla creazione di modelli più potenti, complessi e accurati.

“In un mondo che contiene in media un miliardo di transistor per ogni essere umano, e il numero cresce di giorno in giorno, i dati stanno esplodendo a un ritmo senza precedenti”, ha spiegato Alessandro Curioni, manager del team Computational Sciences alcentro di Ricerca di Zurigo.

“Analizzare questi vasti volumi di dati che si accumulano continuamente è una sfida computazionale enorme in numerose applicazioni della scienza, dell’ingegneria e del business. Questo risultato apre nuove prospettive per analizzare la qualità di grandi volumi di dati rapidamente”.

Leggi anche:  Pure Storage: crescita e supporto alle aziende italiane per raggiungere gli obiettivi di sostenibilità

“Nei prossimi anni, il supercomputing ci fornirà elementi di conoscenza esclusivi e aiuterà a creare valore aggiunto con nuove tecnologie”, ha spiegato il Prof. Dr. Thomas Lippert, Director del Jülich Supercomputing Center.

“Un passo fondamentale sarà rappresentato da strumenti e algoritmi innovativi, che ci aiuteranno ad analizzare l’enorme quantità di dati forniti dalle simulazioni sui computer più potenti".

Con la comparsa di nuovi sistemi più intelligenti, come reti intelligenti e sistemi di monitoraggio del traffico, che si collegano a sensori, attuatori, tag RFID, dispositivi di tracciamento GPS, la quantità di dati digitali aumenta a velocità vertiginosa.

Questi computer in miniatura misurano qualsiasi cosa, dal livello di inquinamento delle acque degli oceani ai modelli di traffico, alla supply chain alimentare. Le informazioni prodotte da questi dispositivi devono essere analizzate rapidamente per aiutare le persone a prendere decisioni.

A complicare le cose, la velocità a cui vengono archiviati i dati supera largamente la capacità di calcolo delle tecniche di analitica computazionale standard.

“Determinare il livello di tipicità o rilevanza statistica dei dati aiuta a misurare la qualità dell’analisi complessiva e a rivelare i difetti nel modello o le relazioni nascoste nei dati”, ha spiegato il Dr. Costas Bekas di IBM Research – Zurigo.

“Un’analisi efficiente di enormi insiemi di dati richiede lo sviluppo di una nuova generazione di tecniche matematiche, che puntano a ridurre la complessità computazionale e a consentirne un’utilizzo efficiente sulle attuali risorse massivamente parallele”.

La quantità di calcoli necessaria per misurare la qualità di enormi insiemi di dati con le tecniche attuali richiede capacità di calcolo di exaflop (un miliardo di miliardo di calcoli), ben oltre le capacità dei computer attuali.

Leggi anche:  Aruba già in linea con il raggiungimento degli obiettivi fissati per il 2030 dal Climate Neutral Data Center Pact

Il nuovo metodo dimostrato dagli scienziati IBM riduce la complessità computazionale e ha elevati livelli di scalabilità, che arrivano al livello di potenza del JuGene Supercomputer al Forschungszentrum Jülich.

Con i suoi 72 rack del sistema Blue Gene/P IBM, 294.912 processori e picchi prestazionali di un petaflop (un milione di miliardi) JuGene è il quarto supercomputer più potente al mondo.