L’Event Stream Processing secondo Radicalbit

L'Event Stream Processing secondo Radicalbit

La software house ha sviluppato una piattaforma per la gestione dell’intero ciclo di vita del dato che integra algoritmi di machine learning e di intelligenza artificiale

L’Event Stream Processing, approccio all’analisi del dato che consente di costruire sistemi di informazioni basate sul flusso di eventi, di dati, nel tempo, è l’area di specializzazione di Radicalbit. La software house, fondata nel 2015, è nata con l’obiettivo di valorizzare quest’ambito, attraverso lo sviluppo di una piattaforma per gestire l’intero ciclo di vita del dato, che integra algoritmi di machine learning e intelligenza artificiale.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

«Il mondo del dato – spiega Michele Ridi, responsabile marketing e sales di Radicalbit – è in espansione. Sempre più le imprese trarranno valore dai propri dati, siano di vendita, di andamento aziendale, relativi ai clienti». Gli Advanced Analytics sono oggi la principale fonte di vantaggio competitivo. La velocità è una caratteristica dei Big Data ed è un bisogno sempre più sentito dalle aziende. Nell’Event Stream Processing, ogni dato è visto come un evento posto su una linea temporale. In questo approccio, il dato è elaborato subito nella sua prima fase di spostamento, non deve essere immagazzinato in un sistema di storage prima dell’elaborazione, come avviene nel batch data processing, approccio di analisi del dato ancora molto diffuso.

«In questo modo – dice Ridi – non solo è possibile migliorare le performance eliminando un passaggio e garantendo un’elaborazione vicina al real time, ma è reso più efficiente anche l’approccio architetturale, che avrà meno passaggi e un migliore time to market, con una riduzione dei tempi di sviluppo e minori costi».

Leggi anche:  Unified customer experience, verso l'intelligent retail

APPLICAZIONI PRATICHE

Dall’Industria 4.0, alla telematica, molti sono i settori industriali in cui i sistemi di Event Stream Processing possono essere strategici. Dati a flusso continuo provenienti da dispositivi IoT possono essere trattati con tecnologie di streaming. In ambito assicurativo un esempio proviene dalle “connected cars”. Scatole nere connesse al veicolo misurano le performance e analizzano il comportamento del conducente anche per erogare soccorsi in caso di incidente. In area healthcare un esempio proviene da dispositivi indossabili che forniscono dati sul paziente e supportano le diagnosi mediche.

Anche nel retail, l’Event Stream Processing è strategico per applicare algoritmi predittivi in ogni passaggio della supply chain, dalla produzione, al negozio, gestendo meglio dati e prodotti. «La nostra piattaforma di gestione del dato – afferma Ridi – comprende interfacce visuali che permettono di gestire il percorso del dato, che passa dal formato grezzo della sorgente arrivando alla dashboard che l’utilizzatore finale consulta per individuare la metrica da calcolare. La tecnologia streaming garantisce che il viaggio avvenga su un canale unico e lineare; la piattaforma facilita e velocizza le operazioni legate a queste fasi».

MACHINE LEARNING E AI

La piattaforma di Radicalbit si integra con il machine learning per ottenere più efficienza operativa. «Lo streaming applicato all’intelligenza artificiale è una sfida, ma questa è anche la storia di tecnologie destinate a integrarsi, perché non c’è nulla di meglio di un flusso di dati continuo per alimentare un algoritmo di intelligenza artificiale» – dice Ridi. «L’integrazione, tuttavia, è difficile, perché uno dei problemi che il mondo dell’intelligenza artificiale affronta è il tasso di obsolescenza del modello dei dati sviluppato. Un modello dei dati è come una fotografia scattata in un preciso momento, che aiuta a interpretare quello che accade e che potrà verificarsi. Alcuni mesi dopo, lo scenario e i dati potranno essere mutati. Di conseguenza, sarà fondamentale poter contare sull’online learning, la capacità di un algoritmo di machine learning, tramite intelligenza artificiale, di imparare in modo costante dal flusso di dati disponibile in automatico. Questo è un tema complesso su cui stiamo lavorando insieme a istituti di ricerca».

Leggi anche:  Lenovo arricchisce l'offerta TruScale per HPC con nuove funzionalità di metering per misurare l’effettivo utilizzo delle risorse di calcolo