IBM, Big Data vincenti con gli Analytics

Analytics

Big Blue punta decisamente verso le nuove frontiere dei Big Data, che presuppongono sempre più l’uso degli analytics e dei diversi strumenti a corollario come l’ECM, la BI e le analisi predittive. Questo il messaggio dell’evento Information On Demand 2013, che ha anche tenuto a battesimo numerose novità

Las Vegas –Quando i Big Data sposano gli Analytics, orchestrati da IBM, i risultati arrivano. Questo in sintesi il senso dell’edizione 2013 di Information on Demand, la user conference dedicata a tutto ciò che ruota intorno alla gestione e all’analisi dei dati, in corso a Las Vegas da 3 al 7 novembre. Il tema scelto per la kermesse targata IBM è “Think big, deliver big, win big”. Dove il “big” richiama ovviamente i Big Data, ma pure, si potrebbe aggiungere, il classico “Big Blue”, anche e soprattutto nel senso che IBM pensa sempre in grande, perfino quando si tratta di eventi. Come testimoniato dagli oltre 11.000 partecipanti che hanno assistito al faraonico keynote di apertura, occupando interamente l’Event Center del Mandalay Bay: una arena che ospita eventi come i Grammy Award oppure concerti di popstar internazionali e incontri di boxe. In apertura, un dato davvero significativo è stato sottolineato da Robert LeBlanc, senior vice-president of middleware software di IBM software group: “il 35% delle persone presenti oggi partecipano a questo evento per la prima volta, e anche questo è un segno di come i Big Data stiano trasformando tutti i paradigmi cui eravamo abituati”.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Come trarre valore

Ma la chiave di tutto è trarre valore dai dati, che oggi sono sempre più come il petrolio greggio, come ha ricordato durante l’evento di apertura Jake Porway, data scientist piuttosto noto negli Stati Uniti. E come si fa con il petrolio greggio per trarne il maggior valore possibile, anche i dati devono essere “raffinati”, cioè analizzati. Il messaggio è quindi chiarissimo: senza Analytics i Big Data rimangono solo una massa di dati. “I dati non vanno combattuti, ma abbracciati ed esaminati approfonditamente: è tutta una questione di ‘insight’ – ha aggiunto LeBlanc -. Non a caso, in una ricerca condotta recentemente il 75% delle aziende in crescita ha citato il valore derivante dagli Analytics come un fattore chiave di crescita”. Ma non solo: durante il keynote è stato sottolineato che la città di New York ha da poco nominato il Chief Analytical Officer e che molte altre aziende e organizzazioni stanno cominciando a creare la posizione di Chief Data Officer, in un chiaro segnale di come la trasformazione indotta dai Big Data sia ormai inarrestabile e richieda di avere una vera e propria strategia al fine di trarne i massimi vantaggi.

Leggi anche:  Analytics e hackathon per contrastare il climate change: le novità di SAS Explore 2023

Le numerose novità

Ma quali sono gli strumenti ideali per analizzare i Big Data? La piattaforma di ‘information management’ di IBM non teme confronti sul mercato, come sottolinea con la consueta enfasi Steve Mills, senior vice president and group executive software e systems della società, ma “l’evoluzione continua inarrestabile, anche perché noi non abbiamo mai creduto nell’approccio ‘one size fits all’, cioè nell’applicare una soluzione a tutti i tipi di esigenza, e proprio per questo continuiamo a far crescere in nostro portfolio, sia organicamente con la nostra ricerca e sviluppo sia tramite acquisizioni”. E in effetti, gli annunci non hanno deluso i palati dei partecipanti all’evento. A iniziare da IBM SmartCloud Analytics–Predictive Insights, un software dorato di capacità di analisi predittiva e progettato per permettere alle aziende di gestire meglio i flussi di dati in maniera automatica: basata sull’infrastruttura SoftLayer, acquisita da IBM nello scorso luglio e sempre più gettonata come fondazione dell’intera offerta cloud della società, la soluzione analizza in tempo reale numerosi terabyte di dati relativi alle operazioni IT, individuando subito quelli che possono determinare problemi nelle performance di rete. Degna di nota anche la nuova versione di IBM SmartCloud Virtual Storage Center, che applica allo storage gli analytics e l’apprendimento, per automatizzare le decisioni di storage tiering complesse, quali quelle relative al cloud storage e ai pattern di utilizzo, in modo da adeguare automaticamente le policy. Altre novità hanno riguardato il portfolio BLU Acceleration con nuove tecnologie in-memory, e la gamma InfoSphere, con Data Privacy for Hadoop che aggiunge nuove funzioni di livello enterprise al noto strumento.

Il contesto italiano

L’utilizzo di Big Data e Analytics per il business è uno dei temi più caldi anche per quanto riguarda il nostro mercato, ha confermato in una conversazione con Data ManagerRaffaele Bella, responsabile dei brand di Information Management e WebSphere di IBM Italia, spiegando come molti clienti ne abbiano compreso l’utilità strategica, “visto che l’analisi dei Big Data va a incidere direttamente su quello che è il loro asset chiave, cioè i dati stessi, permettendo di trarne sempre maggiore valore di business e realizzare nuove modalità operative più efficienti”. All’evento di Las Vegas erano anche presenti alcuni clienti italiani di Big Blue, che hanno presentato interessanti esperienze: è il caso per esempio di ACEA e di Edison. Il primo, gestore delle utilities di Roma, ha realizzato un progetto di “smart grid” realizzato con la soluzione Infostream di IBM, che permette di comprendere in tempo reale cosa avviene sulla rete, operando con sempre maggiore efficienza. Il fornitore di energia Edison ha invece presentato un progetto realizzato con l’integrazione tra IBM DB2 e SAP, con cui notoriamente Big Blue ha una partnership stretta, grazie al quale ha ottenuto notevoli vantaggi in termini anche di risparmi nei costi.

Leggi anche:  User experience design. Come e perché utilizzare i dati e l’AI per migliorare l’esperienza utente