Big Data, che cosa c’è dietro il mito

In un convegno a Milano, IDC Italia analizza il mercato del Big Data & Analytics in Italia, chiamando a discutere fornitori e utenti di soluzioni per la “terza piattaforma”

Molti miti circondano ancora i nuovi paradigmi della business intelligence, quelli basati sulla disponibilità di enormi flussi di dati – sia storici sia in tempo reale – e sul loro potenziale impatto sulle marginalità, la competitività e l’innovazione del business. Nella sua Big Data & Analytics Conference, suddivisa in una mattinata di sessione plenaria e un pomeriggio di workshop tematici, IDC Italia ha impostato gli interventi in modo molto pragmatico, proprio per cercare di riportare il discorso sulla BDA in termini il più possibile concreti.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Sergio Patano, Research & Consulting Manager di IDC, ha iniziato la sua analisi quantitativa del fenomeno Big Data in Italia citando le parole di  un responsabile ICT diun importante gruppo manifatturiero. Di Big Data, ha detto Patano, «tutti ne parlano, ma nessuno sa che cosa siano”. Dietro lo slogan, ha però aggiunto Patano, si nasconde una definizione molto più semplice e familiare: quella di «una generazione di tecnologie e architetture disegnate per estrarre valore da un grande volume e da una grande varietà di dati, abilitandone la cattura, la scoperta e l’analisi ad alta velocità». Che a ben guardare, fatte salve le novità tecnologiche che hanno trasformato in questi ultimi anni il modo di gestire i database e soprattutto hanno ottimizzato a livello hardware il “number crunching” propriamente detto e le interfacce con i sistemi di storage, sono da sempre i principi di base della business intelligence, con una robusta iniezione aggiuntiva di velocità e ampliamento dei bacini di dati grezzi.

Un’altra differenza, ha fatto capire Patano, sta nella grande “democratizzazione” dell’attrezzatura Big Data. Non c’è praticamente ambito, dall’innovazione di processo e servizio alla relazione con il cliente, dalle politiche di prezzo alla competitive intelligence, dalla conquista di nuovi clienti all’ottimizzazione della supply chain, fino alla gestione delle risorse umane, che una buona e diffusa capacità analitica non possa migliorare a vantaggio dell’azienda, specie nel contesto di relazione che il fenomeno Big Data ha stabilito con con i tre grandi trend che dominano oggi l’ICT aziendale: cloud computing, mobilità e business sociale e partecipativo, quella che viene ormai definita a livello internazionale come la “terza piattaforma” dell’ICT.

Leggi anche:  SAS Viya, la piattaforma che democratizza l’uso di IA e machine learning

Ma quante aziende stanno traducendo il trend in vere e proprie applicazioni? «In Europa, in un campione di oltre 1.600 grandi aziende, IDC rileva un tasso di adozione da qui al 2015 del 30%». Due aziende su tre che “praticano” Big Data, dicono di apprezzare soprattutto la velocità di analisi dei dati e la conseguente possibilità di prendere in fretta le decisioni. I settori dove al momento dominano i progetti Big Data sono le TLC, i servizi finanziari, la produzione industriale discreta e il retail, ma non mancano altri settori (al panel organizzato alla fine del convegno, IDC ha chiamato per esempio il CIO del grande ospedale milanese Niguarda Ca’ Granda, Gianni Origgi, che ha messo in luce i molti aspetti positivi – ma anche i vari “caveat” – degli analytics in ambito sanitario).

Rifacendosi al solo contesto italiano, Patano ha riscontrato analoghi tassi di penetrazione, il 30%, distinguendo però in maniera più precisa tra diversi livelli di maturità dei progetti. Dominano ancora le implementazioni ad hoc o sperimentale su specifici obiettivi pilota (18% del totale del campione di aziende intervistate), seguiti da un 6% di iniziative ormai ricorrenti, e un 3% di progetti definiti tattico-opportunistici. Solo un modesta percentuale dell’1% può essere annoverato tra le iniziative Big Data davvero integrate in modo stabile in un processo di business ottimizzato. A fronte di questo grado di relativa immaturità, IDC ha chiesto ai suoi interlocutori quali fossero gli ostacoli e le problematiche che rendono la business intelligence difficile da adottare. Lo spauracchio di gran lunga più temuto è la carenza di competenze: evidentemente la figura professionale del “data scientist”, che deve incarnare sia competenze statistiche sia di business, è ancora poco diffusa, sebbene molte università stiano cercando di rimodulare i propri piani di formazione in tal senso. Tra i fattori rallentanti vengono menzionati anche la difficoltà di definire i requisiti di business, il costo delle soluzioni analitiche e infine l’integrazione e la qualità dei dati.

Secondo Patano, tutte queste valutazioni si traducono, dal punto di vista dei numeri del mercato italiano, in un potenziale di 373,3 milioni di euro previsti per il 2018 per quanto riguarda le tecnologie e i servizi Big Data. Considerando che nel 2013 questo valore era pari a 148,6 milioni, il tasso di crescita di questo mercato è del 26% annuo. Al momento attuale, la torta Big Data sarebbe costituita da cinque fette: software (36%), storage, servizi IT (entrambe al 24%), server (11%) e networking (5%). Patano ha concluso proponendo tra ingredienti per una ricetta Big Data di successo, considerando una durata di implementazione compresa tra i 12 e 24 mesi: pianificare l’estensione di servizi e soluzioni Big Data a tutta l’azienda, coinvolgendo tutte le line of business; confrontare i propri livelli di adozione con gli standard di mercato in realtà simili alla propria; e coordinare gli investimenti business e IT per identificare le soluzioni Big Data & Analytics su cui puntare.

Leggi anche:  Sanità, così l’innovazione può migliorare l’assistenza ai pazienti

Un altro intervento molto apprezzato della sessione plenaria è stato poi quello di Davide Cervellin, responsabile per Europa della divisione Merchant Development Analytics di eBay. Sottolineando come ormai la distinzione tra e-commerce e canali tradizionali sta progressivamente scomparendo a fronte del fatto che «tutte le decisioni di acquisto nel mondo reale sono influenzate dalle informazioni reperite online e viceversa», Cervellin ha focalizzato il suo intervento sulla nuova strategia di partnership tra eBay e i grandi merchant e brand, che segue le due prime fasi del dominio delle aste tra privati e delle micro-vetrine commerciali. Il data scientist di eBay ha offerto una formidabile lezione sull’uso degli analytics come strumento di individuazione e rafforzamento delle possibili partnership, evidenziando soprattutto il valore che i dati generati dalle attività di selezione e acquisto di milioni di oggetti su eBay possono assumere per i merchant, non solo sul canale di vendita virtuale, ma anche nei punti vendita fisici e sugli altri canali tradizionali.

Dopo gli interventi di Luca Zurlo, country manager di TIBCO Jaspersoft, e Andrea Sappia, sales consultant manager di Fujitsu in rappresentanza del mondo dei fornitori e la discussione che ha coinvolto, insieme al CIO dell’ospedale Niguarda anche il CIO di Il Sole 24 Ore Carlo Capalbo e la responsabile Sas per i professional services & presales Maria Luisa Mignemi, la conferenza si è conclusa con Enrico Parisini, responsabile dei sistemi informativi di Conserve Italia, l’industria conserviera che ha tra i suoi brand Cirio e Valfrutta, che ha illustrato i principi ispiratori delle “infrastrutture agili” necessarie per governare in modo efficace un progetto Big Data. Anche in veste di consigliere dell’Associazione degli specialisti dei sistemi informativi (Assi), Parisini ha stressato l’importanza della “data driven leadership” nell’azienda e della miscela di qualità di dati, competenze a livello di strumenti analitici, profonda revisione dei processi di decision making e flessibilità architetturale che sono alla base di ogni implementazione di successo.

Leggi anche:  Come Intelligenza Artificiale e analytics miglioreranno l'assistenza sanitaria e la ricerca clinica

Videointervista a Luca Zurlo, country manager di TIBCO Jaspersoft

 

 

Il country manager di Tibco Jaspersoft annuncia la nascita della nuova divisione Tibco Analytics, che sarà focalizzata sulle soluzioni di data visualization e prediction di Tibco. La divisione che sarà affidata alla direzione di Brian Gentile, nasce dalla confluenza delle linee di prodotto Spitfire e dalla recente acquisizione di Jaspersoft, piattaforma di business intelligence open source. Secondo Zurlo, la nuova realtà è l’obiettivo della strategia di riposizionamento di Tibco nel mercato Big Data. L’offerta punterà sugli strumenti di discovery, analisi e predizioni che fanno parte della tradizione Spitfire e che saranno integrati e ampliati con le funzioni di reportistica che hanno decretato il successo di Jaspersoft. Con questa accoppiata, Zurlo si dice convinto che Tibco Analytics sarà un player ancora più autorevole e in grado di coprire tutte le esigenze di business nel campo Big Data & Anlytics. «Una tecnologia che aiuta a porsi le domande giuste, senza preoccuparsi della tecnologia».

Videointervista ad Andrea Sappia, sales consultant manager di Fujitsu

 

 

Fujitsu risponde alle sfide dell’agile infrastructure con una completa offerta di soluzioni infrastrutturali. Tra le soluzioni principali c’è la piattaforma storage Eternus, grazie alla quale è possibile dare priorità al business rispetto alla tecnologia, infatti permette il consolidamento di molteplici livelli di applicazioni in un unico sistema di storage, fissando i limiti delle prestazioni per ogni server, quindi applicazione di business, collegato in base alla sua priorità. Inoltre Fujitsu, grazie al proprio network di partner tecnologici, ha sviluppato un’appliance di classe hyperscale in grado di fornire alle aziende e ai service provider un accessibilità ai dati nell’ordine dei petabyte di volume, in particolare – sottolinea Sappia – «fino ai 200 nodi per 50 petabyte di memoria». Inoltre Fujitsu ribadisce il suo ruolo da protagonista nell’ambito della tecnologia di orchestrazione cloud OpenStack.