Big Data. La parola ai CIO

Denodo migliora la produttività e riduce i costi relativi a cloud e data lake grazie ai nuovi miglioramenti della sua piattaforma

Il mercato Big Data continua a crescere anche in Italia a doppia cifra. Due CIO raccontano i loro progetti: la digital transformation in Ducati e la razionalizzazione del servizio in AREU. La collaborazione tra IT e LoB alla base del successo

In origine, l’espressione Big Data è stata utilizzata per descrivere un set di dati di dimensione maggiore rispetto ai tradizionali database. Oggi, il termine ha assunto un significato più ampio: gli analisti di Forrester definiscono con Big Data “le pratiche, i processi e le tecnologie che annullano il divario tra i dati disponibili e la capacità di trasformarli in insight di business che permettono alle aziende di essere competitive”. Non si tratta quindi solo di un enorme “magazzino dei dati”, ma di una infrastruttura e di una organizzazione capaci di rendere usabili i dati nel momento in cui gli utilizzatori ne hanno bisogno. L’analisi sui “grandi dati” può migliorare il modo di prendere decisioni vitali, solo quando si riesce a mettere a sistema tutte le competenze dell’azienda: l’utilizzo corretto passa attraverso un lavoro preliminare all’interno delle aziende, che devono scegliere le giuste tecnologie e gli strumenti necessari, mettere a punto delle metodologie per attivare un rapido percorso di digitalizzazione, e unire le competenze tecnologiche alla conoscenza del business che hanno i manager delle Line of Business (LoB).

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Secondo Mike Ferguson, managing director di Intelligent Business Strategies, prendere una decisione basata sui dati è una sfida importante e non è difficile esserne sopraffatti. «Non si tratta di sostituire quello che si ha già, ma di estendere gli ambienti analytics esistenti per accogliere nuovi dati e nuovi carichi di lavoro analitici al fine di produrre nuovi insight da aggiungere a quello che già si conosce». I nuovi dati sono tanti, perché nei Big Data vengono archiviati dati provenienti da fonti eterogenee: dati strutturati, in prevalenza dai database aziendali, e anche non strutturati, come immagini, email, tweet, dati GPS, informazioni provenienti dalle interazioni sui social streaming data, cioè dati ricevuti dai sensori e altri dispositivi collegati alla rete aziendale (l’Internet of Things, o IoT). Per orientarsi velocemente in questo mare di dati è necessaria una “mappa”, che mostri per ogni dato caratteristiche quali la fonte, la proprietà, il grado di affidabilità e di aggiornamento, e così via. E, soprattutto, i dati devono essere corretti e di qualità: è necessario uno sforzo importante nella definizione e nel mantenimento dell’integrazione di quanto viene archiviato, per garantire che gli utilizzatori degli analytics possano analizzare i più rilevanti per trovare le risposte ai loro quesiti. In progetti come questi, una gestione dei dati basata su una solida Data Quality fa sicuramente la differenza.

COSA DICONO GLI ANALISTI?

Le stime di IDC relative alle tecnologie di Big Data & Business Analytics quantificano il mercato globale (comprensivo di software, servizi e infrastrutture) in 130,1 miliardi di dollari nel 2016, e in 203 miliardi nel 2020, con un tasso di crescita annuo composto dell’11,8%. Secondo Giancarlo Vercellino, research & consulting manager di IDC Italia, a guidare gran parte di questa crescita ci sono il settore bancario, quello manifatturiero discreto e di processo, la PA e i servizi professionali. Insieme, questi settori rappresentano quasi «il 50% degli investimenti worldwide in Big Data e Business Analytics nel 2016, e resteranno le prime industry come investimenti nel settore fino al 2020. Il primo settore per investimenti è quello bancario, con quasi 17 miliardi di dollari nel 2016, ed è anche il settore con la più veloce crescita della spesa».

Non solo. La digitalizzazione e l’aumento del numero di produttori di dati stanno guidando una maggiore domanda nel software per l’acquisizione, la gestione e l’analisi dei dati. L’IoT, il monitoraggio del comportamento dei consumatori, e i requisiti per la gestione del rischio sono alcuni dei fattori che contribuiscono a questo driver di mercato. IDC prevede inoltre che i fornitori di cloud su larga scala continueranno a offrire servizi a valore aggiunto come i Big Data per ampliare la differenziazione, a un prezzo aggressivo che renderà più facile spostarsi sul cloud, soprattutto per le organizzazioni che hanno dati non riservati o raccolti pubblicamente. IDC, inoltre, si aspetta che per la gestione dei Big Data verranno adottati sempre di più i software open source.

Leggi anche:  Giunge a Milano il QlikWorld 2023

«In Italia – aggiunge Vercellino – al momento attuale, prevale un atteggiamento di grande cautela e allo stesso tempo di grande interesse. Quindi si moltiplicano gli studi di fattibilità, soprattutto in quei contesti dove si riescono a costruire sinergie e collaborazioni positive con la Line of Business». La conferma viene anche dal rapporto Assinform “Il mercato digitale in Italia nel primo semestre 2016”: in un mercato in crescita dell’1,2% rispetto allo scorso anno, gli investimenti in Big Data sono aumentati del 24,7% e nell’IoT del 14,9%.

La ricerca di Forrester “Big Data, Big Promises, Big Growth” valuta la dimensione mondiale del mercato degli strumenti per la gestione dei Big Data a fine 2015 in 21,7 miliardi di dollari, e ne prevede una crescita del 12,8% annuo fino a raggiungere i 44,6 miliardi entro il 2021. Gli Stati Uniti sono il più grande mercato per le soluzioni di gestione Big Data, ma l’Europa, e soprattutto l’Asia, cresceranno a tassi più rapidi nei prossimi anni. Il segmento con la crescita più veloce è quello dei database non relazionali, che gestiscono i dati non strutturati, e offrono flessibilità e scalabilità, previsto in aumento del 25% all’anno. La computazione dei dati in-memory, che consente transazioni su blocchi di dati in larga scala più rapidamente delle tecnologie tradizionali, è stimata in crescita del 29,6% all’anno.

DIGITAL TRANSFORMATION

IL CASO DUCATI

Secondo Sergio Patano, research & consulting manager in IDC Italia, la trasformazione digitale non può che essere uno sport di squadra. «Solo le aziende nelle quali IT e LoB saranno in grado non solo di collaborare ma di lavorare insieme risulteranno vincenti. Questo sembra essere un concetto molto chiaro anche per le aziende italiane. Una recente survey condotta da IDC nel nostro Paese ha messo in evidenza come nel 60% dei casi sono IT e LoB congiuntamente a guidare progetti strettamente legati allo sviluppo della trasformazione digitale. I risultati sottolineano inoltre come la digital transformation non sia solo una questione tecnologica, ma sempre più una necessità di un business che vuole rimanere rilevante sul mercato: le LoB sono direttamente coinvolte tanto nella guida quanto nel finanziamento di progetti trasformativi in oltre l’80% dei casi».

Un caso significativo della collaborazione tra IT e LoB è dato dai progetti della casa motociclistica Ducati, azienda decisamente all’avanguardia non solo per le sue moto. Come ci racconta Piergiorgio Grossi, CIO & Digital Transformation Officer di Ducati, l’azienda ha iniziato a parlare di Big Data anni fa, grazie all’esperienza nelle corse che è sempre sinonimo di innovazione: «Qui c’è da sempre una forte cultura del dato e della performance. Da qualche mese, abbiamo costruito un team per la trasformazione digitale dell’azienda con quattro obiettivi: il cliente, la moto e il brand, la produzione e la supply chain, e le persone che lavorano con noi.

Il primo obiettivo è il cliente/fan, cioè chi compra le nostre moto, chi segue le corse o comunque chi ama il nostro brand per quello che rappresenta: lo stile, la performance, il design. Per loro dobbiamo favorire intorno al nostro brand lo sviluppo di una community, già molto attiva sui nostri profili aziendali sui vari social. L’idea è di avere una sempre maggior personalizzazione dei servizi per il cliente, e mostrare gli aspetti più interessanti della nostra azienda, a seconda del tipo di cliente, che potranno migliorare e ampliare la customer experience. Attraverso questi servizi – continua Piergiorgio Grossi – saremo sempre più in grado di raccogliere e rendere disponibili le informazioni provenienti dalle moto (sempre più connesse), dai social, e dalle community: in questo modo sarà possibile per i nostri clienti estendere l’esperienza Ducati non solo durante la guida ma anche grazie ai canali e agli strumenti digitali».

Leggi anche:  Dal mainframe al data mesh. Ecco perché l'osservabilità dei dati è più importante che mai

Il secondo obiettivo di cui ci parla il CIO di Ducati è la moto: «Siamo impegnati nello sviluppo di asset digitali paralleli agli asset fisici. Stiamo lavorando a una versione più evoluta della moto connessa, in modo che possa acquisire un maggior numero di dati durante la marcia, e possa rendere disponibili al guidatore informazioni utili in modo sicuro. Per quanto riguarda la produzione e la supply chain, lavoriamo sul potenziamento dei nostri archivi usati nelle aree di produzione, logistica e qualità, arricchendoli con le esperienze provenienti da tutte le fasi di sviluppo, dalla progettazione all’utilizzo delle nostre moto. Il progetto si occupa anche delle persone che lavorano in Ducati. Lavoriamo per migliorare sia le tecnologie informatiche a loro disposizione sia il loro lavoro, incentivando la collaborazione, i progetti trasversali, lo scambio di informazioni ed esperienze, il coinvolgimento delle persone nella digital transformation».

Ma quali sono gli aspetti da affrontare nello sviluppo? Per Grossi, l’IT deve essere innanzitutto uno stimolo continuo per l’azienda, non solo un raccoglitore di bisogni delle varie BU. «Bisogna poi considerare che si deve operare non solo sulla tecnologia, ma anche sulle persone. Chi si occupa di IT deve operare come una cerniera per chi lavora all’interno dell’azienda: cerniera tecnologica, anche grazie a partner importanti, ma anche organizzativa, aiutando i dipendenti a collaborare, a creare sinergie, a mettere in comune esperienze e competenze. Da noi in Ducati questo è forse più semplice che altrove, perché siamo abituati a lavorare per raggiungere l’eccellenza, e c’è la voglia di affrontare le sfide con motivazione, italianità, attenzione al design e competenza tecnica. Compito dell’IT è anche essere una cerniera verso l’esterno, per mostrare nel modo più appropriato il valore del brand».

L’EVOLUZIONE DELLA BA

IL CASO AREU

Tra le principali finalità di business che spingono a sviluppare un progetto di Big Data, Forrester indica l’aumento dell’efficienza, la riduzione dei rischi, la maggior conoscenza dei clienti, il miglioramento del servizio. Miglioramento e razionalizzazione del servizio, e aumento dell’efficienza, sono proprio tra i risultati raggiunti dai progetti che ci descrive Piero Maria Brambilla, CIO di AREU, azienda regionale Emergenza Urgenza della Regione Lombardia. AREU, istituita nell’aprile del 2008, ha tra i mandati la gestione e riorganizzazione del servizio di soccorso territoriale, meglio noto come 118, sul territorio della regione Lombardia. L’obiettivo è di garantire, consolidare e rendere omogeneo il soccorso sanitario di emergenza urgenza extra-ospedaliera, anche in caso di maxi-emergenze. La nascita di AREU ha quindi dato origine a una nuova esperienza, caratterizzata da importanti cambiamenti in campo sia organizzativo sia tecnologico, settore che ha sempre rivestito un aspetto rilevante per il soccorso extra-ospedaliero. «L’intenso processo di revisione del sistema di soccorso sanitario regionale – ci spiega Piero Maria Brambilla – ha avuto un contributo di rilievo dalla creazione di un data warehouse per centralizzare le informazioni, così da misurare in modo strutturato, preciso e sistematico la realtà lombarda, e permettere l’analisi dei dati, anche storici, relativi all’attività svolta dai diversi servizi regionali: gestione delle chiamate, degli eventi di soccorso, delle missioni dei mezzi di soccorso e delle informazioni cliniche sui pazienti soccorsi». Uno dei primi ambiti di intervento di AREU è stato quello relativo alle risorse territoriali previste per il soccorso: «Mezzi di soccorso di base, mezzi di soccorso intermedi, mezzi di soccorso avanzato, elisoccorso, con diverse tipologie di mezzi ed equipaggi a seconda del tipo di intervento. AREU è partita dall’analisi dell’attività storica degli eventi di soccorso avvenuti nel biennio precedente, valutando anche gli andamenti orari, giornalieri e stagionali in ogni parte del territorio. Questi dati – continua Brambilla – sono stati correlati a quelli della popolazione residente nei vari comuni, alle caratteristiche orografiche del territorio e della rete ospedaliera, così da poter ridefinire le risorse necessarie, per numero e tipologia, nelle diverse aree geografiche. La Regione Lombardia ha poi ratificato e finanziato l’incremento e la ridistribuzione dei mezzi di soccorso che compongono la rete territoriale secondo quanto definito da AREU. Il processo di riprogettazione dell’emergenza urgenza in Lombardia ha avuto come altro elemento cardine anche la riorganizzazione delle 12 Centrali Operative per l’Emergenza Urgenza (COEU) 118».

Leggi anche:  Come Intelligenza Artificiale e analytics miglioreranno l'assistenza sanitaria e la ricerca clinica

Prendendo a riferimento la realtà di Milano che gestiva un bacino di quasi tre milioni di persone, considerando i flussi in ingresso che caratterizzano l’area Metropolitana, sono stati ridotti i punti di gestione del soccorso dalle 12 COEU 118 con competenza provinciale a 4 sole Sale Operative di Emergenza Urgenza (SOREU), con bacino di popolazione tra 1,5 e 3,5 milioni. «Il sistema – spiega Brambilla – è stato progettato affinché le SOREU possano operare indistintamente connesse a uno dei due Data Comunication & Farm e supportarsi o vicariarsi reciprocamente. La trasformazione da COEU a SOREU ha reso possibile un dimensionamento appropriato del personale in funzione dei volumi di attività, valutati in base al traffico telefonico e al numero di eventi gestiti».

Miglioramento del servizio, ottimizzazione delle risorse e diminuzione dei costi sono stati gli obiettivi principali. «La fase di ottimizzazione – mette in evidenza Brambilla – ha permesso di ottenere una copertura del territorio che rispetti i principi di economicità del servizio e di equità, allocando un numero minimo di ambulanze nei luoghi che permettano di raggiungere teoricamente tutti i pazienti con tempi inferiori a un livello prefissato, impostato a 20 minuti. Il passaggio da Centrale Operativa a Sala Operativa Regionale è stata l’occasione per ristrutturare in modo significativo i processi organizzativi e operativi con l’obiettivo di ottenere un sistema uniforme ed omogeneo: alla base della riorganizzazione, l’adozione di un modello operativo unico che ha previsto la figura dell’operatore tecnico in front-line nella funzione di ricezione chiamate, gestione della flotta e invio dei mezzi di soccorso, la definizione della funzione sanitaria all’interno del processo di gestione del soccorso e la collocazione delle figure sanitarie (medica e infermieristica) in un’area appositamente dedicata».

OBIETTIVI CHIARI PER PARTIRE

Come mostra il caso di AREU, per realizzare un sistema efficace di gestione dei Big Data bisogna sapere quali finalità dovrà avere il progetto. È necessario anche conoscere a fondo l’architettura informatica esistente e i flussi di dati presenti in azienda. Per una corretta definizione del progetto, il passo successivo è capire il risultato che desiderano raggiungere gli utilizzatori, di solito figure professionali diverse. Così, è più semplice organizzare dati e strumenti che possano garantire metodi di interrogazioni ottimali, in tempi di risposta accettabili. In più, si possono definire fin da subito i diversi livelli di aggregazione possibile dei dati, per offrire il livello di granularità delle informazioni a seconda della tipologia dei fruitori finali. Si devono poi compiere le scelte architetturali, cercando di sfruttare le tecnologie che permettano di gestire la mole di dati, strutturati e non strutturati, progressivamente disponibili, su una piattaforma robusta e scalabile. Il tutto, con una certezza: oggi, in questo campo non esistono più problemi insormontabili di natura tecnologica. Si passa poi alla selezione degli strumenti adatti per le analisi, e a impostare gli adeguati criteri di sicurezza. Non da ultimo, si deve definire l’organizzazione che implementerà e farà funzionare il sistema in modo ottimale. Questo aspetto è molto importante, perché la comprensione e l’adozione dei Big Data richiedono una graduale evoluzione dei processi, e un cambio culturale non indifferente all’interno delle aziende: ciò che serve è rompere le barriere, mettere in vera comunione le competenze di ogni funzione e non lavorare come silos separati. Solo in questo modo, si possono sfruttare al meglio i Big Data.