Big Data, l’informazione preziosa

Big Data, l’informazione preziosa

L’ultima tavola rotonda del 2015 era dedicata a Big Data. Dalla definizione del fenomeno alla risoluzione dei problemi, ecco la guida ai vantaggi del business data driven

Un argomento di cui si discute tantissimo ma che ancora sfugge a una definizione precisa. Come sintentizza Alessandro Canzian, corporate marketing director di Vodafone Italy, intervenendo alla tavola rotonda che Data Manager e banca UniCredit hanno dedicato, a dicembre, al tema dei Big Data: «Se Big Data vuol dire “tanti dati”, noi di Vodafone ne abbiamo tanti, da tanto tempo». Il fenomeno della nuova generazione di strumenti e approcci alla business analytics, però, non vuol dire semplicemente “tanti dati”. Lo hanno fatto capire, con dovizia di esempi e ragionamenti, tutti i partecipanti a una discussione molto tecnica, ma appassionante come solo il racconto della buona informatica sa essere.

Uno dei pilastri della cosiddetta Terza Piattaforma, Big Data non riguarda i volumi dei dati, ma la loro natura real time, la loro origine composita e “federativa”. Le informazioni estratte dal trattamento di questi dati impattano non solo sulle singole decisioni, ma su interi processi e modelli di business. Sono dati, come ha ricordato Francesco Maselli, direttore Tecnico di Software AG Italia, che trasformano le aziende, la loro infrastruttura, la loro intelligenza di processo, «in qualcosa di veramente liquido, che può far compiere anche salti di settore». E Giancarlo Vercellino, research & consulting manager di IDC Italia, nella sua puntuale introduzione cita tra gli obiettivi dei progetti più ambiziosi proprio la capacità di generare valore, di aprire la strada verso nuovi prodotti e servizi. Anche costruendo innovativi modelli di partecipazione, federazione con l’esterno. Per Felice Vitulano, Big Data director di Exprivia, tutti «siamo in una fase in cui bisogna fare, sbagliare e imparare dai propri errori». Ma se l’obiettivo è formare competenze fresche, creative anche dal punto di vista dell’approccio ai problemi, allora è auspicabile «la creazione di piccoli ambiti in cui sperimentare qualcosa di particolarmente visionario e innovativo».

1

Integrare per ottimizzare

Ma alla tavola di Data Manager vengono portate anche molte istanze di progettualità e cambiamento che – senza smettere di essere innovative e orientate ai nuovi paradigmi analitici – svelano ampi margini di miglioramento anche sul piano dell’ottimizzazione, della riduzione dei costi. Se ben governate, le nuove tecnologie «permettono di fare ottimizzazioni “semplici”, che tuttavia non eravamo in grado di cogliere in precedenza, anche con vent’anni di esperienza» – ha osservato per esempio Carmine Artone, responsabile sviluppo sistemi operations staff e tecnologie, della direzione sistemi informativi di Gruppo Hera.

Accanto ai nomi già citati, alla tavola rotonda hanno preso parte Roberto Monachino, chief data officer di UniCredit e il suo collega Tommaso Pellizzari, head of data & analytics di UniCredit Business Integrated Solutions. Enrico Albertelli in veste di responsabile marketing engagement di CartaSi; Filippo Costa, ICT corporate advisor di Costa Edutainment; Roberto Catto, process manager business analytics ICT EMEA di FCA Group; e Piero Demetrio Falorsi, CIO dell’Istituto statistico nazionale Istat.

Nel mondo professionale, come spiega Giancarlo Vercellino di IDC Italia, chiamata come sempre a tracciare uno scenario introduttivo propedeutico alla discussione, possono cambiare stili decisionali e modelli organizzativi. Ma da un’indagine effettuata, a livello italiano ed europeo, tra le aziende con più di 50 addetti, emerge un trend molto preciso. «Quando si tratta di business analytics, circa due decision maker su tre hanno la necessità di migliorare sotto diversi aspetti i sistemi informativi aziendali e le informazioni che servono per prendere le decisioni. Tuttavia, a differenza degli approcci analitici più tradizionali, che favoriscono specifici approcci e strumenti, l’ambito Big Data sembra più orientato a esplorare e navigare quel mare di dati oggi disponibili nei contesti disparati».

Il dato scatena l’innovazione

Lo sforzo teso a padroneggiare questo tipo di navigazione per così dire “aperta”, aggiunge Vercellino, non è mai una impresa solitaria. «Su cento iniziative progettuali, 90 mirano a introdurre servizi legati al public cloud, 87 a migliorare le business application in azienda, 79 portano avanti progetti di private cloud. Un secondo tassello che ci fa capire che Big Data rappresenta solo uno degli elementi di una trasformazione molto più complessa». E questa correlazione tra Big Data e innovazione più generale traspare anche quando andiamo a studiare i budget assegnati. Le aziende che spendono di più – in quella che può a suo modo essere considerata una Business Intelligence 2.0, fortemente innervata di elementi che arrivano dalla cultura del cloud, della mobilità e della socialità digitale – sono anche quelle che affrontano progetti di trasformazione più ampi.

Con quali motivazioni, si è chiesto l’analista IDC? Questo forse è meno chiaro, almeno in questa fase ancora molto esplorativa, ma risulta già abbastanza evidente, conclude Vercellino, «che accanto a modelli che legano tra loro in modo ancora tradizionale capitale e lavoro, si sta imponendo anche un trend che vede il dato come strumento per abilitare la creazione di nuovi prodotti e servizi». Una vera e propria economia dell’informazione e della conoscenza brandita come vantaggio competitivo e basata sui dati. Economia che acquisisce e trasforma le informazioni in una autentica materia prima, un carburante che alimenta un nuovo tipo di “fabbriche” capaci non solo di sfornare prodotti nuovi, ma soprattutto di sovvertire, con la loro forza disintermediatrice, modelli e dinamiche competitive già consolidati. Ma anche creando autentici paradossi, sottolinea Vercellino: «Incluso quello della più grande compagnia di taxi al mondo che non possiede un singolo taxi».

Cultura più che tecnologia

Chiamati a discutere su temi come le strategie aziendali, le figure manageriali e professionali schierate, il legame tra le nuove modalità di governo e analisi delle informazioni con l’innovazione di prodotto e processo e naturalmente sui contesti tecnologici, economici e normativi – gli ospiti della tavola rotonda di Data Manager hanno provato a tracciare – sulla questione Big Data – un quadro scevro di semplificazioni o esagerato ottimismo. Il primo intervento è quello di Roberto Monachino, che in UniCredit è recentemente andato a coprire l’incarico di chief data officer. Monachino riconosce che dalla presentazione di Idc emergono i segnali, solo apparentemente contraddittori, di una tecnologia dal forte potenziale innovativo ma anche circondata da un alone di incertezza. «Dipende da due ragioni» – afferma Monachino. «La tecnologia procede troppo velocemente rispetto ai processi aziendali. La seconda ragione è strettamente legata a questo gap. Secondo me, non dobbiamo parlare di Big Data, che suona più come uno specifico prodotto, ma di Big Info, un concetto che dobbiamo imparare a governare». Il vantaggio competitivo, precisa Monachino, non è determinato dalla quantità di dati e dalla loro gestione sul piano tecnologico, ma deriva solo dalla capacità di governare, traendone valore vero, una molteplicità di flussi informativi. Portare questo all’interno di una organizzazione, tanto più se su vasta scala, richiede un grande sforzo soprattutto culturale, afferma anche Monachino: «Per UniCredit, due fattori determinanti sono la centralità del cliente e quindi la user experience e poi tutto l’aspetto della regolamentazione cui è sottoposto il nostro settore, in cui la privacy non è l’unico elemento». Governare tutto questo significa per Monachino «ritornare ai fondamentali», ripartire dai principi del data management e della data quality, ma l’ostacolo principale rimane l’integrazione di piattaforme diverse, un problema che la tecnologia non ha ancora risolto.

2

Caccia alle competenze

Alle sue considerazioni ecco aggiungersi quelle del collega Tommaso Pelizzari, che ricopre l’incarico di head of data & analytics in UniCredit Business Integrated Solutions. Il suo ufficio, spiega Pelizzari, opera come una vera e propria “factory” dei dati e gli strumenti analitici, occupandosi non solo della parte infrastrutturale ma dando pieno supporto al Cdo per la scelte delle piattaforme di data management, l’enforcement delle procedure, l’integrità e la qualità dei dati, l’abilitazione di nuovi processi di business. L’interrogativo di fondo è: «Siamo nelle condizioni di rivisitare o di rivedere i dati di cui disponiamo, o di reintegrarli, o di stabilire partnership con chi ha dati diversi al fine di servire il cliente finale in un modo più completo»? Dalla risposta a queste domande dipende una reale capacità di trasformazione dei dati in valore e cambiamento e se questo è sempre stato il principio fondamentale di ogni approccio alla business intelligence, oggi – sottolinea Pelizzari – «certe cose si possono fare, con tecnologie diverse, su una scala molto maggiore e un costo inferiore». Certo, conclude il responsabile dell’infrastruttura dati del gruppo bancario, dipende anche dalle competenze che le aziende sono in grado di mettere in campo e dall’ulteriore difficoltà di una tecnologia molto liquida, più in fretta di quanto le normali strategie di change management infrastrutturale riescano ad assicurare. Diversi tra i nostri interlocutori accennano al problema delle competenze, senza necessariamente riferirsi all’aspetto strettamente collegato alla natura statistica, matematica dei problemi. Big Data porta con sé un diverso atteggiamento, un approccio alla scoperta di informazioni nuove che deriva dalla natura real-time, o continuamente aggiornata dei dati utilizzati. Come osserva acutamente Artone di Hera: «Il real-time è forse la novità del mondo Big Data rispetto alla business intelligence, che restituiva le sue indicazioni due giorni dopo, anche a causa del lungo lavoro di riallineamento che veniva effettuato in batch». La tempestività con cui si ottiene una conoscenza potenzialmente disruptive è una novità non solo per i data scientist, ma per tutti i decisori in azienda.

Imparare facendo

Enrico Albertelli, responsabile marketing engagement di CartaSi, sottolinea che anche in una organizzazione che può contare su un patrimonio di dati-cliente vasto e molto più dettagliato rispetto a “disintermediatori” come Google o Amazon che nel mondo dei pagamenti stanno entrando in diretta competizione con i circuiti di carte di credito, il valore non sta nel semplice possesso del dato, bensì nella capacità di utilizzarlo. «Un principio che ho elaborato in questi anni è che operare da subito facendo del learning-by-doing, anche con tecnologie esistenti è sicuramente un modo efficace di affrontare il problema» – dice Albertelli. A volte, aggiunge l’esperto, si diventa vittima dei processi aziendali o decisionali, si fanno grossi investimenti per cambiare le architetture o adottare piattaforme di integrazione che finiscono per rallentare l’azione di una azienda. «Poter lavorare su informazioni esclusive, che altri non hanno, rappresenta comunque un differenziale notevole». Albertelli pone il recente esempio di un nuovo sistema di generazione automatica di offerte di acquisto a prezzi scontati che CartaSi ha realizzato, integrando le informazioni sul comportamento degli acquirenti che utilizzano le sue carte. Un caso in cui l’operatore è riuscito a massimizzare il valore del suo asset informativo. «Se in chiave Big Data, avessimo la possibilità di abbinare gli scontrini dei singoli merchant, entrando nel dettaglio dei singoli prodotti, avremmo una ulteriore capacità di profiling» – riconosce Albertelli. Ma oggi, conclude il rappresentante di CartaSi, valorizzare un dato interno significa porsi anche il problema di come fare sharing con altri partner a fronte di un trend normativo che come evidenzia lo studio Idc, impone di rendere ancora più democratico il dato, esternalizzando sempre più alcune informazioni in una sorta di “unbundling” delle relazioni tra banche, circuiti di pagamento, merchant e clienti.

3

Uscire dai silos

Se la motivazione di CartaSi nell’implementare nuovi prodotti analitici, secondo Albertelli, è di stimolare un uso più intenso delle carte di pagamento, ancora attestato su quote abbastanza marginali rispetto ad altre nazioni, a proposito degli obiettivi delle strategie Big Data nel settore finanziario, Vercellino cita tematiche come «il supporto all’automazione di parte degli algoritmi di trading, la misurazione dei rischi di capitale, la ottimizzazione dei call center, la valutazione delle iniziative a portafoglio, la detection di attività legate alle frodi e altre applicazioni in ambito di security intelligence. Meno sentita, la personalizzazione dell’offerta basata sulle esigenze del cliente». A questo proposito, Pellizzari di UniCredit, osserva giustamente che alcune di queste priorità, per esempio l’automazione degli algoritmi di trading, denunciano la struttura di un business ancora abituato a compartimentalizzare i suoi processi. «Se stai pensando all’algoritmo di trading, vuol dire che operi in un silos che ha ancora ampi margini di ottimizzazione. Fare invece il punto sugli aspetti di una proposition più mirata, basandosi su nuove modalità, richiede l’attivazione di una serie di canali, processi, soggetti che sono trasversali alla banca o alla azienda e questo è ancora lontano da certe culture».

Nella sua veste di responsabile cross industry dei progetti Big Data per il system integrator Exprivia, Felice Vitulano è convinto che la situazione attuale sia già una conseguenza delle cose già sperimentate all’inizio del fenomeno Big Data. «Oggi – spiega Vitulano – vedo un approccio più “creativo”. A proposito di modelli federativi, per esempio, mi vengono in mente tutte le startup che hanno già cominciato a raccogliere il dato, a disintermediare, a creare quelle sottostrutture che le aziende più mature possono utilizzare per forgiare, per esempio, una profilazione più fine». Ciò che manca ai system integrator, per riuscire a costruire un mercato Big Data, è una collaborazione più stretta con le aziende che devono condividere i loro problemi e partecipare allo sviluppo di soluzioni. Vitulano esorta anche a uscire dalla “gabbia” della business intelligence tradizionale, troppo legata alle logiche transazionali interne, e a non farsi vincolare troppo dai limiti della compliance, rinunciando per paura ad approcci troppo “rivoluzionari”: «Chiediamoci fin da subito se certe idee possono già avere ricadute serie sul mercato e poi capiamo come gestire la parte normativa. Diverso è se parliamo di governance dell’informazione, del dato, che non è un ostacolo ma un’opportunità per generare nuovo insight».

Exprivia, un ecosistema virtuoso per i Big Data

felice vitulano exprivia

Anche il meteo fa vendere

Con la mission di gestire siti di interesse turistico, naturalistico e culturale come gli acquari e i parchi acquatici e tematici a Genova, Cattolica, Malta e altre località, Costa Edutainment ha il suo asset informativo principale in un imponente numero di visitatori. «Se da un lato si lavora per dare un prodotto di qualità – ricorda Filippo Costa, consulente informatico della società, «nel momento in cui stabilisci partnership e accordi di sponsorship, la profilazione dettagliata delle famiglie diventa un valore molto appetibile per determinati settori». Ma ancora una volta, l’asset fisico non basta, bisogna tradurlo nel suo corrispettivo digitale. Compito non banale per Costa Edutainment, in presenza di dati molto strutturati, in cui entrano fattori come le previsioni meteo: «Riuscire a prevedere le condizioni del tempo consente di fare azioni di marketing mirate e di operare in maniera molto più fluida». Anch’essa fedele al principio della sperimentazione, Costa Edutainment sta già abbinando a Big Data i concetti della Internet of Things, con un ambizioso progetto che sfrutta la sensoristica per ottimizzare il funzionamento dei sistemi di trattamento delle acque, vitali per una rete di acquari. Secondo Costa, si può immaginare di ridurre i costi energetici del trattamento di almeno il 10%, con significativi risparmi sul regime di spesa annuale.

Roberto Catto, process manager business analytics ICT EMEA di FCA Group, come rappresentante di un’azienda primaria nel settore manifatturiero, sottolinea la difficoltà – soprattutto organizzativa e culturale – di un passaggio che vede una generazione di analisti business – abituata ad affrontare il dato in modo tradizionale identificando problemi, misurando i fenomeni, proponendo specifiche soluzioni – impegnata nel passaggio da un approccio che Catto definisce di «data driven discovery». Secondo il manager di FCA, «la relazione tra business e IT deve essere molto più interattiva e collaborativa». Il gruppo automobilistico globale vede molte opportunità di crescita nel digital marketing e nella comprensione profonda dei vari “touch point” con i clienti.

Più qualità, e subito

Ma anche negli altri aspetti della produzione, prosegue Catto, c’è molto valore da estrarre dai dati e fenomeni già noti, semplicemente inventando nuove correlazioni. «Nel processo produttivo di una vettura, la qualità e gli elementi che entrano in gioco sono molteplici e riguardano la progettazione, la produzione, la fornitura. Tutto può contribuire ad aumentare la qualità del prodotto. Eppure, la responsabilità dei dati e l’ownership delle informazioni sono fasi ancora molto parcellizzate: ognuno governa bene la parte che gli viene affidata». In prospettiva, lascia capire Catto, nelle aziende manifatturiere deve aumentare la virtuosità di un’analisi autenticamente “cross process” e un altro obiettivo deve essere quello di aumentare la conoscenza predittiva dei problemi, per riuscire ad anticipare le conseguenze di certi difetti, accorciando i tempi di reazione.

4

In questo ambito, FCA sta sperimentando soluzioni di machine learning applicate all’analisi Big Data. «L’azienda, che ha un suo customer care rivolto alla rete di assistenza, sta cercando di aumentare il valore delle informazioni testuali che i responsabili delle officine trasmettono ai loro referenti di prodotto al nostro interno. Modalità diverse da quelle tradizionali possono colmare molti gap nel processo che va dallo sviluppo del prodotto fino alla messa in servizio del veicolo». La cosiddetta predictive maintenance (PdM), osserva Vercellino, rientra tra le tematiche “calde” rilevate nei survey di Idc. «L’attenzione va verso l’ottimizzazione dei processi e dei rapporti di fornitura per i quali Big Data rientra nelle roadmap di progettualità che, nel giro di un anno o due, coinvolgeranno molte aziende del settore manifatturiero anche se con dinamiche diverse da quelle che abbiamo visto per il finance».

Se lo statistico legge Google Trends

Per un’istituzione ufficiale di alto livello come Istat, ha sottolineato Demetrio Falorsi, CIO dell’Istituto nazionale di statistica, l’attuale evoluzione degli approcci a Big Data rappresenta una formidabile occasione per rivedere, a livello italiano ed europeo, le strategie di misura adottate dai diversi istituti di statistica. Anche qui, ammette Falorsi, tende ancora a dominare una cultura compartimentalizzata. Infatti, in una realtà dalle dinamiche così complesse, una maggiore integrazione gioverebbe molto a una forma di “intelligence” che influisce direttamente sulle decisioni in materia di politica economica, industriale e quant’altro. Certe differenze, precisa Falorsi, hanno sempre contraddistinto la filosofia di Istat, basata su indagini a campione. «Nei paesi nordici, vige da tempo la cultura del “register based statistical system”, che si fonda sulla capacità di integrare tante informazioni di origine amministrativa. Con Big Data, ci siamo resi conto in Italia, e più in generale nel mondo statistico europeo e globale, che bisogna andare verso nuove modalità basate sull’integrazione dei dati e delle fonti» – spiega il Cio di Istat. Questo cambio di rotta implicherà un grande sforzo di adattamento, anche a livello di governance dei dati e dei processi interni. C’è però un altro problema di fondo, che angustia Istat così come molte grandi organizzazioni. Big Data apre la strada ad approcci sui quali, outsider più piccoli e tattici possono far leva per conquistare inattesi spazi di mercato. «Istituzioni come la nostra rischiano già di perdere rilevanza rispetto ad altri produttori di dati» – ammette Falorsi. Occorre anche in questo caso rispondere con la sperimentazione. Istat per alcune sue indagini – oltre duecento quelle attive – comincia per esempio a utilizzare fonti esterne o strumenti come Google Trends e i canali social. In Italia, Istat fa parte di una commissione tecnica Big Data insieme a Cnr, Bankitalia e alcune università, mentre a livello europeo e globale, Falorsi cita due importanti task force istituite in ambito Ocse e Onu.

Quando l’infrastruttura risponde

Mentre la tavola rotonda comincia ad avviarsi alla sua conclusione, Francesco Maselli di Software AG, prova una prima, difficile sintesi di una discussione che ha messo in luce diversi obiettivi, ostacoli e priorità non necessariamente tecnologiche. Maselli trova subito un modo efficace per collegarsi a un tema rimasto finora un po’, sottotraccia: i presupposti infrastrutturali. Il direttore tecnico dello specialista di soluzioni di integrazione dice di apprezzare i diversi gradi di maturità espressi dai settori e la maggiore facilità culturale di chi insegue i vantaggi di business che possono derivare dall’acquisizione e dalla correlazione di grossi volumi di dati destrutturati. «Dall’esperienza con i nostri clienti, conosciamo il valore di una strategia analitica non standard rispetto al passato» – afferma Maselli. Il valore più grande nasce quando è possibile far corrispondere l’acquisizione destrutturata e correlata a informazioni interne, ed esterne, contestualizzandole e mettendo a fattor comune il potenziale di competenze interne che rappresenta il vero vantaggio competitivo. «In questo senso però, le aziende che ottengono risultati migliori e mettono in campo nuovi modelli di business sono quelle che sanno risolvere la complessità architetturale di una IT spesso cresciuta in modo molto rapido e disordinato. È fondamentale poter contare su infrastrutture semplici, snelle, dove far confluire in maniera molto dinamica i dati e attuare nuovi modelli».

Software AG, Big Data e co-innovazione

francesco maselli software ag

Questa elasticità viene evocata anche da Carmine Artone, impegnato a coordinare le nuove strategie analitiche del Gruppo Hera, un’azienda di servizi che – proprio per la sua natura diversificata, tipica delle multiutility che svolgono attività di distribuzione di acqua, energia e servizi ambientali di trattamento rifiuti – può incontrare nella compartimentalizzazione un ostacolo addirittura più consistente. «Considerazioni – riconosce Artone – che ci hanno avvicinato molto al Big Data. Abbiamo capito che senza passare da una architettura integrata di sistemi che si parlano in real o quasi real-time, con meccanismi di messaggistica dati in grado di avvicinarci ai dati dei nostri asset sul campo, non saremmo arrivati a definire modelli di dati davvero trasversali alle aree aziendali». Oggi, Hera è in grado di raggiungere granularità di dettaglio prima impensabili, osserva ancora Artone, che cita i notevoli margini di miglioramento ottenuti anche solo sul piano dell’ottimizzazione di aree come la gestione dei percorsi degli automezzi adibiti alla raccolta dei rifiuti e la manutenzione preventiva di questi veicoli.

Soddisfazione e personalizzazione

Rispetto ad altri interventi, quello di Alessandro Canzian denuncia un altro genere di dimestichezza con le problematiche legate al valore di una mole di dati di per sé impressionante. Con 30 milioni di “record cliente” attivi, Vodafone Italia genera flussi informativi difficili da quantificare, tra dati di rete, posizionamento dei dispositivi, attività degli utenti, relazioni con il customer center. Secondo Canzian, a tali dati interni si aggiunge la possibilità di accedere, per esempio su canali social, a una seconda categoria di informazioni destrutturate esterne. «Poter correlare queste grandi fonti di dati offre diverse opportunità a un operatore come Vodafone. Due obiettivi fondamentali dell’analisi real-time sono la churn rate prevention e la customer acquisition». Il passaggio successivo è qualcosa che oggi si riesce a fare in modo ancora elementare, ma che vanta un formidabile potenziale. «Penso alla personalizzazione one-to-one della relazione e dell’offerta verso il cliente». Vodafone, conclude Canzian, ha cominciato a farlo su temi specifici, per esempio sul roaming dati internazionale, molto utilizzato ma anche molto temuto per le possibili brutte sorprese che attendono in bolletta gli abbonati che tornano da un viaggio. Dai dati di posizione e consumo, Vodafone può ricavare una serie di segnali da utilizzare per una più puntuale informazione rivolta al singolo utente, ma anche per mettere in atto varie misure correttive. Forte di queste esperienze in ambito Big Data, Vodafone si appresta a cavalcare un fenomeno che la vede in questo momento occupare un ruolo di prominenza tra gli operatori mobili globali: l’Internet degli oggetti.

Big Data, i punti caldi della Tavola Rotonda

tavola rotonda big data

Ti potrebbe interessare

Categorie: Tavole Rotonde