Il nuovo fattore produttivo dei dati. Come incorporare la data monetization nella strategia aziendale, comprendendo l’importanza della data quality, creando le strutture giuste e comunicando il valore dei dati all’interno e all’esterno per favorire la crescita

L’umanità digitale sta producendo, e produrrà sempre di più, enormi quantità di dati. Secondo le stime di IDC, il volume annuale dei dati creati, replicati e consumati nel 2018 ha superato i 30 zettabyte. Nel 2023, si arriverà addirittura a un valore di oltre 100 zettabyte creati ogni anno. Lo zettabyte (ZB) è un’unità di misura della quantità di dati, pari a un triliardo – cioè a mille miliardi di miliardi (10 elevato a 21) – di byte. Già soltanto nel leggere questo numero si resta impressionati. Ma quello che lascia sbalorditi è che – soltanto nel 2010 – la misura di tutti i contenuti digitali presenti nel World Wide Web non raggiungeva neppure il singolo zettabyte. Per farsi un’idea pratica, in uno zettabyte possono essere archiviate 180 milioni di volte tutte le documentazioni conservate nella Biblioteca del Congresso di Washington. Crescono in maniera esponenziale soprattutto i dati non strutturati, tipici del mondo Internet (immagini, video, email, messaggi sui social network): ogni secondo vengono inviate tre milioni di email e oltre 50 milioni di tweet.

I DATI COME PILASTRO DEL BUSINESS

Questo aumento di produzione di dati ha diversi driver, tra i quali i principali sono la crescente diffusione e l’utilizzo di device mobili, le tecnologie IoT, i processi e macchinari connessi, i prodotti digitali. La gestione di questa mole di dati – per diversi motivi che approfondiremo in seguito (dimensione, velocità, tipologia) – è complessa, ma le organizzazioni hanno maturato la consapevolezza che devono basare sempre più le proprie strategie su una corretta ed efficiente gestione dei dati, e su una loro accurata analisi: solo così ne possono trarre il maggior valore possibile, utile allo sviluppo del proprio business. In qualunque settore operino, le aziende hanno compreso che i dati possono essere una ricchezza, e che nei loro archivi si trovano quantità di dati inutilizzati. Si tratta di un patrimonio che può generare nuove e interessanti opportunità di business, soprattutto se non ci si limita a operare solo sui propri dati, ma si allarga la visione al contesto, arricchendo i propri archivi per comprendere meglio il proprio mercato, e i fenomeni del nostro tempo. Per farlo, le aziende hanno bisogno di migliorare la qualità dei dati, e di esplorare a fondo il loro potenziale, gestendo la complessità legata alla crescente mole di dati a disposizione. Per raggiungere questo obiettivo, si stanno diffondendo le piattaforme di Data Visualization e di Data Discovery, che aiutano gli utilizzatori a scavare in profondità, e a meglio comprendere i risultati grazie a una rappresentazione grafica semplice e immediata. Una vera miniera d’oro, se ben sfruttata: qualcuno ha definito non a caso i dati come il petrolio del nostro secolo. Se è vero, però, che tutte le organizzazioni generano dati, è altrettanto vero che solo poche aziende sono oggi in grado di ricavarne informazioni davvero utili. Chi lo sa fare, però, ha successo: difatti alcune delle aziende più ricche del mondo – Amazon, Google, Facebook – sono tra le principali utilizzatrici di dati in modo massivo.

PIÙ GESTIONE CHE ANALISI

In base a una recente ricerca di IDC, condotta a livello europeo, i principali obiettivi di business che stanno spingendo le aziende di tutti i settori a basare le proprie strategie sui dati si riferiscono essenzialmente a tre ambiti principali: migliorare e ottimizzare i processi e le operations, migliorare la conoscenza del mercato, dei clienti e dei competitor, migliorare l’innovazione di prodotti e servizi. Seguono altri aspetti: ottimizzare strategie di prezzi e programmi go-to-market, aumentare la comprensione di comportamenti e attese dei clienti, migliorare la manutenzione e la progettazione di equipment e facilities, implementare una migliore conformità alle normative, e migliorare la gestione di frode e rischio. In quest’ottica, è indispensabile avere una visione delle opportunità che i dati possono offrire, quindi la consapevolezza del potere della Big Data Analysis. Un’indagine di IDC ha evidenziato che l’80% del tempo che un’organizzazione dedica ai dati è speso in attività di gestione – ricerca, preparazione e protezione – e solo il 20% in attività analitiche per estrarre valore e informazioni. Le aziende devono dotarsi di strumenti e pratiche di Data Intelligence, e magari anche dei più potenti strumenti di intelligenza artificiale e di machine learning, in modo da avere più tempo per la fase analitica, e veicolare il dato giusto alla persona giusta al momento giusto. «Le aziende sono focalizzate sul miglioramento dell’esperienza dei clienti, sullo sviluppo di nuovi prodotti e servizi, sul time-to-market e sull’accelerazione dei processi decisionali» – spiega Diego Pandolfi, research & consulting manager di IDC Italia. «Una corretta ed efficiente gestione dei dati, alla base di queste strategie, può quindi influenzare l’effettivo raggiungimento degli obiettivi aziendali, e questo grazie agli strumenti di Data Intelligence, in grado di fornire un supporto sia alle linee di business sia all’IT per una migliore conoscenza dei dati e per una governance efficace».

TRASFORMARE IL DATO IN VALORE

Il vero valore dei dati non sono i dati stessi, ma la nostra capacità di utilizzarli: per questo è fondamentale promuovere una vera e propria cultura del dato nelle organizzazioni di ogni tipo con una corretta data strategy. Infatti, la differenza non viene fatta dai dati soltanto, ma da come un’azienda li gestisce, li rende disponibili, li analizza, impara da essi e poi li utilizza per decidere. Per trasformare il dato in informazioni, poi in valore e quindi in leve competitive sono necessarie innanzitutto tecnologie appropriate, per raccoglierli, conservarli, mantenerli univoci e integri, renderli catalogabili ed estraibili, integrabili e distribuibili: il tutto, inserito in un’architettura in grado di assicurare scalabilità, velocità, protezione e flessibilità. I dati su cui si compiono le analisi devono essere raccolti, gestiti e archiviati secondo principi chiave. Nel 2001, uno studio di Meta Group aveva definito per la prima volta l’approccio tridimensionale alla gestione dei dati, secondo le “3V”, Volume, Velocità, Varietà. A questi principi – validi ancora oggi – si sono aggiunte ulteriori “V”, da tenere in considerazione per la riuscita di un progetto in questo ambito: Viralità, Veridicità e Variabilità, oltre alla V di Valore. Per quanto riguarda il Volume, l’imponente massa di dati da elaborare richiede una sempre maggiore capacità di calcolo, e spinge all’adozione di architetture cloud, o di macchine fisiche dotate di abbondante spazio per l’archiviazione. Bisogna organizzarsi per gestire la Velocità, perché i dati sono prodotti con sempre maggior velocità e frequenza, hanno spesso una validità temporale, in certi casi anche molto stretta, e spesso è richiesta la capacità di raccolta, gestione e analisi del dato in real time. I dati hanno anche una notevole Varietà, sia di tipologia (strutturati e non strutturati), di provenienza (interna ed esterna, dai sistemi gestionali e dai CRM presenti in azienda, dai dati di mercato, dai social), sia di formato (dati numerici, immagini, documenti, video, email, e così via…), alcuni di difficile gestione con le tecniche di organizzazione dei database tradizionali. Occorre quindi la capacità di catturare e interpretare ogni tipologia di dato, con la complessità che questo comporta nella creazione delle infrastrutture IT dedicate. I dati hanno anche caratteristica di Viralità: quantità e velocità con cui vengono generati portano a reazioni con tempi che sono la viralità delle conseguenze delle reazioni stesse. Fondamentale, la Veridicità dei dati: qualità e integrità delle informazioni sono il pilastro sul quale poggiare le tecnologie di gestione dei dati, altrimenti le analisi non sono né utili né affidabili. Infine, la Variabilità: il valore del dato dipende non tanto dal dato stesso, ma dal contesto nel quale è raccolto e analizzato. Solo seguendo questi principi, i dati ci fanno raggiungere l’obiettivo del Valore: limitarsi a raccogliere i dati, pur sfruttando le migliori tecnologie disponibili sul mercato, non garantisce di avere informazioni e soprattutto di estrarne conoscenza.

OBIETTIVI E ARCHITETTURE

Quando si decide di intraprendere l’approccio data-driven e di valorizzare i dati a disposizione, si deve partire dalla definizione degli obiettivi: cosa si vuole ottenere, quali sono le domande che faranno gli utenti. È importante capire quali tipi di risposte gli utenti desiderano ottenere: se sono noti i risultati, risulta più facile organizzare dati e sistemi per raggiungere gli obiettivi all’insegna della massima efficienza. Si deve pensare anche che ci si rivolge in genere a figure professionali diverse, dunque si devono pensare metodi di interrogazioni adatti a ciascuna tipologia, e lavorare per garantire adeguati tempi di risposta: i requisiti di qualità del servizio sono alla base di un progetto di questo tipo. Solamente dopo, si può iniziare a pensare dove archiviare i dati e come analizzarli, bisogna capire a fondo come funziona un sistema di questo tipo e – più in particolare – come funzionano database e infrastrutture: per fortuna, la tecnologia a supporto è matura, e sono disponibili strumenti e documentazione per facilitare questo compito. Subito dopo, si devono analizzare le fonti dei dati che popoleranno l’ambiente. La base normalmente è costituita da tutto quanto si può sfruttare dai propri dati, quindi dall’ERP e soprattutto dal CRM, se utilizzato come sistema per tracciare ogni contatto con i propri clienti e prospect. Questi dati, interni all’azienda, sono integrati con molteplici fonti, tra le principali il sito web aziendale, i social media, i messaggi di posta, le app, l’e-commerce, l’IoT, le tecnologie wearables, le interazioni con clienti e partner commerciali, i dispositivi di localizzazione, il cloud. I dati possono essere strutturati e destrutturati, ma bisogna essere in grado di organizzarli in modo che il sistema riesca a processarli nel modo più efficiente: le anagrafiche devono essere rese consistenti e coerenti, così da non avere versioni multiple delle stesse informazioni. Le organizzazioni hanno in genere più fonti di dati da cui attingere, è importante scegliere quelle che sono realmente significative a seconda dell’obiettivo che ci si è posti. È importante – e in molti casi sottovalutata – la fase di Data Integration, dove i dati vengono correlati tra loro e arricchiti con elementi di contesto, statistiche, serie storiche che possono rendere più profonda la conoscenza del fenomeno preso in esame. Si deve scegliere la giusta tecnologia che aiuti in tutte le fasi (estrazione dei dati, decodifica e normalizzazione, integrazione e analisi), non dimenticando la sicurezza e la compliance dei dati.

Leggi anche:  La trasformazione agile

L’IMPORTANZA DEL TEAM

Si deve però dare il giusto peso alle capacità e alle competenze umane: gli strumenti e gli elaboratori possono aiutare un’organizzazione in ogni ambito, ma serve capacità di analisi, idee, intuizioni e anche un buona dose di creatività. È quindi fondamentale la creazione di un team di lavoro con diverse figure con le caratteristiche necessarie per lavorare in maniera efficace con questi sistemi: servono sicuramente conoscenze informatiche, in particolare di architetture tecnologiche e di codice di programmazione, conoscenze di analisi statistica, di visual analytics, di machine learning e di analisi di video e immagini. Devono essere presenti anche risorse che abbiano conoscenze e visione del business, dell’azienda e del mercato, per valutare come applicare efficacemente gli analytics, risorse con capacità di prendere decisioni, e risorse dotate di capacità di comunicazione. Questo team sarà in grado di selezionare, attraverso immagini, grafici e modelli di immediata comprensione, le informazioni da valorizzare, quelle da approfondire, quelle meno utili ai fini delle analisi che si intendono compiere. Questa è la corretta catena che fa passare dai dati – che sono la rappresentazione di transazioni, entità, fenomeni, eventi – alle informazioni che sono il risultato del processo di analisi – e alla conoscenza che si ottiene quando le informazioni vengono utilizzate per prendere decisioni che si traducono in scelte e azioni concrete.

PROBLEMI ANCORA APERTI

Tra le principali sfide ancora aperte che possono ostacolare le strategie basate sull’analisi dei dati spiccano invece problematiche organizzative, tra cui silos dipartimentali, problemi di data ownership all’interno dell’azienda, budget limitati e carenza di competenze. I primi due punti si risolvono con una maggiore collaborazione tra i diversi dipartimenti dell’azienda e con una strategia comune di gestione dei dati, che identifichi chiaramente governance e ruoli, e che definisca obiettivi e linguaggio comune. Per quanto riguarda la limitazione dei budget, questo verrà superato solo quando ci sarà un cambio culturale, e la gestione dei dati non sarà più vista solo come un costo: purtroppo – ancora oggi – gli investimenti IT in Italia sono un terzo rispetto a quelli tedeschi e del Regno Unito, e la metà rispetto a quelli francesi, divario che si accentua se si considerano soltanto gli investimenti nell’area Big Data. Sul fronte delle competenze, la questione è chiara: per intraprendere con successo iniziative di innovazione e di trasformazione digitale è indispensabile disporre di profili in grado di sfruttare al meglio le potenzialità di tecnologie come cloud, analytics, machine learning, robotica, e di gestire progetti in ambienti agili.  In una survey a livello mondiale per comprendere gli impatti derivanti dalla carenza di competenze e per analizzare i fattori chiave che influenzano la domanda di professionisti IT, IDC ha stimato che, nel 2020, il 90% delle aziende mondiali sarà interessata dalla carenza di competenze IT, e questo “gap” comporterà una riduzione dei ricavi complessivi quantificabile in 390 miliardi di dollari.

GLI IMPATTI DELLO SKILL GAP

Lo skill gap impatterà sia sull’aumento delle attività di training sia sul ritardo relativo allo sviluppo di nuovi prodotti e servizi e per l’implementazione di nuovo hardware e software. Il mercato del lavoro continuerà ad essere influenzato dalla diffusione e dalla pervasività delle tecnologie ed evolverà in maniera dinamica e diversificata: già oggi le aziende, oltre a colmare i gap attuali, devono considerare le necessità future in termini di competenze per garantire un supporto adeguato alle strategie evolutive del business. Secondo un’indagine della Camera di Commercio Italo-Germanica, su 120 aziende medio-grandi del Nord Italia, due terzi stanno implementando la digitalizzazione, ma quasi un’azienda su due lamenta la mancanza di competenze specifiche per gestire le complessità tecnologiche. Ai dirigenti viene richiesta soprattutto capacità di problem solving e di creative thinking – ai quadri, competenze analitiche e statistiche – agli impiegati, competenze IT di base e avanzate – agli operai specializzati, competenze di meccatronica e di automazione industriale. Sempre più difficile reperire sul mercato i profili professionali idonei a gestire la rivoluzione tecnologica in corso, non solo in Italia, dove però è più evidente che altrove il mismatch tra domanda e offerta di lavoro su questi profili: uno “skill divide” che va colmato al più presto.

I DATI COME MONETA

Oggi, i dati sono facilmente disponibili, sono aumentate le capacità di storage, a costi molto ridotti rispetto al passato, e sono maturi e diffusi gli strumenti di business intelligence e di data analysis. In queste condizioni, aziende e organizzazioni che dispongono di volumi di dati importanti, si sono accorte che non è così difficile capitalizzarli, sfruttando informazioni fino a oggi quasi inutilizzate. Operare sui dati, dalla raccolta all’archiviazione e all’analisi, non è più considerato un mero costo, ma oggi si vede la possibilità concreta di una loro monetizzazione. L’era digitale in cui viviamo ha aperto la strada a diverse opportunità, ma le tecnologie digitali a disposizione permettono di raccogliere la sfida che ogni azienda deve affrontare: riuscire a riconfigurare i propri processi aziendali con flessibilità e rapidità, e saper anticipare le esigenze del consumatore finale, creando servizi personalizzati per soddisfarla nel modo, nel tempo e nel posto giusti. Una volta aggregati, infatti, applicare l’Intelligence su questi dati può aiutare per esempio gli esperti di marketing a identificare il comportamento dei clienti per una specifica area di distribuzione, e di personalizzare le campagne marketing sfruttando analisi dettagliate sulla clientela. Sky Italia – per esempio – è riuscita a raggiungere il singolo cliente con l’offerta più adeguata, attraverso il canale di contatto preferito, senza mai perdere di vista budget e vincoli di contact policy. Associare i benefici per il cliente finale con gli obiettivi dell’azienda significa permettere ai consumatori di scegliere sulla base di una proposta qualità-prezzo soddisfacente e in linea con le sue preferenze. Il progetto si compone di due anime: una componente analitica per costruire le misure predittive, volte a stimare i comportamenti futuri dei clienti; una componente operativa che, mediante l’ottimizzatore, associa singole offerte a ogni cliente per il periodo di ottimizzazione scelto. In questo modo, Sky è riuscita a ottenere redemption incrementali comprese tra il 10 e il 20%. Le tecnologie digitali aiutano anche a sviluppare nuovi prodotti e servizi, ma possono anche arrivare a far generare nuovo business, creando nuove fonti di ricavo, vendendo le informazioni derivanti dai dati ad altri mercati. Questo processo di conversione dei dati in informazioni utili e preziose al fine di generare reddito viene chiamato Data Monetization. I dati, in effetti, sono ormai diventati anche una moneta: le aziende possono comprare, vendere o scambiare dati tra loro, ottenendo benefici reciproci. Non è difficile trovare clienti, anche in settori diversi dal proprio, se si dispone di un interessante patrimonio di dati.

Leggi anche:  Hitachi Vantara e l’esperienza dell’azienda data driven

CONOSCENZA SU PIÙ LIVELLI

La Data Monetization consente una conoscenza su più livelli: da un lato permette una visione generale, ma filtrando il campione analizzato si può scendere in profondità, determinando comportamenti in base a caratteristiche scelte – per esempio – legate alla posizione geografica o alle preferenze di prezzo degli utenti. Così è più rapido capire come posizionare un prodotto, caratterizzare un’offerta in funzione di una situazione data o di determinate esigenze o preferenze dei consumatori. La Data Monetization può essere diretta o indiretta. Sono monetizzazioni dirette quelle derivanti dalla vendita di dati: questi possono essere in formato grezzo, senza alcun trattamento, o elaborati, cioè già trasformati in informazioni e conoscenza. La monetizzazione diretta si rivolge all’esterno dell’azienda, comporta la creazione di nuovi business rendendo i dati disponibili in forma anonimizzata a clienti e partner. La Data Monetization è indiretta quando è focalizzata alla valorizzazione dei dati per migliorare i processi, la produttività, i prodotti e i servizi: è quindi rivolta verso l’interno dell’organizzazione, ed è anche essa molto importante: la capacità di abbassare le inefficienze operative o di essere un elemento di velocizzazione dei diversi processi può avere impatto importante sulle organizzazioni, ed essere così un vantaggio competitivo sul mercato.

I CONSIGLI DI IDC

Se ormai la tecnologia a supporto è matura, c’è ancora tanta strada da percorrere per sfruttare al meglio quanto si ha a disposizione. In molti casi, l’obiettivo della Data Monetization si scontra con la realtà, lontana dall’ideale – come commenta Giancarlo Vercellino, associate research director di IDC Italia. «Esiste una grande quantità di dati non-strutturati completamente negletti da qualsiasi forma di indagine, approfondimento e analisi. Il 30% delle imprese ignora i dati relativi alle interazioni con i clienti. Il 40% trascura i dati provenienti dai repository di contenuti. Quasi il 50% delle imprese ignora e non analizza in modo formale i dati provenienti dalle conversazioni sui social network». Quando si parla di Data Monetization, il dato non strutturato viene trascurato quasi sistematicamente dalle imprese, che si affidano a processi di analisi formali soltanto per le informazioni che possono essere facilmente strutturate all’interno dei data warehouse aziendali. Secondo Vercellino, le possibili cause del problema sono tre: «La mancanza di uno specifico business case, e quindi un limite riconducibile alla LoB; la complessità nei processi di data integration, e quindi un limite riconducibile all’IT; la mancanza di competenze specifiche di analisi dei dati, e quindi un limite riconducibile alla data analysis. Le condizioni necessarie – e molto spesso sufficienti – per arrestare qualsiasi percorso di sviluppo data-driven non sono quasi mai riconducibili a complessità esclusivamente IT, soprattutto in un contesto di mercato dove la sempre maggiore democratizzazione open-source delle tecnologie di Big Data Analytics consente a qualsiasi azienda di sperimentare nuovi modelli analitici con costi esclusivamente interni. Le difficoltà sono legate alla cultura manageriale: quanti manager sono davvero disposti ad affidarsi al dato nel governo dei processi e nella governance delle imprese? Molte decisioni – tanto nelle piccole quanto nelle grandi aziende – sono affidate a prassi gestionali che molto spesso travalicano completamente la logica stringente dei dati».

TELCO E UTILITY

Nelle telco e nelle utility, quotidianamente gli operatori raccolgono grandi quantità di dati, utilizzati esclusivamente per la tariffazione o per le attività di manutenzione della rete. Questi dati – però – contengono anche interessanti informazioni su orario delle chiamate, durata, destinazione, e anche sulla qualità della chiamata. L’analisi di questi dati può rivelarsi molto utile: per esempio, incrociare i dati relativi al cliente con quelli relativi alla rete può far migliorare i livelli di servizio e dunque ridurre il rischio di abbandono, o mostrare nuove opportunità di vendita. Nel settore delle utility e in particolare delle energie rinnovabili, grazie all’analisi dei dati, Enel Green Power ha evidenziato e risolto i malfunzionamenti in maniera mirata, migliorando l’efficienza produttiva degli impianti e riducendo i costi di ripristino in caso di failure. Oltre a identificare e risolvere i malfunzionamenti in maniera immediata e puntuale, Enel Green Power ha potuto aumentare l’efficienza produttiva e garantire la continuità operativa degli impianti, ridurre i costi di ripristino in caso di failure, comprendere e risolvere problematiche aperte da lungo tempo. Gli stessi dati, resi anonimi e aggregati per posizione, sesso, età, possono essere rivenduti ad altri operatori, per lo sviluppo di nuovi servizi.

Nelle telco, Vodafone Italia utilizza i dati per il real-time marketing, offrendo ai propri clienti ciò di cui hanno bisogno quando ne hanno effettivamente bisogno, aumentando la loro fiducia verso il brand e ottimizzando il valore per l’azienda. Un’altra area di applicazione è quella volta al miglioramento della rete: grazie a dati e segnalazioni dirette dei clienti, l’azienda riesce ad intercettare più velocemente i disservizi temporanei andando ad efficientare gli interventi di miglioramento delle reti. Vodafone Italia è riuscita anche a migliorare il processo end-to-end delle interazioni, con particolare focus sull’ottimizzazione del self-service e sulla valorizzazione dei risultati. L’utilizzo più frequente dei big data è finalizzato ad acquisire maggiore conoscenza delle esigenze dei clienti per migliorarne la customer experience, rendere più efficace la strategia commerciale e ottimizzare le performance delle reti al fine di fornire un servizio eccellente.

RETAIL E FINANCE

Un altro settore molto attivo è il retail. Le principali aziende hanno capito il valore dei dati che vengono raccolti dai vari canali (negozi fisici, vendite online, social): analizzandoli, hanno potuto conoscere a fondo abitudini, attitudini e preferenze dei propri clienti; migliorare la shopping experience; promuovere programmi di loyalty; facilitare operazioni di cross-selling e up-selling; individuare aree o prodotti meno efficienti. Per citare un esempio, Leroy Merlin aveva la necessità di trasformare la previsione della domanda in uno strumento di pianificazione efficiente di tutto il ciclo passivo. Con gli analytics, l’azienda ha ottenuto la riduzione dei ritardi e l’ottimizzazione di tutta la filiera dell’inventory, il miglioramento delle performance di business e del livello di soddisfazione dei clienti, il miglioramento della gestione del ciclo di vita del prodotto, la diminuzione dell’impatto negativo della scontistica, l’aumento della produttività, l’abbassamento significativo dei giorni di copertura di stock, la riduzione della liquidità bloccata sotto forma di prodotti a magazzino, il margine di sicurezza garantito. Ottimi risultati – dunque – ma si può fare anche altro. Un problema comune alle grandi catene di distribuzione e ai grandi magazzini è quello di ottimizzare i propri spazi di vendita, valutando i prodotti più appetibili al pubblico e quelli più redditizi. Per quanto riguarda la Data Monetization diretta, i dati a disposizione possono essere venduti ai fornitori, per aiutarli a comprendere i livelli di gradimento dei loro prodotti e a mettere in atto le corrette strategie promozionali.

Il settore del finance è particolarmente ricco di dati provenienti dalle attività interne, incrociate con informazioni provenienti da fonti esterne come i social media o dati geo-economici. Le analisi su questi dati permettono di creare nuovi servizi, o sviluppare nuovi strumenti antifrode basati sull’analisi comportamentale degli utenti durante le transazioni. Gli analytics e le tecniche di machine learning perfezionano i modelli predittivi, permettendo di migliorare l’offerta, l’efficienza dei processi di back office e i modelli di business. Molto interessante, il caso di BancoPosta, che ha abbracciato la digital transformation con l’introduzione di tecniche di machine learning per il sistema di ascolto della clientela, attraverso l’integrazione dei canali digitali e per recuperare efficienza e competitività nei settori tradizionali. L’approccio data-driven unificato tra sportello, intelligenza centrale e campagne marketing ha permesso a Banco Posta di identificare la clientela multi-bancarizzata e offrire servizi più evoluti e apprezzati dall’utente finale. Oggi, Bancoposta ha 34 milioni di clienti retail, 7,4 milioni di correntisti, 11 milioni di titolari Postepay. Con il programma di loyalty hanno erogato 75 milioni di sconti e hanno bancarizzato una fascia della popolazione, i giovani sotto i 25 anni e i nuovi cittadini non italiani, contribuendo a elevare il livello di servizio atteso nella clientela tradizionale. Anche nel settore finance, i dati possono essere anche ceduti ai partner per migliorare le loro operazioni e facilitare l’integrazione di nuovi servizi.

PUBBLICA AMMINISTRAZIONE

Anche le Pubbliche Amministrazioni centrali e locati hanno iniziato a sfruttare le potenzialità dei dati per ottimizzare i servizi rivolti al cittadino e per finalità legate al turismo. I sistemi utilizzati elaborano i dati provenienti da più tipologie di sensori (IoT), le informazioni di comportamento delle persone sia dalla realtà fisica – dai sistemi di videosorveglianza, dai varchi, dai sensori di presenza – sia dal mondo social: in questo modo le PA sono abilitate a una gestione intelligente del verde, dei servizi, del traffico, dell’edilizia, dell’illuminazione urbana, del controllo dei flussi turistici e dei beni culturali. È possibile anche pianificare, monitorare e ottimizzare la gestione dei propri mezzi di trasporto sul territorio, aumentando l’efficienza dei propri servizi verso cittadini e clienti finali, grazie all’analisi sul rapporto tra domanda e offerta di trasporto. Sono diffusi anche i sistemi per il monitoraggio ambientale – smog, inquinamento energetico e acustico, fenomeni atmosferici – con una gestione degli allarmi, e la raccolta dei dati dai sensori, posti in diversi punti della città, ma anche lungo i fiumi, sulle coste e nei parchi.

VERSO L’INDUSTRIA 4.0

Nel settore del manufacturing, i dati sono al centro di tutti i percorsi di trasformazione digitale nella prospettiva evolutiva dell’Industria 4.0. Questo significa che anche le aziende del manifatturiero possono sviluppare nuove strategie, basandosi sui dati raccolti dai dispositivi IoT all’interno delle linee di produzione e lungo l’intera supply chain, e integrandoli con tutti gli altri dati, strutturati e non strutturati provenienti da molteplici fonti. Analizzando i dati generati dai processi produttivi e dalle macchine in tempo quasi reale, si riescono a gestire con più efficacia gli aspetti operativi: l’ottimizzazione dei consumi energetici, la semplificazione della supply chain, nuove soluzioni per la manutenzione predittiva, migliori analisi predittive, riduzione degli scarti e degli errori di produzione. In questo settore la Data Monetization è più legata al miglioramento della competitività e al contenimento dei costi più che alla loro vendita e all’aumento del fatturato. Un caso utente significativo è Bitron, multinazionale italiana attiva nell’ambito della ricerca, sviluppo e fabbricazione di prodotti e sistemi meccatronici per numerosi settori. L’azienda aveva l’esigenza di raccogliere, gestire e analizzare dati provenienti da impianti di produzione diversi, con base dati sconnesse tra loro, garantendo un monitoraggio in real-time della linea di produzione e riducendo le difettosità. Bitron ha potuto standardizzare gli indicatori, migliorare i KPI, la qualità dei prodotti, dare accesso libero alle informazioni agli utenti di business e operativi con strumenti di visualizzazione semplici e immediati. La distribuzione degli analytics in cloud ha permesso a Bitron di ridurre del 90% il tempo di accesso alle informazioni corrette sui sistemi. Inoltre, Bitron Electronic Division, la business unit che progetta e produce schede elettroniche e sistemi complessi, ha sviluppato il progetto “Zero Defect Line”, che si occupa di gestire e analizzare i dati provenienti dagli impianti e garantire un monitoraggio in tempo reale della linea di produzione, con l’obiettivo di ottenere uno strumento di analisi della qualità nell’intero ciclo produttivo, in grado di suggerire anche eventuali azioni correttive. Non solo. L’applicazione di tecniche di data analysis e machine learning permetterà all’azienda di migliorare la qualità del processo produttivo, anticipando errori durante gli step di lavorazione in real-time, riducendo così la frequenza e il numero delle componenti difettose e risparmiando di conseguenza sui costi di produzione.

Leggi anche:  Il machine learning in azienda. Come migliorare performance e previsioni

Interessante anche l’esperienza di Ahlstrom-Munksjö, una delle più grandi multinazionali della carta, che ha avviato un piano di replacement per rinnovare i propri sistemi ERP e armonizzare il panorama informatico in tutti gli impianti di produzione e per l’implementazione di un sistema unico di reporting condiviso a livello di gruppo. Il primo passo è stato quello di fornire il supporto completo di business intelligence alle unità in cui sono installati i sistemi di ERP, nella seconda fase, sono stati raccolti i dati da alcune aree selezionate del gruppo. L’aspetto più sfidante della prima fase è stato l’approccio al monitoraggio del processo di produzione della carta attivo 24 ore su 24, 7 giorni su 7. La seconda fase ha avuto l’obiettivo di armonizzare i dati provenienti da sistemi non omogenei.

INNOVAZIONE NELLE ASSICURAZIONI

Nel settore assicurativo è in corso una profonda trasformazione guidata dall’introduzione delle nuove tecnologie e dall’orientamento dei consumatori verso prodotti personalizzati, adatti anche a coprire situazioni determinate e temporalmente circoscritte, con un pricing flessibile. L’offerta delle compagnie evolve verso un modello fondato su centralità del bisogno dell’utente e on-demand. Si prevede che, entro il 2022, oltre l’80% dell’offerta transiterà online e che, nel 2035, il passaggio ai canali digitali sarà totale. YOLO Group è il primo gruppo italiano che offre servizi e soluzioni anche tecnologiche, per il mercato assicurativo e che svolge l’attività̀ di intermediazione assicurativa totalmente ed esclusivamente in modalità digitale. YOLO permette di sottoscrivere in tempo reale i prodotti dei maggiori Gruppi assicurativi operanti a livello nazionale e internazionale. YOLO offre soluzioni assicurative innovative basate su intelligenza artificiale e machine learning. La piattaforma insurtech di YOLO è stata progettata per rispondere a questa evoluzione: consente di creare e gestire un’offerta assicurativa dinamica e pay-per-use che ridisegna integralmente la customer experience. La piattaforma consente di personalizzare l’offerta assicurativa in tempo reale.

A definire il profilo del cliente concorrono, oltre alle informazioni personali, i dati socio-demografici, comportamentali e di prossimità che permettono di costruire un’offerta basata su esigenze personali e contingenti. L’offerta è basata sulle reali esigenze del cliente e del suo profilo, studiata per adattarsi alle sue abitudini, alla sua vita personale e professionale, grazie all’utilizzo di tecnologie abilitanti quali IoT, artificial intelligence e chatbot. La piattaforma YOLO è utilizzata da imprese partner (banche, retailer, telco e utility) che attraverso i servizi assicurativi on-demand integrano la propria offerta, conferendo un nuovo valore al prodotto assicurativo. Utilizzando le soluzioni generate dall’intelligenza artificiale e dal machine learning, le imprese hanno la possibilità di ampliare il set d’informazioni disponibili e avere un visione completa del cliente, ponendo le premesse per migliorare up-selling, fidelizzazione e value proposition. Le capacità fornite sono diverse: analytics & reporting (reporting evoluto sulle vendite e sulle performance degli strumenti di promozione, comunicazione e cross selling); insurance customer insight (visione completa sul comportamento del cliente attraverso la creazione di profili, target e cluster); up & cross selling machine (motore mirato alla veicolazione incrementale dell’offerta di prodotti in ottica up e cross selling); recommendation engine (per formulazione di offerte basate sul profilo del cliente e comportamenti geolocalizzati per la next best offer).

SEGMENTO OUT OF HOME

Coca-Cola HBC Italia è il principale produttore e distributore di prodotti a marchio Coca-Cola Company in Italia, dove, con oltre duemila dipendenti, distribuisce anche marchi come Fanta, Sprite, Fuzetea, Royal Bliss, Kinley, Amita, Powerade, Adez. L’azienda ha puntato sulla monetizzazione dei dati per aumentare le opportunità di business nel segmento Out-of-Home, composto da esercizi pubblici, pub, ristoranti, pizzerie, bar e così via. Questo mercato è in continua trasformazione. Le attività commerciali aprono e chiudono rapidamente, la clientela è presente sul territorio in modo molto frammentato: non è facile quindi monitorare i flussi per offrire ai team di vendita informazioni efficaci per aiutarli nello “scouting” di nuovi clienti nelle aree a loro assegnate. Si parla, inoltre, di un mercato potenziale estremamente vasto: circa 370mila locali.

Coca Cola HBC Italia aveva l’esigenza di dotarsi di strumenti capaci di supportare l’analisi e l’utilizzo di una grande quantità di dati per generare modelli e previsioni utili ai venditori – che l’azienda chiama “hunter”, cacciatori – per rafforzare la loro capacità di procacciare nuovo business nelle aree più promettenti. Una “caccia” che – nel 2019 – non può che essere data-driven e che ha portato l’azienda a dotarsi di una soluzione di intelligenza aumentata, in grado di sfruttare modelli predittivi per individuare i punti vendita che potrebbero sviluppare un maggiore potenziale in termini di business, stimando la loro redditività. Grazie al cloud, i venditori possono fruire di queste informazioni, in modo molto semplice e immediato, tramite una app disponibile su smartphone e tablet che visualizza in modo intuitivo – utilizzando la “metafora” delle mappe di calore – i locali nelle diverse aree geografiche, con aggiornamenti in tempo reale e incrociando dati demografici, sociali ed economici, ma anche attingendo a “data pool” non strutturati, come le conversazioni sui social o le recensioni online. Il modello è stato creato dall’azienda, selezionando le caratteristiche identificative dei clienti a più alto valore aggiunto, per creare degli indicatori sintetici con cui classificare altri punti vendita, sulla base di requisiti codificati in un algoritmo di machine learning, che permette di evidenziare anche nuove correlazioni nascoste. Si realizza così una soluzione di reale “augmented intelligence” in cui la conoscenza proveniente dai dati e l’experience degli utenti contribuiscono ad aumentare le opportunità di business.