Quanto sono grandi i big data?

Quanto sono grandi i big data?
  •  
  •  
  •  
  •  
  •  
  •  
  •  

Datasfera in crescita esponenziale, mercato in continua crescita a due cifre, interesse in aumento, tanti progetti conclusi con successo. Quando ai big data si uniscono gli analytics tutto è possibile. I big data analytics sono protagonisti del mercato IT in modo massiccio in tutti i settori. Nei prossimi anni, il mercato del lavoro richiederà molti esperti di questo settore, e tante professioni saranno trasformate. Ma con quale impatto sulla protezione dei dati? La GDPR contribuirà a bilanciare tecnologia e privacy?

I big data sono da tempo uno degli argomenti più caldi del mercato IT, e non solo. Si tratta di insiemi di dati così grandi come volume, e di una tale complessità, da non poter essere gestiti utilizzando gli strumenti software tradizionali. Un classico database, infatti, gestisce i dati in righe e colonne, ma i dati dei big data non possono essere così facilmente incasellabili, perché non sono disponibili in forma strutturata: possono essere presenti come documenti, valori rilevati da sensori IoT, meta dati, posizioni geografiche, e così via.  I big data non sono dati “big” solo per la dimensione e la varietà, ma anche per quanto possono essere importanti per le aziende e gli enti che li analizzano. Grazie all’utilizzo di strumenti sempre più sofisticati, le aziende riescono a scovare gemme nascoste al loro interno, e ottenere così le informazioni necessarie a prendere decisioni più consapevoli.

Secondo IDC, i dati rappresentano la nuova base del vantaggio competitivo, siano essi strutturati o non strutturati, generati dall’uomo o dalle macchine, archiviati nei datacenter o nel cloud. Sfruttando grandi quantità e diversità di dati per scoprire schemi e perseguire idee rivoluzionarie, un’impresa può vincere la guerra nel crescente panorama competitivo delle imprese. Lo storage è parte integrante della strategia di dati di un’organizzazione in quanto contribuisce attivamente al processo di archiviazione e analisi delle informazioni. Per IDC, la sfida è costruire sistemi di archiviazione in grado di gestire volumi di dati così grandi, ma mantenere bassi i costi, senza compromettere le prestazioni. Inoltre, nell’era del diluvio di dati e della loro proliferazione, le aziende che non dispongono di set di competenze aggiornati e in continua evoluzione sono in ritardo. IDC ritiene che per supportare le esigenze di business agility e gestire il gap di competenze, sempre più infrastrutture aziendali utilizzeranno algoritmi di intelligenza artificiale e machine learning. Poiché le organizzazioni leader a livello mondiale cercano di creare e offrire esperienze digitali, per IDC non c’è dubbio che i dati – e la capacità di estrarre informazioni e azioni significative da questi dati – saranno al centro di questi sforzi.

DATI IN CRESCITA CONTINUA

Il volume e la varietà di dati continua a pervadere le organizzazioni a tutti i livelli a un ritmo sempre crescente, convincendo i manager a ricavarne valore e a determinarne l’impatto sul business. Tutte le nostre attività quotidiane producono dati: i post degli utenti su Facebook, una ricerca su Google, l’utilizzo di una app, l’acquisto su un sito online, ma anche nei negozi fisici, con carte di credito e tessere fedeltà. E ancora: una foto, un video, un messaggio vocale, un tweet, gli itinerari, i commenti, i “like”. Per non parlare dei dati creati dagli oggetti interconnessi alla rete: si pensi solo alle infrastrutture intelligenti delle città, ai sensori montati sugli edifici e sui mezzi di trasporto, agli elettrodomestici intelligenti. Ognuno di noi contribuisce costantemente alla produzione di dati. Per dare l’idea di cosa significhi il termine “noi”, dobbiamo tener conto del numero di persone che lo compongono: vi sono inclusi gli utilizzatori di Internet, che nel mondo sono quasi quattro miliardi, chi è attivo sui social media, quasi tre miliardi, e i possessori di smartphone, secondo diverse stime oltre 4 miliardi, numeri questi in continuo aggiornamento perché in continua crescita. È chiaro, quindi, che con questi numeri la quantità di informazioni raccolte in tempo reale sia in espansione esponenziale.

IDC prevede che entro il 2025 la sfera dati globale aumenterà fino a 163 miliardi di zettabyte, (uno ZB equivale a un trilione di gigabyte), e questo vuol dire dieci volte più dei 16.1 ZB dei dati che esistevano soltanto due anni fa. Più di un quarto di questi dati sarà real-time e, di questi ultimi, i dati IoT in tempo reale saranno più del 95%. Numeri impensabili nel 1986, quando (secondo Gartner) il volume dei dati in circolazione ammontava a solo 281 petabyte (un petabyte è un milionesimo di uno zettabyte), ma anche nel 1993, quando era diventato 471 petabyte (+68%). Nei sette anni successivi, però, la crescita è stata molto più elevata: nel 2000 il volume era quasi quintuplicato, raggiungendo 2,2 exabyte (un exabyte equivale a mille petabyte, e a un millesimo di uno zettabyte). Sette anni dopo, nel 2007, si parlava di 65 exabyte, con un aumento di trenta volte. Da allora al 2016, però, la crescita è stata di oltre 247 volte! Secondo alcune stime, il volume dei dati si incrementa così tanto anno su anno che il 90% di quanto esiste oggi è stato creato negli ultimi due anni. Secondo IDC, entro il 2019, le tecnologie e i servizi della Terza Piattaforma (cloud, social, mobile e big data) guideranno circa il 75% delle spese IT, con una crescita pari al doppio del tasso del mercato IT totale. Nel corso dei prossimi tre anni, la trasformazione digitale ridisegnerà l’intera macroeconomia come la maggior parte dei centri di reddito delle imprese globali in termini di prodotti e servizi digitali o digitalmente migliorati.

LO SCENARIO DI MERCATO

L’interesse per i big data è notevole, e non si misura solo a parole, ma anche con gli ingenti investimenti delle aziende in computer sempre più potenti, storage sempre più capienti e algoritmi sempre più sofisticati: grazie a essi, i big data diventano una grossa opportunità per estrarre informazioni utili, rivelando connessioni, per creare profili dettagliati su di noi, esperienze utente uniche e opportunità commerciali personalizzate. Nella classificazione IDC, il mercato del software big data and analytics (BDA) comprende in realtà diversi ambiti che risolvono funzionalmente tutte le fasi del ciclo di vita dei processi decisionali e di automazione decisionale. Si fa spesso riferimento a questi processi chiamandoli business intelligence, business analytics, analytics, big data, e così via. Il mercato del software BDA è costituito da tre segmenti principali: applicazioni di analytics e performance management (app APM), tool per la business intelligence e analytics (strumenti BIA), piattaforma di gestione e integrazione dei dati analitici (piattaforma ADMI).

IDC stima che il mercato mondiale del software BDA nel 2016 abbia raggiunto 49,1 miliardi di dollari, cifra che rappresenta circa l’11,8% del mercato software complessivo. IDC prevede che il software BDA crescerà nel quinquennio dal 2016 al 2021 con un CAGR (Compound annual growth rate, o tasso annuo di crescita composto) del 10,6%, quindi 2 punti percentuali più velocemente rispetto al resto del mercato mondiale del software. All’interno del mercato BDA, il segmento maggiore è quello degli strumenti BIA, con l’importo di 20 miliardi di dollari. Secondo le previsioni IDC, è anche quello che crescerà di più nel quinquennio, con un tasso annuo del 12%. Il segmento delle applicazioni APM si è attestato, nel 2016, a 14,3 miliardi di dollari, e dovrebbe crescere con un CAGR annuo dell’8,3% nel quinquennio, il segmento della piattaforma ADMI vale 14,9 miliardi di dollari e dovrebbe crescere a un tasso annuo nel quinquennio del 10,9%.

Secondo Diego Pandolfi, research e consulting manager di IDC Italia, ci sono tre cambiamenti significativi che si verificano nel mercato BDA che si riflettono in questa previsione: «In primo luogo, la rapida crescita del software di gestione dei dati basato su database non relazionali. In secondo luogo, il passaggio in corso al cloud pubblico. Infine, la crescita dell’automazione che si riflette nell’elevato tasso di crescita del software cognitivo / AI». IDC prevede che, nel mondo, la regione delle Americhe avrà la crescita più alta, con un tasso annuo del 12,3% nel quinquennio, mentre le regioni Asia Pacific ed EMEA dovrebbero crescere rispettivamente con tassi annui del 10,2% e del 7,1%.

QUALCHE DATO SUL NOSTRO PAESE

Secondo la ricerca dell’Osservatorio Big Data Analytics & Business Intelligence del Politecnico di Milano, presentata nel novembre scorso, il mercato degli analytics in Italia continua a espandersi raggiungendo 1,103 miliardi di euro con una crescita del 22% rispetto all’anno precedente: le percentuali di crescita anno su anno sono in aumento, perché si è passati dal 14% di incremento tra il 2014 e il 2015 al 15% tra il 2016 e il 2015, al 22% tra il 2017 e il 2016. Gli investimenti maggiori sono stati fatti nel software (42%), suddivisi in database (12%), piattaforme di analytics e di data science (12%), strumenti di ingestion, processing, integration e quality (6%), tool di data visualization e reporting (7%), il restante 5% in software con logiche di analytics avanzate per supportare specifici processi come marketing, vendite, finanza, controllo, e così via. Il 33% viene investito nei servizi, e in particolare il 17% in system integration, il 10% in personalizzazione del software, il 6% in consulenza sui processi, e in altri servizi. Il 25% degli investimenti si indirizza alle infrastrutture: in dettaglio, il 13% è destinato a server e macchine virtuali, il 10% a storage e il restante 2% ad altre infrastrutture. Secondo l’Osservatorio, poco più del 20% delle risorse di calcolo e storage è attualmente fruito in cloud. L’interesse crescente per i big data in Italia è confermato anche dai ricercatori di IDC. Secondo la survey IDC condotta in Europa nel 2017, per il 79% delle aziende italiane la tematica dei big data è importante nel guidare il business, l’innovazione e la digital transformation. Per i prossimi due anni – spiega Pandolfi di IDC Italia – l’importanza è destinata ad aumentare: «La tematica sarà infatti rilevante per il 95% delle aziende, con una crescita della percentuale di aziende per le quali la tematica sarà estremamente rilevante».

Secondo IDC, i benefici che le aziende italiane stanno raggiungendo grazie a progetti in ambito big data & analytics, sono legati al miglioramento e all’ottimizzazione di processi di business e operations; all’innovazione di prodotto e servizi; al miglioramento della conoscenza dei comportamenti dei clienti e delle loro aspettative; al potenziamento dei processi di fraud & risk management; all’ottimizzazione in termini di compliance e financial control. Dalla stessa ricerca, si comprende che le principali iniziative sui big data interessano l’area IT e data operation (89,5%), il customer service & support (55,2%), il finance (54,3%), il marketing e la ricerca e sviluppo (entrambe al 33,3%). Non solo, secondo la survey “Big Data e le professioni del futuro” di The Adecco Group, pubblicata ad aprile, i settori aziendali percepiti come più avvantaggiati dall’impatto dei big data in azienda sono il commerciale (24%), seguito dal marketing (23%), dalla comunicazione (15%), dall’IT (13%), dalla produzione (12%), dal finance (8%), e dalle altre aree (5%). Secondo la stessa ricerca, su una scala da 1 a 10, il livello di beneficio delle attività di un’azienda grazie ai big data è maggiore per le campagne di comunicazione (7,37%), per il CRM (7,22%) e per la definizione del pricing (7,11%). Più staccati, lo sviluppo di prodotto (6,49%) e di engagement marketing (6,43%).

LA DATA MONETIZATION

Come si diceva, le aziende hanno compreso come i dati rappresentino una vera ricchezza, ancora poco utilizzata, o addirittura, in qualche caso, mal gestita. Operazioni di analisi approfondite sui dati, però, possono contribuire a migliorare le principali funzioni aziendali, e possono anche far nascere nuove opportunità di business. In ogni settore di mercato, la BDA può creare benefici: l’attenzione al dato è trasversale a tutti i comparti, nel pubblico e nel privato, nelle imprese produttive e nei fornitori di servizi e di utility: ovunque, i big data rappresentano un potenziale enorme, perché all’interno della quantità di dati sono contenute informazioni importantissime, dove l’importanza, ovviamente, è legata a quali analisi vengono fatte. La capacità di trasformare i dati in valore, non solo teorico, ma proprio in termini di fatturato, viene chiamata data monetization: si tratta di un processo attraverso il quale le organizzazioni aziendali prendono i dati in loro possesso e quelli generati dalle interazioni con i loro partner commerciali, clienti e fornitori, all’interno della supply chain, eventualmente integrandoli con altri dati provenienti da fonti esterne. L’obiettivo è riuscire a creare dall’analisi dei dati nuove fonti di reddito, che possono venire dalla definizione e commercializzazione di nuovi prodotti o di nuovi servizi da aggiungere o integrare a quelli esistenti, dallo sviluppo di nuovi modelli di business o di nuove offerte, dal risparmio legato al miglioramento dei processi aziendali, con recuperi in termini di efficienza e di controllo dei costi, e perfino dalla vendita delle informazioni derivanti dai dati ad altri mercati. La data monetization può essere diretta, quando deriva dalla vendita di dati senza alcun trattamento, o di dati trattati, trasformati in informazioni e conoscenza, ma può essere anche indiretta, quando si traduce in sfruttamento economico dei dati per le proprie attività.

BIG DATA NEL FINANCE E NEL RETAIL

Secondo l’ultimo report dell’Osservatorio del Politecnico sui big data, in Italia il settore bancario continua a rappresentare quello dove vi è il maggior utilizzo di queste tecnologie (28%), seguito dal manifatturiero (24%) e, a distanza, da telco & media (14%), altri servizi (8%), PA e sanità (7%), grande distribuzione organizzata e retail (7%), utility (6%) e assicurazioni (6%). I settori che crescono di più sono le assicurazioni, il manifatturiero e i servizi. Il settore bancario è particolarmente data-intensive: qui devono essere gestiti enormi volumi di informazioni, che si rivelano spesso un vero tesoro di dati da cui si possono estrarre preziosi insight sui comportamenti dei clienti. Tra i diversi obiettivi, i principali sono capire e soddisfare il cliente, nelle diverse attività, e controllare la conformità rispetto alle normative. Particolare attenzione viene data alla prevenzione delle frodi: ogni anno si registrano perdite causate da frodi e vari crimini, che vanno dai cyberattacchi al riciclaggio di denaro. Con gli analytics, si possono trovare soluzioni che permettono di adottare approcci proattivi e completi per contrastare le frodi.

Un’altra funzionalità peculiare del settore è l’analisi del rischio: per una banca, avere a disposizione dati aggiornati sul rischio del portafoglio permette ai risk manager di monitorare gli indicatori e di allineare costantemente le attività del front office alla policy di propensione al rischio della banca. Nel settore della GDO e del retail, la relazione con i clienti è fondamentale, e il miglior modo per gestirla e ottimizzarla è proprio attraverso i big data: si può forse dire che probabilmente questo è il settore dove per primo si è capito quale ricchezza fosse nascosta nei dati raccolti ogni giorno dalle transazioni dei clienti nei negozi fisici e online e, negli ultimi anni, anche nei forum, nei blog, nei magazine online e nei social network. I retailer con gli analytics sui big data riescono a gestire al meglio la propria clientela, a rendere più efficaci le transazioni e a capire quali azioni intraprendere per mantenere a un livello adeguato il volume degli affari. Grazie alle analisi sui big data, è possibile ottimizzare e personalizzare la propria offerta sulle abitudini e le preferenze di ogni singolo cliente, definendo per ognuno una precisa profilazione, individuando quali nuovi prodotti o servizi fornire, e monitorando le opinioni e il livello di gradimento dei clienti per migliorare l’esperienza di acquisto, sviluppare il cross-selling e l’up-selling, ridurre il rischio di abbandono e attrarre nuovi prospect. Gli analytics servono anche per aumentare l’efficienza in ciascuna fase della filiera, dagli acquisti al posizionamento della merce sullo scaffale. I dati, opportunamente lavorati per renderli anonimi, possono essere venduti ai fornitori: in questo caso, potrebbero essere utili per capire quanto sono graditi i loro prodotti, così da facilitare strategie promozionali mirate.

BIG DATA NELLE TELCO E UTILITY

Nel settore delle telco, le aziende operano in un ambiente spietato, con una forte e continua pressione sui prezzi, con consumatori volubili e pronti ad approfittare delle diverse offerte che quasi ogni giorno appaiono sul mercato. Da sempre, gli operatori telefonici raccolgono grandi quantità di dati su base quotidiana, spesso utilizzati solo per la tariffazione o per attività di manutenzione di rete. Questa miniera d’oro, solo da pochi anni, è utilizzata per sfruttarne i contenuti, incrociando dati di traffico a dati relativi ai disturbi di rete può essere utile per migliorare i livelli di servizio. Probabilmente, la massima priorità per i manager del settore, grazie all’analisi dei big data, è poter creare un’esperienza unica per accrescere il coinvolgimento dei consumatori: dalle preferenze e dai comportamenti dei clienti, dall’uso dei dispositivi, dai dati demografici, dai sentimenti e dalle loro opinioni, possono produrre e fornire contenuti personalizzati ovunque, in qualsiasi momento e su qualsiasi dispositivo. L’aggregazione e l’analisi dei dati provenienti da varie fonti, tra cui fatturazione, ascolto sociale e utilizzo dei piani, possono essere utilizzati per prevedere i clienti a rischio, e offrire in modo proattivo un’offerta di fidelizzazione interessante. I simulatori e i modelli previsionali possono stimare l’acquisizione e la fidelizzazione dei clienti, e possono essere utilizzati per allocare la spesa pubblicitaria.

Inoltre, in base alle informazioni raccolte, il posizionamento degli annunci, i contenuti e i messaggi possono essere ottimizzati e mirati. Per mantenere alti livelli di servizio e soddisfazione del cliente, gli investimenti in BDA possono essere utilizzati anche per determinare o prevedere quando e dove c’è un utilizzo maggiore della rete: questo consente alle aziende di investire nelle aree geografiche di maggiore richiesta per aumentare la larghezza di banda e spingere l’utilizzo di funzionalità aggiuntive. Nelle utility, l’analisi dei big data può avere un impatto su quasi tutti gli aspetti del business di un’azienda, dalla generazione dell’energia alla gestione del cliente finale, e spesso comportano la fusione di dati da fonti convenzionali esistenti con nuove informazioni ricevute dai contatori intelligenti e da altri dispositivi connessi. Esempi di applicazioni BDA includono l’analisi dei disservizi per prepararsi al meglio e ridurre i tempi di risposta in caso di interruzioni, l’analisi del comportamento dei consumatori per capire come viene utilizzata l’energia in casa in base ai diversi piani tariffari, l’adeguamento della produzione in base alle informazioni di domanda e offerta, integrate con i dati metereologici. In entrambi i settori, gli stessi dati, opportunamente lavorati per renderli anonimi, aggregati in base a età, sesso, posizione, possono essere rivenduti ad altri operatori, per lo sviluppo di nuovi servizi.

MANIFATTURIERO E INDUSTRIA 4.0

Nel settore manifatturiero, le aziende analizzano i dati per ottimizzare il proprio processo produttivo. L’obiettivo è migliorare i tempi di produzione e i cicli di lavorazione, ridurre gli scarti, i tempi morti, gli sprechi, gli errori in produzione e tagliare i costi. Il tutto con un occhio sulla qualità. Importante anche la BDA per ottimizzare la propria supply chain, in termini di tempi, costi e modalità di approvvigionamento. Per un’azienda manifatturiera, spesso i costi di manutenzione delle macchine produttive e degli impianti correlati sono molto alti: è importante quindi conoscere il ciclo di vita delle attrezzature per poter programmare la manutenzione e gli interventi di sostituzione dei componenti. Determinante, anche analizzare i dati delle macchine per individuare rapidamente le cause dei guasti, non solo per la fase di riparazione, ma anche per modificare la progettazione, nel caso questo serva a ridurre i guasti stessi.

In questo settore, l’analisi dei dati serve anche a sviluppare prodotti nuovi e più rispondenti alle aspettative dei clienti, riducendo il più possibile il time-to-market, e a trovare il giusto quantitativo di merce da tenere a magazzino, per ogni articolo, per riuscire a rispondere alle esigenze di mercato, gestendo le eventuali stagionalità, senza per questo avere scorte eccessive, che oltre a essere un inutile spreco di risorse e denaro per lo stoccaggio delle merci, rischia di generare perdite per scorte obsolete o meno desiderabili. Non da ultimo, i big data sono utilizzati come perno del percorso di trasformazione digitale verso l’Industria 4.0: nuove strategie possono essere sviluppate grazie all’analisi dei dati raccolti dai diversi dispositivi IoT presenti nei reparti produttivi e lungo l’intera supply chain, integrati con tutti gli altri dati normalmente presenti in ogni azienda. In questo settore, di norma, la data monetization diretta non esiste, ma la BDA serve a incrementare il risultato operativo migliorando le efficienze di reparti e uffici.

PROGETTI DI SUCCESSO

Vediamo di seguito alcuni progetti di successo, sviluppati in diversi settori, per la maggior parte in aziende di grandi dimensioni. Ringraziamo per la collaborazione SAS, IDC (www.idc.com/italy) e i ricercatori dell’Università di Pisa Paolo Cintia e Luca Pappalardo.

Enel Green Power – Nel settore delle utility e in particolare delle energie rinnovabili, l’utilizzo di modelli analitici per identificare le aree di malfunzionamento all’interno di impianti geograficamente molto estesi offre significativi ritorni di business. L’utilizzo dei big data in questo settore ha permesso di evidenziare e risolvere i malfunzionamenti in maniera mirata, migliorando l’efficienza produttiva degli impianti e riducendo i costi di ripristino in caso di failure. Oltre a identificare e risolvere i malfunzionamenti in maniera immediata e puntuale, con gli analytics, Enel Green ha potuto aumentare l’efficienza produttiva e garantire la continuità operativa degli impianti; ridurre i costi di ripristino degli impianti produttivi in caso di failure; comprendere e risolvere problematiche aperte da lungo tempo.

Sky Italia – Grazie agli analytics e alla customer intelligence, Sky Italia è riuscita a raggiungere il singolo cliente con l’offerta più adeguata, attraverso il canale di contatto preferito, senza mai perdere di vista budget e vincoli di contact policy. Associare i benefici per il consumatore con gli obiettivi dell’azienda significa permettere ai consumatori di scegliere sulla base di una proposta qualità-prezzo soddisfacente e in linea con le sue preferenze. Il progetto si compone di due anime: una componente analitica per costruire le misure predittive volte a stimare i comportamenti futuri dei clienti; una componente operativa che, mediante l’ottimizzatore, associa singole offerte a ogni cliente per il periodo di ottimizzazione scelto. In questo modo, Sky è riuscita a ottenere redemption incrementali, comprese tra il 10 e il 20 per cento.

Vodafone Italia – Grazie alla omnichannel analysis, Vodafone Italia ha definito le tappe del customer journey per ottimizzare l’esperienza del cliente su tutti i touch point. L’utilizzo più frequente che viene fatto dei big data da parte di Vodafone Italia è finalizzato ad acquisire maggiore conoscenza delle esigenze dei clienti per migliorarne la customer experience, rendere più efficace la strategia commerciale e ottimizzare le performance delle reti al fine di fornire un servizio eccellente. I big data vengono utilizzati anche per il real time marketing, offrendo ai clienti ciò di cui hanno più bisogno, aumentando la loro fiducia verso il brand, e quindi ottimizzando il valore per l’azienda. Un’altra area di applicazione è quella volta al miglioramento della rete: grazie a dati e segnalazioni dirette dei clienti si possono intercettare più velocemente i disservizi temporanei, intervenendo così per migliorare le reti.

Octo Telematics – Octo Telematics ha al centro della propria strategia la valorizzazione dei dati. L’intento principale è quello di creare nuove conoscenze sfruttando una molteplicità di dati per ricavare informazioni capaci di generare valore per le compagnie e per gli assicurati. Octo Telematics dispone di una piattaforma analitica che sfrutta un insieme di dati per ricostruire il profilo dei clienti, aprendo nuovi orizzonti in termini di confezionamento dell’offerta. Il caso di successo di Octo Telematics è un esempio di implementazione di tecnologia IoT e analytics. Un dispositivo installato sulle auto trasmette in tempo reale i dati rilevati dai sensori, consentendo il riconoscimento reciproco tra compagnia e cliente, con vantaggi per entrambi. Octo Telematics ha più di 4,9 milioni di utenti connessi e il più grande database mondiale di dati telematici, con oltre 155 miliardi di miglia di dati di guida raccolti e 379mila incidenti analizzati. È quindi evidente l’apporto fondamentale degli analytics, che permettono di padroneggiare queste moli di dati e di estrarre il valore che essi racchiudono.

Leroy Merlin – La necessità di business di Leroy Merlin è di reinventare il percorso di acquisto in un’ottica cross channel per ottimizzare l’interazione con i clienti. Di fronte alla necessità di avere a disposizione un sistema in grado di automatizzare le attività di previsione e di ordine per singolo operatore, Leroy Merlin ha modulato i parametri in base al risultato. In questo modo, tra i principali risultati raggiunti grazie agli analytics  figurano: riduzione dei ritardi e ottimizzazione di tutta la filiera dell’inventory; miglioramento delle performance di business e del livello di soddisfazione dei clienti; miglioramento della gestione del ciclo di vita del prodotto; diminuzione dell’impatto negativo della scontistica; aumento della produttività; abbassamento significativo dei giorni di copertura di stock; riduzione della liquidità bloccata sotto forma di prodotti a magazzino; margine di sicurezza garantito.

CNH Industrial – CNH Industrial, tra i maggiori produttori mondiali di capital goods, ha costruito un sistema di data management per raccogliere e analizzare i dati di garanzia e le informazioni sull’utilizzo dei prodotti. L’obiettivo è misurare i KPI di qualità per migliorare continuamente la dependability (affidabilità, robustezza, durata) dei beni. Grazie agli analytics, CNH riesce a ottenere informazioni cruciali per determinare la qualità dei beni e per individuare eventuali difettosità dei componenti: è possibile capire rapidamente come, quando e soprattutto perché si verificano determinati malfunzionamenti, potendo inoltre migliorare la qualità dei prodotti e ottenere saving immediati sul fronte della garanzia. Senza gli advanced analytics, sarebbe impossibile sfruttare le enormi quantità di dati generati, se si pensa che in un’applicazione di media complessità le variabili da prendere in esame possono essere oltre diecimila.

Disney – Le società di servizi sono fortemente focalizzate sull’integrazione dell’analisi in ogni fase dei viaggi dei loro clienti, massimizzando al contempo profitti ed entrate. Gli sforzi della Disney in quest’area mostrano l’impatto che la big data analysis può avere su praticamente tutte le aree di un’organizzazione di servizi. Nell’ambito dell’esperienza del cliente, Disney è focalizzata sulla creazione di un’esperienza coinvolgente, perfetta e personalizzata per i suoi ospiti. Per esempio, FastPass+ consente agli ospiti di prenotare in anticipo orari di viaggio, ristoranti e spettacoli tramite un sito web. Per la comprensione e il targeting dei clienti, attraverso MagicBands, la Disney sta monitorando il comportamento e gli acquisti dei consumatori, il che consente al parco di identificare giostre ad alta richiesta e creare interessanti pacchetti vacanze. Per quanto riguarda l’allocazione di risorse, Disney ha operazioni ampie e complesse con uno staff massiccio e utilizza la BDA per gestire e allocare le risorse di lavoro. Nell’ottimizzazione delle operazioni, il gigante dell’intrattenimento ha portato l’analisi fino alle operazioni di back-house, utilizzando l’analisi, per fare un esempio, per prevedere e gestire costumi e vestiario, e quasi 150 tonnellate di bucato.

UPS – Essendo una compagnia costantemente in movimento, UPS immagazzina grandi volumi di dati, la maggior parte dei quali derivano dai sensori posizionati sui propri veicoli. Questi dati, non solo monitorano le performance quotidiane, ma hanno anche causato un’importante metamorfosi nella struttura dei percorsi dei conducenti UPS. L’iniziativa è stata chiamata ORION (On-Road Integration Optimization and Navigation), ed è probabilmente il maggior progetto di ricerca cooperativa al mondo. Fa affidamento sui dati forniti dalle mappe online per riconfigurare in tempo reale i ritiri e le consegne di un conducente. Il progetto aspira a risparmiare 32 milioni di litri di carburante tagliando 137 milioni di chilometri dalle rotte quotidiane. UPS stima che se ogni conducente risparmiasse anche solo un miglio al giorno, la compagnia risparmierebbe 30 milioni di dollari. È importante ricordare che il vero valore dei big data non deriva dai dati nella loro forma grezza, ma dalle informazioni che risultano dalla loro elaborazione e analisi. Le innovazioni legate alle tecnologie per i big data e negli approcci gestionali devono essere accompagnate da cambiamenti, altrettanto significativi, nel modo in cui i dati vengono utilizzati per le decisioni aziendali e nella creazione di innovazione in prodotti e servizi.

BDA applicata al mondo del calcio – Tutto o quasi è riconducibile ai numeri: l’analisi dei big data permette di scoprire legami anche tra i fenomeni che accadono durante una partita. Davide Nicola, ex allenatore del Crotone, sta collaborando con due ricercatori dell’Università di Pisa, Paolo Cintia e Luca Pappalardo, in modo che l’esattezza della matematica venga applicata al calcio. Le applicazioni pratiche dei progetti che si stanno mettendo a punto sono rivolte a tutte le figure dello staff tecnico di una squadra, dal preparatore atletico al direttore sportivo, includendo anche il tattico/match analyst. Si stanno sviluppando metodi di supporto a queste figure, per esempio, partendo dall’analisi dei dati GPS degli allenamenti per prevenire l’insorgere degli infortuni. Oltre a questo è stato recentemente sviluppato un algoritmo per la valutazione della performance di un calciatore, validandolo insieme all’azienda leader nello scouting di calciatori (Wyscout). Sul fronte tattico, si stanno applicando tecniche di sequencing ai dati raccolti durante le partite, in modo da poter rappresentare il “codice genetico” di una squadra, ovvero i modi tipici con cui si sviluppa l’azione o si affronta l’azione avversaria. Quest’ultima applicazione è stata già presentata al primo hackathon organizzato dalla FIGC, risultando come l’idea vincitrice.

FORMAZIONE E COMPETENZE

Come si vede, dunque, già oggi vengono sviluppati numerosi progetti di BDA, eppure, secondo la survey dell’Osservatorio del Politecnico, tra gli ostacoli principali allo sviluppo dei progetti in questo ambito spicca la mancanza di competenze e figure organizzative interne come chief data officer e data scientist. Nel 2017, quasi la metà delle grandi organizzazioni intervistate dichiara di avere, nel proprio organico, almeno un data scientist: un numero in crescita, passato al 45% dal 31% dell’anno precedente. Di queste, quasi un terzo ne ha definito formalmente sia il ruolo sia la collocazione all’interno dell’organizzazione. Quasi la metà delle aziende che hanno inserito data scientist dichiara di volerne incrementare il numero nell’anno in corso, a conferma dell’impatto positivo di queste figure nelle aziende. Tra le organizzazioni che ne sono ancora sprovviste, il 29% ne prevede l’introduzione nei prossimi anni e, di queste, quasi la metà nel 2018. Sarà possibile farlo facilmente? Secondo i dati di The Adecco Group, il 52% degli intervistati ritiene che ci sia sul mercato del lavoro una presenza di profili in ambito big data, ma al tempo stesso dichiara che sia faticoso reperirli. Per il 43%, il mercato non è adeguato, mentre solo il 5% ha risposto che i profili interessanti sono presenti sul mercato, e sono facili da reperire. In caso di difficoltà, la stessa ricerca suggerisce che è possibile ricorrere al potenziale interno all’azienda (57%), mentre è necessario trovare figure professionali esterne per il 43%. Secondo gli intervistati, per sviluppare le competenze necessarie occorre della formazione esterna (46%). Il 37% pensa che si debba ricorrere alla formazione con consulenti in azienda, e il restante il 17% dichiara che è sufficiente l’autoformazione. La formazione richiesta dai big data deve essere fatta in diversi ambiti: analisi dei dati (35%); interpretazione e comunicazione dei dati (31%); trasformazione dei dati (17%); raccolta dei dati (16%).

Il mercato del lavoro sta vivendo un periodo di enormi cambiamenti. Secondo l’Osservatorio sul Digital Mismatch, indagine condotta da InTribe in collaborazione con Nexi, in Italia, prendendo come base il 2015, circa il 34% del totale dei posti di lavoro saranno “sostituiti” entro il 2025, a fronte di pensionamenti e altre uscite dal lavoro. Nello stesso periodo, ci sarà anche un’espansione della domanda del 4,4%, di cui quasi un quarto sarà costituita da nuove professioni. La crescita in Italia sarà addirittura superiore a quanto previsto per l’Unione europea, dove l’incremento nello stesso periodo sarà pari al 2,9%. Nel decennio 2015-2025 nel nostro Paese si creeranno quindi quasi 9,3 milioni di opportunità occupazionali per chi entrerà nel mondo del lavoro, includendo sia le sostituzioni sia l’espansione della domanda. Quest’ultima, sarà quasi totalmente concentrata nella fascia rappresentata da persone con qualifiche di alto livello, che vedranno una crescita di oltre 2.3 milioni di posti di lavoro, mentre nella fascia con qualifiche di basso livello si stima una perdita complessiva di oltre 2 milioni di posti di lavoro. Il 37,5% delle opportunità occupazionali in Italia riguarderà il macro-settore dei servizi. Quasi il 40% di tutte le opportunità occupazionali saranno in ambito tecnico, scientifico e di elevata specializzazione (scienze, ingegneria, sanità, impresa e istruzione). Entro dieci anni, il 70% delle professioni evolverà in ambito tecnologico e digitale. Questa rivoluzione sta dando origine al fenomeno noto come Digital Mismatch. Ci dice in proposito Mirna Pacchetti, CEO e co-founder di InTribe: «Le aziende ricercano profili in ambito tecnologico e digitale che nessuno riesce a occupare per mancanza di competenze specifiche. Questo significa che il tasso di disoccupazione potrebbe essere più basso, se neet e disoccupati avessero le giuste competenze. Il Digital Mismatch non è un problema relegabile unicamente alle professionalità dell’ICT, ma riguarda ognuno di noi». Secondo stime InTribe su dati CEDEFOP (Centro Europeo per lo sviluppo della formazione professionale – www.cedefop.europa.eu/it), se non si investe da subito sulla formazione l’impatto complessivo potrebbe essere di circa due milioni di posti vacanti entro tre anni.

I MANAGER DEI DATI DEL FUTURO

Anche secondo la maggioranza degli intervistati dell’indagine “Jobs of the Future 2018” del gruppo Hays, pubblicata lo scorso mese di febbraio, la digitalizzazione non farà scomparire le professioni tradizionali, ma i lavoratori di ogni settore dovranno acquisire competenze informatiche per potersi mantenere competitivi sul mercato. Tra i professionisti intervistati, uno su tre dichiara di aggiornarsi già ogni sei mesi, un altro terzo addirittura ogni tre mesi.L’Industria 4.0 porterà alla riqualificazione delle professionalità, e le aziende dovranno investire massivamente in formazione, vista come asset strategico aziendale per non rischiare di perdere competitività. Le tre professioni con la più elevata crescita di opportunità lavorative nei prossimi 12/24 mesi saranno il cybersecurity specialist, responsabile della sicurezza digitale, il data analyst, e il growth hacker, professionista che si occupa di crescita attraverso l’utilizzo di tecniche avanzate di lean marketing e software. Mirna Pacchetti di InTribe dettaglia i compiti del data analyst: «Il data analyst è l’operativo, molto spesso con laurea in statistica, in grado di analizzare grandi moli di dati con l’ausilio di software, trasformandoli in informazioni ad alto valore aggiunto per l’azienda. Il suo obiettivo principale è quello di agevolare la presa di decisioni e la soluzione di problemi. Esistono diverse declinazioni di questa professionalità: l’esperto di analisi predittive, colui che è in grado di analizzare i dati al fine di prevenire guasti a macchine impianti; il business data analyst, figura esperta di analisi finanziarie, capace d’incrociare i dati aziendali con i dati di mercato e i big data presenti nel web, con l’obiettivo di aiutare il top management a prendere decisioni strategiche; il qualitative data analyst, colui che è in grado di trovare gli smart data all’interno di una mole enorme e destrutturata di dati per realizzare analisi qualitative e individuare i nuovi trend emergenti».

Secondo la già citata ricerca di The Adecco Group, restringendo l’interesse alla sola area dei big data, i profili professionali più interessanti nell’immediato futuro saranno i big data analytics specialist (30%), i data scientist (20%), i data content & communication specialist (17%), i big data architect (16%) e i social mining specialist (12%). L’indagine di Hays conferma un futuro interessante per chi opererà nell’ambito dei big data: tra i cinque profili IT più ricercati dai recruiter entro il 2025, al primo posto ci saranno i big data expert, seguiti dagli IT security specialist, dagli app developer, dai multichannel architect e dagli interactive developer. Secondo le previsioni, il settore dei big data continuerà a svilupparsi in modo costante nei prossimi anni e offrirà sempre maggiori opportunità di occupazione: tra le figure professionali in questo ambito, Hays elenca tra i più richiesti i data scientist e i data architect, i big data engineer e i chief data officer (CDO).

E LA PRIVACY?

Quando i giornali parlano dell’argomento big data, in genere lo fanno a seguito di casi clamorosi, come lo scandalo Cambridge Analytica dei mesi scorsi. Il rapporto tra big data e trattamento dei dati personali non è semplice, perché è difficile cercare di bilanciare il valore delle tecnologie e il valore della privacy. Il problema più grosso è legato al trattamento dei dati perché, una volta inseriti nei diversi sistemi, non è sempre facile capire da chi e come siano utilizzati, e con quali dati possano essere integrati. Il General data protection regulation, più noto come GDPR, in applicazione dallo scorso 25 maggio, sta modificando lo scenario a livello europeo, ma è ancora presto per una valutazione di cosa effettivamente potrà cambiare. Purtroppo, ogni tentativo di fissare normative rigide in tema di privacy ha un problema di fondo: le regole valgono su aree geografiche ben definite, ogni singola nazione in genere ha regole diverse, mentre il business digitale è globale, perché la Rete è un ambiente assolutamente transazionale. Fino a ora, se una app conservava i dati negli Stati Uniti, nazione per molti versi permissiva perché dotata di una legislazione più orientata al business, era complesso dirimere legalmente i conflitti. Il GDPR stabilisce che sui dati valgano le leggi del paese dove sono prodotti, non più del paese dove vengono elaborati: staremo a vedere nei prossimi mesi cosa questo cambiamento di visione comporterà, e quali conseguenze o sviluppi porterà al business. Un altro aspetto di cui bisogna tener conto è che, attualmente, la competizione mondiale è legata allo sfruttamento dei dati: chi ne limita l’uso, di fatto, rischia di ridurre la competitività delle proprie aziende a vantaggio dei competitor stranieri, che potrebbero beneficiare di minori restrizioni. Per garantire una competizione ad armi pari, servirebbe un regolamento mondiale condiviso, rigido per proteggere i diritti di ogni singolo individuo, e nello stesso tempo flessibile per non frenare investimenti e sviluppo economico. Gli interessi economici sono enormi: nell’economia moderna, l’analisi dei dati è preziosa come il petrolio, con una differenza: il petrolio è una risorsa in (lento) esaurimento, i dati invece in costante, forte, espansione. Ad oggi, quindi, appare difficile, se non impossibile, pensare di trovare regole comuni tra mondi con culture così diverse sul business e sulla privacy.

 


  •  
  •  
  •  
  •  
  •  
  •  
  •