Il mercato degli analytics e della gestione dei Big Data continua a crescere. L’elemento centrale è la capacità di creare hub di dati in cui le informazioni provenienti da diverse fonti possano essere integrate e normalizzate per essere date in pasto ai modelli di analisi

Una volta si analizzavano numeri con strumenti di reporting, oggi si elaborano diverse tipologie di dati per creare profili e personalizzare su di essi prodotti e servizi. “Data is just like crude”, i dati sono come il petrolio. Quindici anni fa, Clive Humby, data scientist e matematico inglese, spiegava così il parallelo: «Il petrolio è prezioso, ma se non è raffinato non può essere sfruttato. Per diventare prezioso e portare a un’attività redditizia, deve essere trasformato in gas, plastica, prodotti chimici, e così via». Nello stesso modo, i dati devono essere scomposti e analizzati affinché vi si possa trovare valore. Clive Humby, con la sua spiegazione, ripresa da tanti altri esperti negli anni, ha visto davvero lungo, precorrendo i tempi: sapere estrarre valore dai dati è la vera chiave competitiva per grandi aziende e PMI. Occorre saper raccogliere, catalogare, gestire, analizzare la mole di dati per estrarne il valore, cioè trovare informazioni utili che pongano le basi per innovare, facilitando la creazione di nuovi modelli di business.

QUALI DATI?

Quali sono i dati che le aziende analizzano? Anni fa, la risposta sarebbe stata semplice: numeri. Sono facilmente interpretabili, facili da capire, e danno risposte certe a tante domande: che ricavi ho avuto in un certo periodo, confrontato con lo stesso periodo dello scorso anno? Quanti ordini ho ricevuto nell’ultimo mese? Quanto ho prodotto nello scorso trimestre, in ogni reparto produttivo? E così via. Per questa tipologia di dati, era sufficiente utilizzare buoni strumenti di reporting in grado di estrarre situazioni significative utili ai decisori aziendali. Oggi, invece, si analizzano i Big Data: si tratta di dati più complessi, non solo per quantità, ma anche per varietà. Spesso le informazioni sono in database diversi, dove i dati vengono archiviati dalle fonti più svariate: l’ERP aziendale, i sensori IoT, i macchinari di produzione, le videocamere, gli smartphone, i messaggi di testo, i file multimediali, i social network, le richieste di ricerca sul Web e tanti altri ancora.

Una notevole mole di dati, collegabili tra loro per renderli veramente preziosi, costituiti dalle più svariate tipologie con una grande potenzialità di trasformarsi, se opportunamente analizzate, in informazioni utili per il business, dal punto di vista commerciale e strategico. Con la tecnologia oggi a disposizione, nonostante il rapido aumento della quantità di dati, sui Big Data si possono fare in tempo reale analisi molto accurate, che consentono di avere una precisa comprensione di ogni cliente e di ogni situazione. «Le grandi moli di dati disponibili non sono sempre complete o corrette» – spiega a Data Manager Angela Iorio, marketing manager di ToolsGroup. «Disponiamo però di tecnologie capaci di pesare le informazioni e usarle per assumere, con sistemi artificiali, decisioni molto più mirate e oggettive di quanto un operatore potrebbe fare. La forza sta non solo nella capacità elaborativa ma soprattutto nei modelli (data model) e nelle tecniche di supporto a descrizione, predizione e prescrizione dei processi operativi». Oggi, la parola analytics è molto comune, ma è sbagliato pensare questi sistemi in antitesi alla più tradizionale business intelligence. «In realtà – precisa Mirko Menecali, Partner & Alliance manager di Sinfo One – rispetto alla “semplice” analisi statistica dei dati, rappresentano una naturale evoluzione, che usando modelli matematici cerca di ricavare informazioni più precise non solo su quello che è avvenuto nel passato ma su quello che succederà nel futuro». Questi strumenti sono dotati di modelli di visualizzazione, arricchiti di funzionalità di machine learning in modo da fornire anche a utenti di business la capacità di esplorare i dati e di eseguire analisi interattive: l’utente è in grado di trovare risposte alle proprie domande, e di formulare nuove domande a partire dalle risposte, in un processo iterativo esaustivo, rapido e senza l’aiuto di personale esperto.

I DATI SONO OVUNQUE

Il dato non viene utilizzato solo per migliorare il business esistente, ma la tecnologia permette di reinventare il modello di business a partire dall’analisi dei dati, diventando quindi fonte di nuove opportunità e di servizi innovativi e personalizzati. Grazie a dati sempre più granulari e capacità computazionali sempre più avanzate, l’analisi predittiva su modelli di business sempre più raffinati genera dei veri e propri profili invece che dei report numerici: questo perché è in grado di ricostruire a partire da quanto si trova in rete chi siamo, dove viviamo e con chi, cosa mangiamo, cosa acquistiamo, a quali prezzi, cosa leggiamo e tanti altri particolari. Questo permette di offrire servizi personalizzati: unito ai servizi di geolocalizzazione, questo tipo di personalizzazione arriva a ottenere un’offerta unica ottimizzata per ogni individuo, potendo fornire avvisi di marketing sensibili al tempo e alla posizione, come un’offerta speciale di un giorno solo quando gli utenti sono vicini a un determinato punto di contatto.

Alcune applicazioni di intelligenza artificiale applicata alla personalizzazione di prodotti e servizi ci vengono spiegate da Claudio Girlanda, Application Competence Center director di Maticmind. Tra i temi centrali collegati agli analytics e Big Data troviamo l’analisi psicolinguistica. «Questa scienza ampiamente utilizzata in passato per identificare e profilare comportamenti di soggetti, oggi viene integrata in applicazioni mirate a predire modelli di business evoluti, utilizzati ampiamente nel mondo finanziario e oggi esportabili verso altri mercati. Le soluzioni sfruttano elementi come tratti caratteriali e sistemi valoriali per abbinare profilo ad argomento (prodotto, brand, messaggio, …), facendoli confluire in una modellizzazione dati per definirne benchmark e gap, i cui risultati evidenziano cause/effetto». La simulazione – continua Girlanda – è il passaggio successivo e consente di confrontare il profilo “ideale” (target) con il risultante e, per mezzo della modulazione, allinearne i parametri. «L’output finale è in grado di suggerire la strategia più efficace per la realizzazione di un messaggio targettizzato. I riscontri oggettivi sull’uso di queste piattaforme hanno permesso ad aziende automotive di personalizzare i propri prodotti aumentandone i ricavi, supportando i clienti con esigenze eterogenee e ottimizzando il just-in-time. Alcune utility hanno aggiornato i propri servizi sulla base di analisi raccolte da strumenti come questo, riuscendo a ottimizzare le tariffe verso i clienti, migliorando i propri ricavi e ampliando il paniere dell’offerta. Ciò che in passato avveniva “manualmente”, oggi siamo in grado di gestirlo in autonomia grazie al supporto dell’intelligenza artificiale».

I dati sono ovunque, tanti, di tanti tipi. Cos’è che può fare la differenza nella loro gestione? Secondo Paolo Ronzani, sales director – Nord Ovest di Axians Italia – indubbiamente la capacità di ottimizzare le fonti dei dati e l’utilizzo efficace degli stessi per aumentare il valore aziendale in tutti gli asset: «Dal marketing alle vendite, dalla customer experience al process management. Come Axians, attraverso l’impiego dell’intelligenza artificiale e del machine learning implementiamo soluzioni di modellazione dei dati che aiutano i clienti a prendere decisioni migliori». Pone invece l’accento sulla disponibilità dei dati Andrea Zinno, data evangelist di Denodo: «La differenza la fa la consapevolezza della loro esistenza, del loro significato, la loro effettiva raggiungibilità. Dobbiamo comprendere, semmai ce ne fosse bisogno, che la mera esistenza di un dato non è, ahimè, condizione sufficiente affinché questo sia noto e usabile, né possiamo dare per scontato che ne sia chiaro il significato, per cui è fondamentale avere un unico punto di accesso, facile da consultare, dove non solo si possa sapere ciò che i dati rappresentano, ma ne sia possibile la loro “combinazione”, in modo che ciascun data consumer possa assemblare i dati disponibili per costruire ciò di cui ha bisogno, perché il valore non è una proprietà strutturale dei dati, ma dipende da come questi sono usati e l’uso è sempre qui e adesso».

Per Stefano Maggioni, presale manager – Advanced Analytics & AI di SAS, la differenza la fanno strumenti ed esperienza. «Gli strumenti consentono di partire dall’obiettivo e di essere agili nelle fasi di sperimentazione e implementazione. L’esperienza consente di minimizzare il tempo per far sposare obiettivo e dati. Strumenti ed esperienza devono coesistere in una piattaforma che permetta di far parlare gli stakeholder con gli analisti e di accelerare l’attività nel suo complesso».

Leggi anche:  Akeron entra nella Gartner Market Guide del Sales Performance Management

STRUMENTI PER TUTTI?

Per molto tempo questi strumenti sono stati utilizzati solo dalle grandi aziende. Oggi, invece, anche le PMI hanno iniziato a investire in questo campo, avendone compreso l’importanza. L’accesso ai dati e la capacità di elaborare e analizzare grandi quantità di informazioni, richiedono investimenti: tutte le imprese se li possono permettere? Secondo Alberto Alberio, IT director di Holonix, accesso ai dati e capacità di elaborare e analizzare grandi quantità di informazioni richiedono investimenti che tutte le imprese possono permettersi. «Fino a poco tempo fa, la tecnologia disponibile per effettuare l’analisi dei dati implicava necessariamente investimenti importanti per l’acquisto dell’infrastruttura e sua gestione sia in termini di strumenti di analisi che di conoscenze. Oggi, lo sviluppo tecnologico e gli strumenti di augmented intelligence permettono a tutti i tipi di aziende di affrontare il tema della data analytics in una logica sostenibile di scalabilità. Innanzitutto, da un punto di vista infrastrutturale, grazie alle soluzioni cloud non è più necessario effettuare grandi investimenti iniziali ma ponderati in funzione delle necessità specifiche dell’azienda».

E questo influenza anche l’approccio all’analisi dei dati – continua Alberio – permettendo di valutare di volta in volta la soluzione con il miglior rapporto costi/benefici rispetto alle esigenze (da semplici algoritmi di regressione fino al deep learning). «Nella stessa logica vengono gestiti i nuovi modelli di business abilitati dalla data analytics con strumenti che permettono gradualmente all’azienda di aumentare la propria competitività sia arricchendo il proprio prodotto di nuove funzionalità sia con nuovi servizi come manutenzione predittiva e servitizzazione. Importante diventa anche la scalabilità finanziaria derivata, con bassi investimenti, dilazionati nel tempo e, grazie agli incentivi, in parte finanziabili». La diffusione di questi strumenti nelle aziende più piccole è un dato di fatto anche per Angela Iorio di ToolsGroup. «I processi di democratizzazione di strumenti di data analytics passano attraverso il contributo dei grandi player di infrastruttura e piattaforma (Microsoft, Google, Amazon…). Detto ciò, cominciano a essere disponibili servizi ad alto valore aggiunto che permettono di semplificare l’uso delle nuove tecnologie anche a imprese medio-piccole, non indirizzandosi direttamente a specialisti del dato, ma a utenti business interessati a migliorare i processi. Come ToolsGroup, abbiamo da poco lanciato nuovi servizi di pianificazione che un tempo erano rivolti esclusivamente ad aziende medio-grandi».

Si sta modificando anche l’offerta di soluzioni tecnologiche perché possano essere accessibili ai portafogli delle aziende più piccole. «La diffusione delle tecnologie in cloud – spiega Maggioni di SAS – consente lo sviluppo di soluzioni “as a Service” e restituisce una maggiore diffusione dell’accesso ai nostri strumenti: analisi, servizi, risultati e piattaforme diventano utilizzabili senza grandi infrastrutture a supporto né competenze tecniche per manutenerle. Questo si traduce in una riduzione dei costi e nella possibilità di estendere i vantaggi nell’utilizzo a un numero sempre maggiore di imprese e settori». Al di là della possibilità di investire in questi strumenti, le PMI devono essere in grado di gestire le soluzioni che devono utilizzare. «Non dobbiamo pensare solamente al costo, elemento comunque importante – afferma Zinno di Denodo – ma anche all’effettiva usabilità delle soluzioni che gestiscono i dati, dalla loro rilevazione fino al loro uso. Dobbiamo tener presente che le imprese più piccole, soprattutto in settori dove l’Information Technology si è affacciata più tardi, difficilmente dispongono di quelle competenze che, in altri settori e per aziende più grandi, sono oramai ben consolidate. Adottare una soluzione economica, ma che richiede significative competenze per essere utilizzata, crea problemi, più che risolverli. Dobbiamo concentrarci su chi deve usare i dati, non su chi li deve gestire, esattamente come, quando compriamo un’auto, dobbiamo immedesimarci nel guidatore e non nell’ingegnere che l’ha costruita».

DOVE SI INVESTE OGGI

Il mercato degli analytics continua a crescere: la gestione dei Big Data si conferma tra le priorità di investimento di CIO e innovation manager. Dove si investe di più oggi? Secondo Angela Iorio di ToolsGroup, gli investimenti sono concentrati sui processi tradizionali per migliorare efficienza ed efficacia. «Quelli favoriti hanno un chiaro ritorno, individuabile e rapido». Questi sistemi sono diffusi in tutte le aree aziendali come conferma Menecali di Sinfo One: «Le applicazioni di analytics sono oramai presenti praticamente in tutte le funzioni aziendali, dalla finanza alla gestione delle risorse umane, visto che tutti i più moderni sistemi di analytics consentono di fare BI tradizionale e analitica avanzata».

Leggi anche:  Cisco, le tecnologie sono alla base di un futuro inclusivo

Sinfo One lavora prevalentemente in aziende industriali che producono beni di largo consumo, in questo settore ci sembra che gli investimenti in analisi avanzate associate a tecnologie di big data e IoT siano orientati prevalentemente nelle seguenti direzioni: analisi dei consumatori partendo dalle informazioni provenienti dai social network; applicazioni di manutenzione predittiva; miglioramento dei processi di demand planning ai fini dell’ottimizzazione dei tradizionali processi di pianificazione integrata. In particolare su quest’ultimo punto, Sinfo One ha sviluppato numerosi progetti di successo. «L’esperienza ci ha insegnato – continua Menecali – che un errore comune è quello di concentrarsi sul software prescelto per fare previsioni e modellizzazioni, mentre l’elemento centrale di un sistema previsionale è la capacità di creare un hub di dati in cui le informazioni provenienti da diverse fonti (ERP, siti web, analisi di terzi soggetti, ecc.) possano essere integrate e normalizzate per essere date in pasto ai modelli di analisi».

Gli sviluppi del prossimo futuro sono chiari. Le parole chiave sono chatbot, computer vision, realtà aumentata. «Ma la sfida non è velocizzare i processi attuali quanto innovare i processi core» – afferma Maggioni. «Nei prossimi anni, l’obiettivo deve essere rendere Big Data e analytics pervasivi a livello enterprise uscendo dalla logica compartimentale: questi strumenti sono un’occasione per far parlare processi e reparti diversi, in modo da generare un vantaggio interdipartimentale». Una parte importante degli investimenti si sta rivolgendo verso le piattaforme di data management, che rappresentano il prerequisito indispensabile per gestire i dati in modo più efficace e flessibile.

Una volta catalogato e reso disponibile tutto ciò che abbiamo in casa, il passo successivo – spiega Giancarlo Vercellino, associate director Research & Consulting di IDC Italia – è capire come organizzare una moderna funzione di analytics aziendale, coniugando la parte di Data Science con quelle di Data Engineering, la parte di Business Innovation con quella IT e Infrastructure. «Si tratta di coordinare il lavoro di tante persone diverse, cercando di implementare un processo ripetibile, misurabile e scalabile, in altre parole, “industrializzare” una nuova funzione aziendale mettendo insieme gli obiettivi e le competenze di funzioni diverse, altrimenti il rischio diventa quello di macinare e macinare enormi volumi di dati con un impatto del tutto superficiale sui processi e sulle decisioni aziendali. La capacità di orchestrare un cambiamento di questo tipo richiede competenze ed esperienze che stanno cominciando a formarsi concretamente in azienda proprio in questi anni, ma possiamo immaginare che laddove queste iniziative avranno successo potremmo osservare la nascita di tanti spin-off aziendali: aziende specializzate in servizi data-intensive verticali che servono la capogruppo e il mercato, un tipo completamente nuovo di enti strumentali».

DOVE SONO MAGGIORMENTE USATI?

Se gli analytics, come concordano tutti gli intervistati, sono usati pressoché in tutti i mercati e in tutte le aree aziendali, dove possono essere considerati maggiormente motore del business? Secondo Vercellino di IDC Italia il contributo che analytics e Big Data possono portare a una azienda dipende da molti fattori. «La “monetizzazione del dato” è un tema di discussione aziendale già da diversi anni, ma è ancora ampiamente in fase di elaborazione, nessuno può affermare – in tutto buon senso – di avere esaurito l’argomento. Esiste ancora un ampio spazio aperto a nuove idee e considerazioni, tanto da parte degli accademici che dei professionisti». E forse, si tratta di capire meglio che cosa vogliamo dire quando usiamo l’espressione “motore del business”. Se intendiamo che gli analytics fanno parte del core business aziendale, è sotto gli occhi di tutti il valore immediato che i dati portano. Nel settore finanziario e nelle utilities, e in senso più lato in tutti quei contesti in cui diventa davvero troppo oneroso adattare la produzione a cambiamenti imprevedibili della domanda e dell’offerta, ovvero, quando “prevenire è meglio (più economico) che curare”, la spinta che arriva dai dati può fare la differenza in termini di capacità di risposta. Inoltre a partire dall’analisi dei dati è possibile reinventare il modello di business. «In tutti questi contesti si fa un passo oltre la nozione dei tradizionali modelli “on demand”. «Essere bravi a prevedere il mercato – afferma Vercellino – sta diventando una caratteristica saliente di alcuni contesti competitivi che potremmo definire Predictive Sectors».

Leggi anche:  Akeron entra nella Gartner Market Guide del Sales Performance Management

Angela Iorio di ToolsGroup vede importanti benefici nella supply chain: «Nel nostro ambito, i problemi sono legati alla complessità dei processi di supply chain planning. Sono numerose le decisioni da prendere per i prodotti, le locazioni e gli stati di trasformazione: un numero elevatissimo di dati ogni giorno. Negli ultimi anni, siamo stati tra i protagonisti di una rivoluzione dei metodi di pianificazione, perché grazie all’utilizzo del machine learning le nostre soluzioni non solo supportano i decision maker ma li sostituiscono nella maggioranza dei casi». Uno dei temi più ricorrenti che emerge dal confronto con i clienti è indubbiamente quello di come le aziende possono utilizzare i dati al fine di supportare i propri processi operativi e di customer intelligence. Che si tratti di aumentare i livelli di business o di scoprire nuove opportunità – spiega Ronzani di Axians Italia – la gestione dei dati è costantemente in cima all’agenda delle priorità. «Grandi clienti multinazionali o piccole e medie imprese si stanno rivolgendo sempre più verso tecnologie innovative e modelli di business basati sui dati per realizzare le loro strategie di sviluppo e di ripresa». Di conseguenza – continua Ronzani – «il tema del Data Management sta alimentando un cambiamento culturale di approccio alla gestione dei dati che ha bisogno di una strategia solida di analisi e di piattaforme adeguate. In ambito industriale e in contesti di smart city, l’utilizzo dell’IoT sarebbe irrealizzabile se non esistessero soluzioni per elaborare e analizzare le grandi quantità di dati generate dai sensori installati sugli impianti di produzione o all’interno del tessuto metropolitano». L’analisi dei dati e la business intelligence in tempo reale sono diventati pilastri importanti della digitalizzazione. «Garantire la disponibilità dei dati – conclude Ronzani – è fondamentale per migliorare la soddisfazione dei clienti e la produttività dei dipendenti».

Infine, Stefano Maggioni di SAS pone l’accento su un punto importante per il successo di queste soluzioni, l’adozione di data lake condivisi invece di silos dipartimentali. «I Big Data stanno diventando pervasivi in diversi ambiti. Dalla customer experience che va ad aggredire nuovamente il dato grezzo per mettere in piedi nuovi processi e generare valore; all’home delivery, dove l’efficientamento viene raggiunto utilizzando dati dei clienti che sono normalmente prerogativa del marketing. Fino ad oggi le aziende hanno lavorato per silos, spesso gli stessi analytics risultavano compartimentati: le nuove logiche integrano data lake condivisi e considerano l’informazione nella sua complessità, accelerando lo sviluppo». L’utilizzo dei data lake e di altri modelli di integrazione dati che sfruttano la virtualizzazione facilita e velocizza la condivisione delle informazioni. Non bisogna dimenticare che la tecnologia migliora costantemente, ma vanno fatte le corrette scelte architetturali per ottenere il massimo.