I dati per gestire la complessità e crescere. La trasformazione nelle aziende italiane da process-driven a data-driven. La dispersione dei dati come ostacolo principale. La modernizzazione delle data strategy nell’esperienza di Fratelli Carli, Illva Saronno, Franke, KIKO Milano, Helvetia Assicurazioni

Le organizzazioni hanno dovuto fronteggiare mutamenti imprevisti e repentini del mercato, accelerando la transizione digitale. In questa complessa situazione, le decisioni aziendali devono essere ancora più accurate e basate su un uso sapiente dei dati a disposizione per avere le informazioni corrette. «All’interno di una matrice di relazioni e interazioni sempre più articolata, ampliare la nostra base di conoscenza è il “must have” per guidare un processo decisionale più oggettivo, consapevole, basato sui dati e sulle informazioni» – spiega Damiana De Cantellis, direttore commerciale di Fratelli Carli. «L’obiettivo finale rimane il soddisfacimento dei consumatori. Cambiano le modalità con le quali ci impegniamo a perseguire tale obiettivo». Fratelli Carli è una azienda storica olearia ligure che dal 1911 ha fatto del dialogo diretto con la clientela uno dei suoi punti di forza, vendendo direttamente al consumatore e consegnando a domicilio i propri prodotti in Italia e all’estero. L’azienda ha investito in una piattaforma che rende disponibili un framework di campagne in grado di rispondere in modo dinamico a tutte le esigenze di omnicanalità dell’azienda. «Abbiamo adottato sistemi di analisi più sofisticati per riuscire ad estrarre informazioni utili dall’enorme mole di dati a disposizione» – prosegue Damiana De Cantellis. «Da un lato utili a una maggiore e migliore conoscenza della clientela, dall’altro utili in termini di processi decisionali di business più rapidi ed efficaci». La fase due del progetto prevede l’introduzione di modelli di analisi ancora più sofisticati, basati su tecniche di machine learning. L’obiettivo di Fratelli Carli è riuscire in modo oggettivo ad assicurare l’esperienza unica, personalizzata e contestuale che oggi si aspettano i clienti, indipendentemente dal canale scelto per comunicare ed interagire con l’azienda.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

GESTIRE LA COMPLESSITÁ

Gli ecosistemi di dati stanno assumendo un ruolo sempre più strategico. Le imprese riconoscono l’importanza di passare velocemente da un approccio process-driven ad uno data-driven. Rilevanza dei dati e complessità di gestione aumentano in modo più che proporzionale. I dati sono di diversa natura e origine, spesso distribuiti in diverse ubicazioni. Il loro volume cresce con continuità e sempre maggiore accelerazione. Allo steso modo, aumenta la velocità con la quale le informazioni devono essere consumate. Le direzioni IT devono affrontare la sfida di gestirli in maniera rapida ed efficiente per renderli business-ready. È quanto ha fatto la holding Illva Saronno della famiglia Reina, leader nel mondo degli alcolici che controlla filiali, fabbriche e quote di partecipazione in tutto il mondo dall’America alla Cina e dà lavoro a più di 600 persone, generando mezzo miliardo di euro di fatturato. Tra i suoi prodotti, oltre al liquore DiSaronno, marchio conosciuto in tutto il mondo, anche l’Amaro Zucca, la Artic Vodka, l’Amaro 18 Isolabella, il whiskey The Busker e vini con etichette tutte siciliane come Corvo, Duca di Salaparuta e Florio. Illva Saronno ha portato a termine un ambizioso progetto di digitalizzazione sviluppando un ambiente ERP unico su private cloud, con un impegnativo percorso di standardizzazione delle procedure operative. «L’obiettivo – spiega Antonio Pisano, direttore dei sistemi informativi e dei processi di Illva Saronno – era riuscire a parlare un linguaggio comune e fare economia di scala, garantendo le specificità di ogni azienda del gruppo. Abbiamo cercato di razionalizzare il più possibile, per permettere una governance di sistemi che altrimenti sarebbero risultati molto complessi da gestire. Questo è servito anche a trasmettere agli operatori un messaggio importante: la holding detta le regole generali, pur lasciando che le sedi mantengano le loro specificità». Per la business intelligence operativa, Illva Saronno ha messo a punto una piattaforma di analisi e reportistica in grado di coprire tutte le società italiane ed estere e di assumere un ruolo di unificazione culturale tra le varie anime del gruppo, mettendo a disposizione di tutti un linguaggio analitico comune, a fronte di un passato in cui esistevano diversi “slang” che potevano risultare molto dispersivi.

TRANSIZIONE COMPLICATA

Perché un’azienda possa considerarsi davvero data-driven non servono solo strumenti e tecnologie per l’elaborazione dei dati. Questo percorso ha una forte componente umana oltre che tecnologica: solo la giusta mentalità delle persone che fanno parte dell’organizzazione rende efficace l’utilizzo dei dati. La data-driven transformation è un passaggio complesso che procede attraverso momenti successivi – come ci spiega Giancarlo Vercellino, associate director research & consulting di IDC Italia. Oltre ai cambiamenti culturali e organizzativi, che molto spesso risultano quelli più difficili da sedimentare perché richiedono un investimento nel re-skilling delle risorse, secondo IDC è possibile evidenziare almeno due momenti importanti nella modernizzazione delle piattaforme tecnologiche. «Il primo è la modernizzazione delle data platforms e quindi l’investimento nelle nuove tecnologie database e di catalogazione per gestire dati strutturati e non strutturati scalando anche sui Big Data. Il secondo, la modernizzazione delle piattaforme per generazione di insights e analytics che possono essere impiegati per prendere decisioni, fare innovazione di prodotto/processo, oppure fare automazione intelligente – e quindi l’investimento nelle piattaforme per gestire gli algoritmi e la data science. Rispetto alla data governance, circa il cinque per cento delle imprese in Italia ha pianificato nei prossimi 12 mesi un investimento nelle nuove piattaforme per la sua modernizzazione, con un sostanziale orientamento da parte del segmento sopra i 500 addetti, dove la percentuale si avvicina al 30 per cento».

Leggi anche:  Giulio Sapelli, identità e contaminazione

IDC stima che il segmento di mercato dei Big data analytics in Italia, che coinvolge hardware, software e servizi, abbia un valore complessivo di circa 2,5 miliardi di euro nel 2021 e potrebbe raggiungere un valore di 3,8 miliardi di euro nel 2025. «Rispetto alla modernizzazione degli insights – spiega Vercellino – investire negli algoritmi è il marchio distintivo degli imprenditori più innovativi, quelli che hanno una visione chiara del futuro e una ambizione radicale al cambiamento: si tratta di meno del cinque per cento delle imprese in Italia e riguarda soprattutto grandi imprese». IDC stima che il segmento di mercato dell’intelligenza artificiale in Italia (hardware, software e servizi) abbia un valore complessivo di circa 860 milioni di euro nel 2021 e potrebbe raggiungere un valore di 2,3 miliardi di euro nel 2025. Secondo l’annuale ricerca dell’Osservatorio Big Data & Business Intelligence del Politecnico di Milano, gli investimenti nel mercato dei Big data analytics hanno avuto in Italia dal 2016 una crescita annua del 13 per cento. Nel 2021, le spese nella componente software sono aumentate del 17 per cento, e anche i servizi di consulenza e personalizzazione tecnologica sono cresciute a doppia cifra. Aumentano anche gli investimenti delle PMI negli analytics, ma resta rilevante il gap tra le aziende più

avanzate nel processo di valorizzazione dei dati rispetto a quelle che si trovano ancora all’inizio del percorso. Se si guarda alle sole grandi aziende, il 27 per cento ha progetti già operativi in ambito advanced analytics con disponibilità di competenze diffuse e strutturate in data science. Si tratta di aziende capaci di portare l’intera organizzazione a una piena valorizzazione dei dati a disposizione. Un ulteriore 14 per cento di grandi aziende ha dichiarato di essere in fase sperimentale, avendo alcune competenze interne, numerose sperimentazioni e progetti a regime in alcune funzioni aziendali. Il 28 per cento delle aziende dichiara di avere in corso le prime sperimentazioni e l’inserimento delle prime competenze, il 16 per cento sta valutando idee progettuali in ambito advanced analytics, mentre il 15 per cento dichiara una completa mancanza di interesse al tema. Un quadro simile emerge anche mettendo in fila i dati della survey condotta da IKN Italy per Denodo. Più dell’80 per cento degli intervistati ha dichiarato che la trasformazione data-driven rientra nei piani strategici della loro organizzazione. Tuttavia, tra questi solo il 17% ritiene che i dati rivestano già un ruolo centrale nella definizione dei processi. Il 42 per cento, pur avendo avviato la trasformazione, afferma di trovarsi ancora nella fase di definizione dei progetti per dare maggior importanza ai dati. Il 24 per cento ha definito il piano di trasformazione che però non è stata ancora avviata. Una minoranza, il 7 per cento ritiene che la trasformazione data-driven non sia adatta alla propria realtà, mentre il restante 10 per cento dichiara che i siano troppe difficoltà legate alla trasformazione data-driven.

INTERESSE IN FORTE CRESCITA

Un interesse crescente e ben motivato che emerge anche dalla ricerca realizzata da Vanson Bourne per Cloudera su oltre tremila decisori dell’IT e del Business di diverse nazioni, tra le quali l’Italia. Secondo questi dati, le aziende che mettono i dati al centro del loro business crescono più velocemente rispetto alle altre imprese: le aziende che utilizzano da più di 12 mesi una data-driven strategy hanno una crescita media annua intorno al cinque per cento, rispetto a una crescita media di circa il 2% nelle aziende che non implementano tale strategia. L’esecuzione di strategie aziendali integrate a livello di organizzazione consente alle organizzazioni di ottenere un impatto positivo sul business. Un caso interessante è quello di KIKO Milano, marchio italiano di cosmetica che ha puntato sul digitale per rispondere alle nuove traiettorie di cambiamento del retail.

Leggi anche:  SAS Viya utilizza la Generative AI per accelerare la produttività dei clienti

L’azienda ha avuto una crescita vertiginosa che ha portato con sé alcune complessità gestionali e la necessità di rinnovare i sistemi di forecasting e replenishment, per soddisfare in modo più efficace la domanda del mercato e supportare la crescita dell’azienda anche a livello internazionale. «Siamo riusciti ad aumentare la disponibilità dei prodotti a negozio migliorando il livello di servizio con performance allineate ai valori estremamente competitivi della GDO» – spiega Gianmarco Mangili, planning director di KIKO Milano. «L’allineamento dei nostri processi di pianificazione della supply chain con gli obiettivi di servizio verso il cliente e commerciali ci permette di rispondere in maniera flessibile e dinamica ai bisogni del consumatore e di tenere il ritmo delle promozioni». Il nuovo processo per la supply chain ha dovuto fare i conti con diverse complessità. «A partire da quelle imposte dal layout dei negozi, dotati di espositori con slot monoreferenza che non possono e non devono mai essere vuoti. Compito della supply chain – afferma Mangili – è di garantire al punto vendita la presenza di un certo numero di prodotti per tutte le categorie preservando il minimo espositivo». Il sistema per la pianificazione automatica della supply chain è in grado di elaborare un’efficace previsione della domanda combinando un modello di pianificazione probabilistico, automazione e machine learning che permette ai modelli di “apprendere” dai dati esistenti, identificando in maniera accurata i trend della domanda futura. «Ogni lunedì mattina viene eseguito il processo di analisi delle vendite e di pianificazione del riassortimento, che genera l’emissione degli ordini per punto vendita e intercetta rapidamente i trend di consumo. Grazie alla stretta integrazione tra le funzioni – spiega Mangili –possiamo assicurare in tempi brevissimi la disponibilità dei prodotti aumentando le probabilità di soddisfare la domanda in tempo per affrontare i picchi di vendita del weekend».

VANTAGGI DEL DATA-DRIVEN

Il miglioramento dell’efficienza operativa è al primo posto tra le ragioni che guidano la trasformazione data-driven, come evidenzia la survey di IKN Italy per Denodo. Il 41 per cento degli intervistati ritiene infatti che la raccolta e l’analisi dei dati permettono di comprendere le tendenze e quindi di adeguare processi e operations per rispondere in modo più agile e veloce alle richieste del mercato, migliorando quindi le prestazioni e la redditività dell’azienda. Al secondo posto, c’è l’aumento delle opportunità di business (17%), a seguire, il miglioramento della customer experience (10%) e con percentuali più basse il rispetto delle norme e dei regolamenti, la riduzione dei rischi e degli errori, l’ottenimento di un vantaggio competitivo rispetto ai propri competitor, il miglioramento del processo di vendita e del servizio fornito. Il pilastro principale su cui un’organizzazione deve poggiare la propria trasformazione data-driven è la governance dei dati, citata dal 59 per cento degli intervistati: viene considerato importante non solo l’uso dei dati, ma anche il fatto che questo avvenga nel rispetto di normative e politiche interne. A debita distanza, il 24% indica come secondo pilastro lo sviluppo di competenze relative ai dati del personale dell’azienda, risposta che evidenza una richiesta di formazione specifica.

Dalla ricerca IKN Italy per Denodo, emergono anche diversi fattori critici di rallentamento che per qualche azienda risultano insormontabili come per quel sette per cento di aziende che ritiene la trasformazione data-driven non adatta alla propria realtà. L’ostacolo maggiore, citato dal 35% del campione, è la dispersione dei dati, e il loro isolamento all’interno delle diverse strutture aziendali. D’altronde, oltre un’azienda su tre gestisce ancora le informazioni in modo locale, e solo un’azienda su cinque ha un team centralizzato apposito. Dopo la dispersione dei dati, il 21% segnala l’assenza a livello organizzativo di una struttura dedicata alla gestione dati, il 17% indica l’eccessiva dipendenza dall’IT che limita la possibilità di un utilizzo self-service dei dati. Seguono la mancanza di un modello semantico unico che permetta di attribuire un significato ai dati stessi (14%) e le difficoltà riconducibili alla loro condivisione (10%).

Secondo l’Osservatorio del Politecnico, le difficoltà che le aziende riscontrano nella fase di implementazione sono principalmente quattro: scarsa qualità, carente integrazione dei dati, mancanza di competenze interne e difficoltà di misurazione dei benefici del singolo progetto. Nella gran parte delle realtà di tutte le dimensioni è presente la voglia di sperimentare con modelli analitici e algoritmi in continua evoluzione, tuttavia non si riesce a indirizzare tutta l’organizzazione nella direzione della valorizzazione piena dei dati a disposizione, né a coinvolgere gli utenti di business. Per l’Osservatorio del Politecnico, la prossima sfida per le imprese sarà sviluppare una data-driven strategy basata su competenze e iniziative mature in tutte e tre i suoi pilastri: data management, data science e data literacy.

QUALI DATI?

I dati sono il nuovo petrolio. Clive Humby, data scientist e matematico inglese, aveva coniato lo slogan nell’ormai lontano 2006. Per certi versi, i dati sono anche qualcosa di più, perché il petrolio viene utilizzato una volta sola mentre sui dati si possono fare analisi sempre diverse con estrazioni illimitate di informazioni e di valore. Per valutare la transizione al modello data-driven, un’azienda deve prima di tutto capire quali sono i dati che servono e selezionare un ordine gerarchico per stabilire a quali dare priorità. Si deve quindi partire dalla osservazione e dalla comprensione dei processi aziendali, e poi si deve trovare come quantificarli e misurarli. Solo dopo queste due attività, una volta individuati i dati pertinenti e significativi, e trovata la più  accurata modalità di archiviazione, si può iniziare a gestirli e analizzarli. I dati non dovrebbero essere archiviati in silos, ma aggregati in un unico contenitore in modo da garantirne qualità continua e facilità di fruizione. Ogni organizzazione deve assicurarsi di rendere i dati accessibili a tutti i livelli dell’organizzazione con gli opportuni livelli di restrizione e sicurezza. A questo punto, è necessario scegliere i giusti strumenti, che permettano di valutare i KPI di ogni funzione. La gestione dei dati deve essere fatta non in termini di quantità ma di qualità: l’infrastruttura tecnica deve essere quindi in grado di raccogliere i dati da più sistemi (ERP, CRM, web analysis, e altri presenti in azienda), integrarli, renderli omogenei e consolidarli. È quanto è stato fatto da Franke, azienda fondata nel 1911 da Hermann Franke in una cittadina svizzera, e trasformatasi da piccola impresa artigiana a fornitore leader a livello mondiale di soluzioni per l’ambiente della cucina dalla casa alla ristorazione con circa 9.000 persone impiegate in 40 nazioni diverse.

Leggi anche:  Studio IDC/Lenovo: boom della spesa in intelligenza artificiale nell’area EMEA nel 2024

Franke ha definito un ERP standard in tutti i siti produttivi, ma aveva i processi di previsione e pianificazione della domanda non integrati con l’ERP, e questo rappresentava un grande problema considerata la complessità della sua supply chain. Il team di lavoro ha definito gli obiettivi di business globali per migliorare le prestazioni dei sistemi di previsione e pianificazione della domanda in un contesto multi-livello, supportando l’ottimizzazione delle scorte e il riapprovvigionamento nelle location in cui l’ERP non era disponibile. Tra i risultati ottenuti, un importante miglioramento della stabilità del processo di generazione delle previsioni di vendita, la riduzione fino al 50% del tempo necessario per la previsione e la pianificazione della domanda, l’aumento dell’accuratezza del forecast e la riduzione dei picchi stagionali di stock.

Un altro interessante esempio è il sistema sviluppato da Helvetia Assicurazioni per l’area Reserving che gestisce le riserve, un asset determinante per fronteggiare rischi complessi e imprevisti, ma anche per tutelare le persone che, in caso di sinistri, devono beneficiare delle somme a loro dovute. La stima delle somme da accantonare per fronteggiare tali operazioni è un’attività regolamentata dalla legge che impone, anche nell’utilizzo dei modelli matematici, il rispetto di determinate regole. Compito dell’area Reserving è anche capire – estraendo valore dai dati – se ci sono problemi di performance in alcune classi di polizze. L’identificazione tempestiva di cluster di polizze “problematiche” è una sfida importante per il settore assicurativo in quanto prima si capisce dove, come e perché sussistono eventuali criticità, prima si riesce ad intervenire. Ovviamente, la cosa vale anche al contrario: identificare cluster di polizze che performano meglio del previsto diventa una conoscenza utile al Board per avere auna visione completa del business.

Per altri livelli di previsione – per esempio quelle che riguardano gli impatti che possono avere fattori esogeni e difficilmente prevedibili, come le alluvioni, in correlazione al calcolo dei futuri sinistri che la compagnia dovrà pagare – servono modelli matematici complessi che fanno uso di grandissime moli di dati, spesso provenienti da banche dati europee. L’attività assicurativa si basa sulla gestione delle informazioni e la rivoluzione digitale, che rende disponibili un numero enorme di nuovi dati provenienti da differenti fonti, sta cambiando il paradigma all’interno del quale opera il settore assicurativo e rende ancor più strategica l’attività di gestione dei dati. A questi fattori si aggiunge il contesto economico-finanziario degli ultimi anni, la riduzione progressiva del tasso di rendimento degli investimenti e, in genere, dei margini di operatività tecnica. Secondo le principali società di consulenza e brokeraggio a livello globale, le compagnie assicurative che hanno investito in Big data analytics hanno registrato più efficienza, risparmio sui costi e un aumento dei tassi di rilevamento delle frodi. L’analisi dei dati crea nuove funzionalità che consentono agli assicuratori di ottimizzare ogni funzione nella catena del valore assicurativo migliorando la gestione rischio.