Il potenziale dei dati per aumentare l’efficienza operativa, ridurre l’esposizione ai rischi e favorire la crescita. Spinta tecnologica, culturale e organizzativa. Strategie e best practice: Gruppo Damiani, Barilla, Pompea e l’IRCCS Ospedale Policlinico San Martino

Essere data-driven è una necessità per ogni organizzazione: le informazioni derivate dai dati apportano un enorme vantaggio per il business e sono una delle principali leve della rivoluzione digitale. Il segreto è riuscire a integrare l’analisi dei dati nel processo decisionale. «La capacità di usare i dati in modo strategico è considerata oggi la leva più importante per creare vantaggio competitivo nel business digitale» – spiega Fabio Rizzotto, VP, Europe South Lead, Consulting and Custom Solutions di IDC. Secondo un sondaggio globale di IDC, condotto all’inizio di quest’anno, il 43% delle imprese è “molto d’accordo” sul fatto che i dati e il loro valore siano ancora sottoutilizzati nella propria organizzazione. Per diventare una data-driven company è necessaria una spinta tecnologica, culturale e organizzativa verso quella che IDC definisce la “Enterprise Intelligence”. In altre parole, un’organizzazione con un alto grado di intelligenza aziendale è in grado di sfruttare appieno il potenziale dei dati per migliorare le proprie prestazioni, in particolare – secondo IDC – tende a ottenere risultati migliori su tre metriche chiave: aumento di quota di mercato, minore esposizione ai rischi e crescita in termini di dimensioni e opportunità di business.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Ciò che differenzia le aziende con un maggiore quoziente di intelligenza aziendale non è semplicemente l’accesso o la proprietà di più dati rispetto ai loro concorrenti o la miglior capacità di analisi sui dati stessi. È anche la loro capacità di imparare continuamente su vasta scala, riflettere e spiegare i risultati in base a quell’apprendimento e, in definitiva, di adattarsi più velocemente dei concorrenti proprio in base a questo apprendimento. Spesso, l’Enterprise intelligence è confusa con la Business intelligence e le organizzazioni pensano di avere alti livelli di intelligenza aziendale perché hanno investito in strumenti e tecnologie o perché hanno raccolto grandi quantità di dati. Tuttavia, la ricerca di IDC mostra che le organizzazioni devono dimostrare quattro funzionalità specifiche (abilitate da dati e tecnologia) per avere un’eccellente intelligenza aziendale: «Promuovere una cultura dei dati, apprendere collettivamente, sintetizzare le informazioni e applicare gli spunti risultanti su vasta scala per ottenere un vantaggio competitivo sostenibile o adempiere alla missione organizzativa. Oltre ai vantaggi elencati da Rizzotto, vari analisti negli anni hanno compiuto ricerche che hanno confermato come le aziende data-driven hanno vantaggi competitivi in termini di redditività e di produttività, una maggiore customer satisfaction, un time-to-market più rapido, perfino un fatturato maggiore perché sono in grado di identificare nuove opportunità. Per farsi davvero guidare dai dati, le organizzazioni non devono ragionare come se i dati fossero un’entità separata dal business o un elemento utile soltanto a rafforzare la propria posizione, ma considerarli come una componente strategica della misurazione del successo, base per una pianificazione strategica.

L’idea di prendere decisioni basate su dati oggettivi obbliga le aziende a sviluppare piena consapevolezza riguardo a quanti e quali dati siano a loro disposizione e a proteggerli in modo adeguato, nonché a comprendere come utilizzarli in modo semplice e funzionale per raggiungere l’obiettivo di analizzare le informazioni in modo più agevole, al fine di identificare modelli, tendenze e relazioni che in precedenza non erano rilevabili.

DATA-DRIVEN, COSA SIGNIFICA?

Un’azienda si può definire data-driven quando le decisioni tattiche e strategiche che prende sono basate sui dati invece che sull’istinto o sulle opinioni personali. Essere guidati dai dati significa saper trovare gli insights derivanti dall’analisi dei dati disponibili nei propri sistemi per migliorare il processo decisionale e rafforzare la capacità di analisi per raggiungere i risultati desiderati. In questo contesto, la tecnologia può essere utilizzata come fonte di innovazione e opportunità: infatti, diventa parte stessa dell’offerta delle aziende, fondamentale per offrire servizi innovativi richiesti dai clienti, o addirittura nuove soluzioni che avranno successo sul mercato. Le organizzazioni data-driven sono in grado di comprendere la vera potenza dei dati: non li utilizzano solo per fare Business Intelligence e migliorare le performance, ma possono sfruttare i dati per reinventare il proprio modello di business.

A mano a mano che le tecnologie di analisi progrediscono, i dati diventano sempre più preziosi perché solo grazie a loro si possono verificare, comprendere, quantificare e analizzare le situazioni. Secondo Robert Kaplan, ideatore della Balanced scorecard – «non si può gestire quello che non si può misurare». Non si tratta di una frase a effetto, ma rappresenta una verità di fatto. In un’organizzazione, l’intuito è sicuramente utile, perché può far nascere l’interesse verso un’analisi approfondita di aspetti del proprio business (magazzini, fatturato, vendite, acquisti). Da qui, grazie agli advanced analytics, si possono comprendere situazioni, andamenti, si possono trovare tendenze, perfino anticipare degli scenari, e quindi si può verificare, o smentire, quanto supposto inizialmente, e prendere di conseguenza le relative decisioni informate. Alla base, però, ci deve essere un processo ben strutturato di raccolta dei dati, ben accurata per permettere di estrarre informazioni significative che rispondano alle domande degli utilizzatori. Il dato di per sé non ha alcun valore, va collegato a un contesto in cui lo si vuole usare, altrimenti non serve a nulla.

Una realtà che è davvero riuscita a trasformare i dati in conoscenza, e quindi in valore è sicuramente il Gruppo Damiani. Partito come bottega di un abilissimo maestro orafo e diventato realtà manageriale conosciuta e apprezzata in tutto il mondo, con una produzione ancora tutta italiana, Damiani è sicuramente uno dei brand che hanno reso il Made In Italy noto a livello internazionale. Secondo Massimo Cova, Group Information Technology director di Gruppo Damiani, l’aspetto artigianale rappresenta un elemento distintivo. Il laboratorio orafo e la fornace sono il cuore della produzione, luoghi unici nel loro genere, dove prendono vita nuove idee e si realizzano nuove creazioni. Questa sapienza artigianale è valorizzata dall’innovazione tecnologica: «L’IT è trasversale a tutte le funzioni aziendali, supporta anche le fasi della produzione, ed è indispensabile quando il gioiello diventa prodotto finito e va commercializzato attraverso differenti mercati e canali».

Leggi anche:  Il ruolo di Passepartout nel vertical manufacturing

La tecnologia entra a tutto tondo quando c’è bisogno, per esempio, di rendere disponibili e consultabili tutte le caratteristiche dei singoli gioielli da parte dei collaboratori, dello staff dei negozi diretti e dei rivenditori: dimensioni, pesi specifici, caratura, taglio, colore e purezza. Importante, anche, la possibilità di poter fare analisi sui prodotti e sulle loro caratteristiche. «Offriamo in modo tempestivo una risposta, puntuale e precisa, alle richieste della clientela, indipendentemente dall’area geografica o dal canale scelto, fisico o digitale» – spiega Cova. «Per questo motivo, i dati e tutte informazioni devono essere sempre aggiornate, digitalizzate e disponibili in tempo reale. Sia il management sia tutti i collaboratori hanno bisogno di informazioni precise, aggiornate e puntuali per definire nuovi progetti, stabilire linee guida e prendere decisioni. Gli analytics sono un gran supporto all’azienda: tutti li usano quotidianamente, in modo agevole, senza quasi saperlo. I colleghi usano con regolarità le dashboard per fare analisi e reporting, e analizzano i dati per scopi e con modalità differenti, ciascuno secondo le proprie specifiche competenze».

In un unico hub sono presenti i dati provenienti da tutti i sistemi aziendali (produzione, risorse umane, vendite, marketing), qui vengono armonizzati, archiviati, preparati e resi disponibili per le analisi attraverso processi che ne garantiscono la massima sicurezza. L’azienda ha anche un forte interesse sulle nuove tecnologie e sulle soluzioni innovative, nell’ambito della blockchain, dell’AI e dei sistemi immersivi di realtà aumentata. «Una delle riflessioni attuali riguarda per esempio, la tracciabilità e la trasparenza della filiera dei diamanti così da garantire in modo trasparente e certificato la provenienza delle gemme» – continua Cova. «Un altro elemento che stiamo implementando è volto a rendere disponibili a chi lavora “sul campo” disegni e progetti prototipali da mostrare con facilità, su dispositivi mobili, senza doversi mettere per forza di fronte a una workstation: la velocità della fruizione è in questo caso un punto di forza per il progetto in essere».

AFFRONTARE IL CAMBIAMENTO

La transizione verso un approccio data-driven non è una strada facile. Uno dei principali problemi è che molte organizzazioni desiderano diventare data-driven subito, spesso trascurando l’importanza del percorso. Una prima difficoltà è legata alla gestione dei dati: non è da tutti riuscire a gestire il loro volume in rapido aumento, la loro varietà, le differenti tipologie, le differenti fonti, distribuite sia in locale sia su più cloud. Nelle organizzazioni, quasi sempre, mancano il tempo, le giuste competenze, gli strumenti di analisi adatti all’estrazione del valore dai dati. La sfida più grande per chi lavora per diventare data-driven, quindi, non è saper scegliere la giusta tecnologia e imparare ad usarla, ma è disporre al proprio interno di persone che hanno capacità di adattarsi al cambiamento, trainando tutta l’organizzazione. Per avere successo in questo processo, occorre combinare le capacità di gestione della tecnologia e di conoscenza dei processi con un profondo cambiamento culturale che permetta di apprezzare il nuovo approccio e i suoi vantaggi per l’azienda. Inoltre, è fondamentale instaurare una cultura dei dati che consenta di sfruttare appieno il loro potenziale.

Dal 2019, il Gruppo Barilla ha avviato un programma di trasformazione digitale denominato “data-to-value” con l’obiettivo di implementare tecnologie avanzate di analisi dati e intelligenza artificiale per arricchire il valore dei dipendenti, espandere la presenza globale come produttori alimentari e contribuire al miglioramento della vita delle persone e del benessere del Pianeta attraverso la qualità delle attività svolte dal Gruppo. Anche ottimizzare le consegne e gli ordini e ridurre gli sprechi, per esempio, porta a un minore impatto sull’ambiente e a una migliore sostenibilità. Tutto ciò rappresenta una sfida significativa per un’organizzazione di dimensioni così grandi e diversificate, ed è per questo motivo che l’attenzione sui dati nel processo decisionale si è rivelata fondamentale per il successo di Barilla.

Nell’ultimo decennio, l’innovazione tecnologica ha camminato di pari passo con il costante miglioramento del profilo nutrizionale dei prodotti del Gruppo, adattandoli alle crescenti esigenze dei consumatori. Questo risultato è stato ottenuto anche grazie agli investimenti in innovazione, ricerca e sviluppo, che rappresentano in media il 10% del fatturato annuale. Nel corso degli anni, tali investimenti hanno portato anche alla riduzione significativa dei grassi, dello zucchero e del sale nei prodotti, nonché alla creazione di nuovi alimenti integrali, a base di cereali e senza glutine.

All’inizio del 2020, quando il mondo si è fermato a causa della pandemia, il consumo di pasta è aumentato con una crescita a due cifre, ovviamente del tutto inattesa. La pasta è un alimento facile da conservare e da preparare, può essere abbinata a qualsiasi cosa si abbia già nella propria dispensa, quindi si è rivelato alimento ideale in quel momento, anche per la temporanea riduzione di importazione di riso. Per produttori come Barilla, con una presenza in più di 100 paesi e 30 siti di produzione in 17 paesi, lo sforzo per soddisfare la domanda di tutto il mondo è stato davvero enorme.

Leggi anche:  AISURU, soluzione AI del Gruppo E, si allea con Docuverse per integrare nell'AI dati destrutturati

Capire come stava aumentando la domanda e dove si stavano forzando maggiormente i processi di produzione era in definitiva una questione di dati. Raccogliere dati accurati da tutti questi punti è stato un compito immenso per Barilla, reso ancora più complicato in un momento nel quale le tendenze stavano cambiando rapidamente. E proprio grazie agli analytics, Barilla è riuscita a tracciare più velocemente, con maggiore accuratezza e precisione il proprio inventario globale. Con uno sguardo più chiaro sull’intero processo di produzione, il Gruppo è stata in grado di adattare la produzione ai cambiamenti della domanda e a garantire che gli scaffali dei negozi fossero pieni e pronti a soddisfare le richieste dei consumatori. Dopo aver superato l’emergenza, i processi basati sui dati implementati da Barilla come parte di questa trasformazione, continuano a consolidare l’impegno dell’azienda verso la qualità, l’efficacia e l’efficienza.

UN LUNGO PERCORSO

La trasformazione in un’organizzazione data-driven rappresenta un percorso lungo, che richiede sicuramente tempo, risorse e impegno. Tuttavia, alla fine, offre notevoli vantaggi, tra cui la capacità di prendere decisioni informate e, di conseguenza, più sicure. Inoltre, si traduce in un aumento dell’efficienza e della continuità operativa, significativi risparmi sia in termini di costi che di tempo, un approccio proattivo e un orientamento centrato sul cliente. La cosa principale, per iniziare, è progettare l’architettura dati, pensare al valore di business di cui si ha bisogno, stabilire un vocabolario condiviso, che aiuti a superare il problema dei silos aziendali e che permetta di costruire una solida base dati, moderna e flessibile, così che ogni persona che prende decisioni in un’impresa possa avere accesso ai dati (corretti e certificati) di cui ha bisogno, quando ne ha bisogno. La competenza nel costruire la base dati comune è fondamentale per un’azienda data-driven, che non può permettersi che il dato su cui si basa il suo business non sia corretto. Devono essere messe in campo le giuste tecnologie per costruire piattaforme scalabili in grado di alimentare continuamente la base dati garantendone la qualità. Poi, si devono sviluppare i sistemi per interrogarla correttamente, anche in real-time e in mobilità self-service, lavorando con viste complete su dati integrati e pronti per l’uso.

Una realtà che ha intrapreso questo cammino è Pompea. La gestione era diventata molto complessa: diversi marchi (Pompea, Roberta, Glamour), una serie di prodotti cresciuti nel tempo, fino a diventare decine di migliaia, diversi canali di vendita (vendita al dettaglio, all’ingrosso, distributori stranieri), e soprattutto una parte significativa della collezione dell’azienda stagionale e non ripetitiva. Inoltre, l’azienda aveva l’esigenza di fronteggiare la richiesta del mercato: tempi di consegna ridotti e livelli di servizio superiori a quanto poteva essere garantito.

La soluzione? Creare la combinazione ottimale di inventario e ridefinire il processo mensile di pianificazione. Questa decisione ha permesso di ridurre il tempo impiegato nella pianificazione e al tempo stesso di garantire un controllo più efficace sugli obiettivi. In particolare, il lavoro si è concentrato sulla gestione più precisa della produzione stagionale, rispetto ai prodotti venduti durante tutto l’anno, allo scopo di migliorare la reattività alle variazioni nella domanda. Grazie al nuovo sistema, Pompea ha notevolmente migliorato il processo, i tempi e l’affidabilità delle previsioni. Il tempo di consegna è stato ridotto drasticamente, passando da una media di 8,5 giorni a soli 3,2 giorni in totale e a 3 giorni per le grandi catene di supermercati. Il livello del servizio clienti è aumentato del 10%, salendo dal 86% al 96%, misurato in termini di ordini completati e consegnati. Inoltre, è stato raggiunto un calo del 15% nell’inventario complessivo, con una contemporanea riduzione degli articoli invenduti di fine stagione. La previsione della domanda ora opera in stretta collaborazione con il reparto vendite, ricevendo i loro input e adattando i piani di vendita per creare il piano di domanda. La produzione è in grado di dimensionare gli stock di prodotti finiti e semifiniti necessari per raggiungere gli obiettivi di servizio richiesti e rispettare i tempi di risposta. Oggi, in Pompea, la pianificazione della produzione è in grado di definire il programma di produzione principale, considerando vincoli di capacità, livellamento e caricamento della produzione. Il sistema sviluppato calcola le previsioni di vendita e stabilisce gli obiettivi di inventario necessari per soddisfare i livelli di servizio previsti. Questo nuovo sistema analizza la variabilità nella domanda e sfrutta le caratteristiche uniche della domanda per ciascun articolo al fine di ottimizzare l’approvvigionamento.

LE SFIDE DA AFFRONTARE

La gestione dei dati suddivisi in compartimenti separati rappresenta la sfida principale da superare. Questa sfida riguarda l’accesso ai dati nei silos, la loro analisi, l’apprendimento e l’applicazione delle informazioni contenute. Altri ostacoli includono la mancanza di tempo, la disponibilità di sistemi e strumenti per analizzare dati complessi. Tuttavia, le sfide più sfidanti sono di natura culturale – come spiega Fabio Rizzotto di IDC – che si traducono in atteggiamenti diversi: «L’avversione verso l’utilizzo dei dati o l’effetto struzzo in cui le informazioni preziose vengono ignorate in favore di decisioni basate su intuizioni personali». Questi problemi mettono in luce la presenza di pregiudizi nei processi decisionali e la necessità di affrontarli.

Leggi anche:  Innovazione digitale: esempi di intreccio tra AI, IoT e blockchain unite per un futuro innovativo

«Ne è un esempio il pregiudizio della conferma che tende a essere particolarmente prominente durante i periodi di stress o cambiamento» – continua Rizzotto. Altro problema da risolvere: «La mancanza di alfabetizzazione dei dati e l’incapacità di avere un linguaggio comune sui dati che portano all’incapacità di utilizzare i dati per la comunità o, al contrario, essere indebitamente influenzati dalla disinformazione o dall’inquinamento delle informazioni, intenzionale o meno. Spesso bisogna fronteggiare anche la mancanza di intelligenza dei dati e la conseguente sfiducia nei dati, informazioni e insights, nonché nei modelli di AI che dipendono dai dati. Le imprese capaci di superare queste sfide impareranno a farlo sia a livello individuale che su scala più ampia. In queste aziende – afferma Rizzotto – i dati generati da prodotti, servizi, esperienze ed ecosistemi costituiranno la base informativa e guideranno l’automazione intelligente dei processi, anziché essere semplicemente un elemento per report statici. Con lo sviluppo delle loro competenze nel settore, queste aziende creeranno una cultura basata sull’evidenza, in cui le informazioni disponibili daranno forma al processo decisionale». In questo contesto, le imprese stanno creando nuovi ruoli, oltre a quelli tradizionali dei data scientist, dei data engineer e dei data analyst, per sfruttare il valore dei dati dormienti.

Inoltre, stanno utilizzano l’intelligenza artificiale, la business intelligence, l’intelligenza dei dati e altre tecnologie in tutta l’azienda, dai reparti vendite e assistenza clienti all’operatività, alla gestione dei rischi e all’IT, per sviluppare una completa intelligenza aziendale. «Le organizzazioni che riescono a raggiungere questa economia dell’intelligenza – conclude Rizzotto – otterranno un vantaggio competitivo, simile a quanto hanno ottenuto in passato le organizzazioni che hanno beneficiato delle economie di scala, ottenendo un vantaggio sui concorrenti».

Il San Martino di Genova, Istituto di ricovero e cura a carattere scientifico IRCCS, è tra quelle organizzazioni che hanno saputo compiere un significativo percorso di crescita nell’ottimizzazione dell’utilizzo dei dati. Con i suoi quasi cinquemila dipendenti, rappresenta uno dei complessi ospedalieri più vasti e importanti d’Europa, ed è centro di eccellenza di importanza nazionale e di alta specializzazione. Eccellenza che il Policlinico mantiene anche grazie a un virtuoso utilizzo dei dati e degli analytics, come ci racconta Francesco Copello, direttore dell’unità operativa di Controllo di Gestione e del dipartimento di Staff dell’Ospedale. «Abbiamo iniziato oltre vent’anni fa, pubblicando i primi report su Internet per garantire la massima trasparenza. Da allora, abbiamo fatto enormi progressi, sfruttando strumenti sempre più avanzati. L’analisi dei dati è diventata parte essenziale del monitoraggio delle attività e del processo decisionale, garantendo efficienza ed efficacia, in linea con i requisiti fondamentali dell’erogazione delle prestazioni sanitarie. Negli ultimi anni, abbiamo esteso l’utilizzo delle analisi anche alla pianificazione, concentrandoci in particolare sulla gestione dei budget, la pianificazione delle spese e il monitoraggio dell’Istituto Scientifico Tumori (IST).

In aggiunta, è stata implementata la reportistica oncologica, che consente di monitorare e analizzare i casi, valutando anche gli esiti a lungo termine, per esempio attraverso l’utilizzo delle curve di sopravvivenza Kaplan-Meier. Questa reportistica copre anche l’approvvigionamento dei farmaci chemioterapici e antiplastici, oltre a numerose altre variabili, rendendo tali analisi sempre più ricche ma, allo stesso tempo, più complesse». L’IRCCS San Martino ha integrato il piano dei centri di costo con codici funzionali per il monitoraggio delle attività di ricerca, sviluppando successivamente una dashboard dedicata a questa attività. Questa dashboard include progetti di ricerca, sperimentazioni cliniche e pubblicazioni scientifiche. Inoltre, è stato creato un ulteriore cruscotto per l’attività professionale “intramoenia” che riguarda le prestazioni erogate dai medici di un ospedale al di fuori dell’orario di lavoro normale, soggette a rigorosi controlli e normative legali. «La visualizzazione dei dati ha reso più accessibili gli strumenti di analisi a un pubblico sempre più ampio, permettendo agli utenti di condurre analisi in autonomia» – spiega Copello.

«La governance dei dati e la definizione dei modelli rimangono di competenza della mia unità, tuttavia, i medici ora possono esplorare e interrogare i dati per condurre valutazioni dettagliate su specifici aspetti di interesse. Per esempio, possono monitorare i ricoveri di un reparto specifico durante un periodo definito, con particolari caratteristiche, o valutare gli esiti di specifici interventi chirurgici o terapie oncologiche. Possono persino analizzare le curve di sopravvivenza Kaplan-Meier a cinque anni, incrociando i dati delle terapie per comprendere quale sia la più efficace. Questo rappresenta un passo significativo verso l’autonomia nell’analisi dei dati per i medici, consentendo di prendere decisioni sempre più informate e personalizzate».


CRIF: Synthetic Data: la frontiera analitica del business

DI.TECH: La data strategy nella GDO

IRION: Data To Value, via ai lavori

SISTEMI: Il valore strategico dei dati

SMEUP: Una Data Strategy efficace

SOPRA STERIA: Trasformazione Data Driven