Ascolta l'articolo

Gli advanced analytics sono sempre più diffusi nelle grandi aziende e in alcuni settori come il finance, ma ancora poco usati nelle piccole imprese e nella PA. La pervasività del cloud e la potenza degli analytics per un nuovo ecosistema di data intelligence alla portata di tutti

La maggior parte delle aziende, soprattutto quelle di grandi e di medie dimensioni, considera gli analytics un asset strategico. Sono diventati ormai strumenti fondamentali per diversi ruoli e funzioni aziendali e costituiscono il supporto ideale in svariate applicazioni, per esempio: mantenere i clienti più importanti, stabilire il rischio di credito, sviluppare nuovi farmaci, distribuire prodotti e servizi nelle modalità più efficienti, prevenire le frodi, scoprire le minacce informatiche. Quando l’apprendimento viene incorporato nei modelli e le capacità di apprendimento vengono automatizzate, gli analytics si evolvono in intelligenza artificiale, con numerose funzionalità ancora più potenti. Alcune di queste sono da tempo già in uso, come gli advanced analytics, soluzioni per l’analisi avanzata, o il machine learning (ML), l’apprendimento automatico, alla base di applicazioni interessanti già in commercio, o in fase di test.

Gli analytics si stanno sempre più evolvendo, sviluppandosi anche in altri campi meno conosciuti: deep learning, o apprendimento profondo, natural language processing (NLP), elaborazione del linguaggio naturale, computer vision, o visione artificiale, fino ad arrivare alla realtà aumentata e ai wearable analytics, basati su dispositivi indossabili, già utilizzati nel campo medico e in alcune applicazioni in varie industrie. Oggi, l’approccio a un progetto di analytics si è evoluto e la classificazione della tipologia di progetti è indotta anche dalla presenza nel mercato di specifici servizi di raccolta, analisi e modellazione del dato.

«Superata la fase in cui lo scopo era riuscire a raccogliere e archiviare tutti i dati aziendali – spiega Carlo Canestri, C&A manager di EOS Solutions – la sfida può essere quella di individuare nuove fonti di informazioni (IoT in senso lato, inclusi i dispositivi wearable) e di archiviare anche queste banche dati per utilizzarli in progetti di analytics. Gli strumenti quindi esistono, spesso a costi abbordabili anche per le PMI e si tratta di definire un obiettivo chiaro da assegnare al progetto di analytics che l’azienda sta implementando per evitare di costruire la migliore architettura possibile che però non è allineata con le reali necessità dell’azienda». Gli strumenti vanno utilizzati al meglio, ma è necessario anche un cambio culturale. «La tecnologia, come sempre, non può e non deve essere l’unica risposta» – afferma Sergio Romoli, direttore della divisione Cloud & Enterprise di Microsoft Italia.

«Quando è stato così non ha mai creato vero valore sostenibile nel tempo. La novità – ed è il motivo per cui siamo a un “inflection point” senza precedenti nella storia economica – è l’opportunità di un cambio di paradigma sostanziale che sarà necessario cogliere per le aziende di tutte le dimensioni, per mantenere vantaggi competitivi sostenibili nel corso dei prossimi anni: sottovalutarlo o ritardarne la consapevolezza può essere fatale. Continuare a considerare la dimensione analitica come uno “specchietto retrovisore” delle performance aziendali per prendere decisioni future è ormai poco adeguato sia ai tempi di reazione richiesti, sia alla resilienza necessaria nell’economia digitale. La convergenza di tecnologie “del dato” sulla piattaforma cloud permette una immediatezza e democratizzazione senza precedenti, tali da rendere possibili sistemi predittivi che anticipano le decisioni e che possono essere automatizzati all’interno dei processi core aziendali». Quello che in Microsoft chiamano “Digital Feedback Loop”.

Il recente annuncio della piattaforma Synapse su Azure per la gestione integrata del ciclo di vita completo dei dati e la disponibilità per tutti gli sviluppatori dei servizi cognitivi di intelligenza artificiale basati sul cloud, anche integrabili in ambienti “low code/no code” come Power Platform, democratizzano la possibilità di questo cambio di paradigma per chiunque. «Noi crediamo – continua Romoli di Microsoft – che questo cambiamento sia alla portata di tutti ma richiede un decisivo salto di qualità in termini di adozione di una “cultura guidata dal dato” a tutti i livelli. La tecnologia necessaria è già disponibile per realizzare in concreto il cambiamento, e cosi creerà valore sostenibile nel tempo». Gli investimenti in tecnologia dovranno essere accompagnati da adeguati investimenti in formazione e organizzazione. «Ovviamente – aggiunge Canestri di EOS Solutions – nella definizione degli obiettivi, è opportuno pianificare il recruiting di risorse sufficientemente formate nell’implementazione e nell’utilizzo di questi strumenti, nonché definire un piano di formazione interna, affinché le informazioni prodotte dai tools di analytics siano comprese e fruibili nei processi di business aziendali».

LA DIFFUSIONE IN ITALIA

L’interesse per gli advanced analytics è sicuramente in crescita, ma quanto questi strumenti sono diffusi e utilizzati nelle imprese italiane? In termini di adozione, se guardiamo al mercato italiano nel suo complesso, il dato non è dei più confortanti – spiega Giancarlo Vercellino, associate director Research & Consulting di IDC Italy. La diffusione degli advanced analytics nelle aziende italiane si attesta attorno al 7%, con grandi differenze riconducibili alle dimensioni aziendali («nelle microimprese non si arriva al 5%, nelle grandi si supera facilmente il 30%») e ai settori («nella PA non si supera il 3%, mentre nella finanza si arriva fino al 46%»). Conosciamo tutti la particolarità del tessuto imprenditoriale italiano. «Il nanismo delle nostre imprese – continua Vercellino – è solo uno dei tanti fattori che rallentano l’adozione tecnologica». Ma non è soltanto una questione di risorse e competenze: «Quando si parla di data-driven business, il problema principale è di carattere culturale. Molto spesso la cultura padronale non ha familiarità con i dati, in taluni casi è addirittura refrattaria».

Secondo Mirko Menecali, Partner & Alliance manager di Sinfo One – l’Italia è il regno della media impresa, con imprenditori che spesso prendono decisioni importanti usando la pancia e non i dati. «Ma le cose stanno cambiando e gli strumenti di analisi avanzata e di supporto decisionale stanno arrivando anche nelle stanze dove si parla di strategie. Se prendiamo come campione i clienti di Sinfo One, il 98% è dotato di uno o più strumenti avanzati di analisi dei dati, ma l’utilizzo è soprattutto reattivo, per il controllo del business (mercato, prodotti, finanza, supply chain). Più raro è l’utilizzo per simulazioni su scenari futuri e per prendere decisioni strategiche».

Leggi anche:  Dati particolari, quando il trattamento è lecito?

Le soluzioni analitiche sono in uso in molti settori industriali, con livelli di sperimentazione e applicazione differenti – come precisa Elena Mazzotti, chief strategy & innovation di CRIF. «L’utilizzo di queste tecniche rappresenta uno dei core business di CRIF, che dispone di oltre 200 data scientist, data engineer e data modeler impegnati in progetti di augmented analytics, machine learning e deep learning per i settori banking, insurance, retailer, utility, telco». E sono diffuse soprattutto nelle aziende orientate al consumer – «che sono più avanti di tutti» – commenta Paolo Perillo, direttore prodotti di Holonix. Nel manifatturiero, che rappresenta il core competence di Holonix – «tutte le “big” si stanno attrezzando e alcune PMI sperimentano con risultati interessanti e qualche stallo, perché oltre alle soluzioni servono competenze e metodo».

Con una forte propensione all’innovazione, storicamente il mercato telecomunicazioni ha avuto il ruolo di apripista per gli analytics – spiega Gabriele Obino, vice president Southern Europe & Middle East di Denodo. «Le soluzioni analitiche sono largamente adottate per esempio nel fraud detection management, per l’ottimizzazione della rete e per la prevenzione e la manutenzione predittiva delle rete stessa». Passando all’ambito food retail, il compito principale degli analytics è raccogliere ed elaborare i dati dei singoli processi, per misurare le attività di retention o supportare funzioni quali la definizione dei prezzi. «La grande sfida della GDO è cambiare per competere, accelerare per distinguersi» – spiega Angelo Marinelli, responsabile Retail Intelligence di Di.Tech. «Perché ci sono obiettivi strategici da raggiungere e la misurazione degli indicatori specifici aiuta a definire azioni di miglioramento».

GLI SVILUPPI NEI PROSSIMI ANNI

Questa, la situazione odierna. In un mercato che cambia sempre più velocemente, anche gli strumenti di analisi sono costantemente arricchiti per supportare le aziende nel loro business. Cosa ci dobbiamo aspettare nei prossimi anni? Nell’ambito specifico degli analytics e del machine learning, una domanda come questa è più che mai complessa, per molti motivi diversi. «Molti sviluppi interessanti – spiega Vercellino di IDC Italia – avvengono in ambito open source o universitario. Un numero sempre maggiore di startup è ampiamente focalizzato nell’implementazione degli analytics in campi diversissimi. E inoltre, l’ibridazione degli algoritmi con le soluzioni tradizionali porta a combinazioni potenzialmente infinite. Senza dimenticare gli scenari IoT, dove a guidare gli sviluppi industriali è la componente hardware, ma ad attirare gli utenti è il valore contestuale del dato». Probabilmente – come sottolinea Vercellino – «osserveremo uno sviluppo molto importante delle interfacce conversazionali negli oggetti della vita quotidiana, dall’automobile fino agli elettrodomestici. E si moltiplicheranno gli assistenti virtuali, con specializzazioni sempre più profonde dall’education fino all’ambito medico. Cambieranno pelle anche le interfacce delle applicazioni aziendali, con una importante sburocratizzazione del lavoro ordinario d’ufficio». Ci dobbiamo aspettare strumenti sempre più potenti, dunque, e nello stesso tempo più semplici da utilizzare.

«In un futuro non troppo remoto saranno i dati a raggiungere gli utenti e non più questi ultimi a doverli cercare» – afferma Andrea Zinno, data evangelist di Denodo. «Sogno un mondo dove all’uomo rimarrà il compito di fare buon uso di tali informazioni, di trasformarle cioè in conoscenza e saggezza. Sogno una tecnologia al servizio dell’uomo e mai fine a sé stessa, facile da usare e che renda la vita più semplice, alle aziende e ai loro clienti». Sogni molto vicini a una realtà nemmeno tanto lontana. Quel che è certo è che gli advanced analytics saranno sempre più inseriti nei processi aziendali. Secondo Giorgio Dossena, presales team leader di Qlik l’intelligence è in continua evoluzione. «Una evoluzione partita dall’intelligence dei report tabellari anni 80 a quella dei giorni nostri, degli utenti con accesso a dati, risorse ed esperienze sempre più complete e complesse. Pensiamo banalmente ai dati circolanti oggi in azienda, ai loro formati, alla loro volatilità e al modo con cui li possiamo osservare. Qlik crede che per supportare al meglio i propri clienti si debba renderli più “potenti”. Per questo motivo preferiamo definire l’AI più con il concetto di intelligenza aumentata, quella dell’utente che sfrutta le nostre soluzioni, che di semplice intelligenza artificiale. Le soluzioni Qlik integrano concetti di ML e NLP per consentire ai nostri utenti di interagire con i dati e le analisi in modo semplice e immediato, ma non banale. Interrogando i sistemi analitici anche con semplici comandi vocali e facendosi suggerire quelle che possono essere relazioni, previsioni o le visualizzazioni più pertinenti sul dato in esame. Tutto questo è possibile perché alla base c’è il Qlik Cognitive Engine, che lavorando in logica associativa, porta in evidenza analisi, relazioni e dati più significativi.

Nel futuro saremo in grado di avere sistemi di analytics evoluta nei processi aziendali, lì dove le decisioni devono essere prese. Dalla periferia ai sistemi centrali, deve esistere un sistema analitico in grado di supportare gli utenti nel prendere le migliori decisioni supportandoli con i dati». L’artificial intelligence è fondamentale per gli analitici aumentati e lavorando sul deep learning è possibile personalizzare ancora di più servizi e prodotti finanziari e non solo. «L’applicazione dell’AI nei processi aziendali – spiega Elena Mazzotti di CRIF – è agevolata dalla presenza di piattaforme aperte all’ecosistema per abilitare un dialogo continuo. In questa logica, è stata lanciata CRIF Digital Next, una piattaforma modulare e flessibile che consente l’orchestrazione di un ecosistema di partner e la valorizzazione del nostro patrimonio informativo».

Leggi anche:  Never waste a crisis

L’artificial intelligence ha possibili nuove applicazioni anche per Claudio Broggio, digital acceleration leader di SAS. «Al di là di portare le applicazioni di AI a essere parte centrale dei processi di aziende e organizzazioni e non solo strumento accessorio, ci sono ancora ambiti di utilizzo ancora poco esplorati. E sono quelli in cui l’AI non si limita a replicare ciò che l’uomo già sa fare, ma che vanno oltre: l’esame dei suoni di macchine e impianti per anticipare malfunzionamenti, l’osservazione di immagini multispettrali nel settore agroalimentare, l’analisi psicolinguistica per conoscere e impostare al meglio stili e valori della comunicazione col singolo o con la massa». Sulla stessa lunghezza d’onda Marinelli di Di.Tech, per il quale le soluzioni analytics della suite More avranno sempre più come punto focale l’interlocutore che deve accedere all’informazione. «Saranno pensate come strumenti di uso quotidiano di supporto al processo decisionale, per ogni livello organizzativo (Decision Support System – DSS). In ambito retail, il tema più caldo è la formulazione delle promozioni e la misurazione delle relative performance». L’evoluzione degli strumenti e delle tecnologie, secondo Perillo di Holonix, porterà inevitabilmente alla loro convergenza: «Si svilupperanno applicazioni “fast data” in cui analytics, machine learning, artificial intelligence, realtà aumentata convergono, cioè soluzioni in cui il dato appena raccolto viene analizzato e correlato, le decisioni automatizzate e le azioni eseguite da un processo o un’applicazione, tutto in real-time. Il nostro i-Live Machines, la soluzione di augmented intelligence per i produttori di macchinari industriali, è progettato per lavorare proprio così».

CAMBIAMENTI RISPETTO AL PASSATO

La realtà muta molto rapidamente e gli analytics si evolvono con la stessa rapidità per fornire la giusta capacità di intelligence al management. In questo settore, proprio grazie all’intelligence, anche le applicazioni sono sviluppate più rapidamente. «Assistiamo a un impiego sempre più sistematico del transfer learning per accelerare i tempi di sviluppo delle applicazioni aziendali» – spiega Vercellino di IDC Italia. «E si stanno diffondendo modelli di reti neurali sempre più grandi, con decine e centinaia di miliardi di parametri. Molto spesso sono pre-addestrati nei centri di calcolo o sul cloud, quindi possono essere riutilizzate facilmente da chiunque attraverso il fine-tuning con i dati presenti in azienda».

Tutto è molto più veloce e i volumi di dati sono esplosivi. «Non basta la comprensione del fenomeno con gli advanced analytics, conta la velocità con cui i sistemi forniscono intelligenza a supporto delle decisioni» – conferma Perillo di Holonix. «Mai come ora, un’azione presa troppo tardi, sia pure su analisi buone, è inefficace». Per Obino di Denodo, la velocità diventa un fattore critico di successo. La velocità con la quale le aziende devono adattarsi al cambiamento è direttamente collegata alle soluzioni scelte che devono essere sempre più potenti e facili da usare da parte di chi fa dell’analisi il faro guida nel prendere decisioni.

«La possibilità di lavorare in autonomia diventa una “conditio sine qua non” e deve passare per una architettura dati che renda gli utenti consapevoli di quale sia il patrimonio informativo disponibile e che si faccia carico di gestire tutti i tecnicismi dell’accesso ai dati, rendendo possibile concentrarsi sul cosa anziché sul come». Accesso ai dati che ora è più semplice . «L’accesso ai dati e gli strumenti per elaborarli non sono più un vincolo per la diffusione degli analytics» – spiega Marinelli di Di.Tech. «A questo si aggiunge il nuovo approccio della nostra soluzione More Analytics, volto a elaborare i dati con un criterio “cross” rispetto ai processi che li generano».

Leggi anche:  Huawei, la forza della community

Per Broggio di SAS, i cambiamenti sono legati ai nuovi modelli di business. «Gli analytics e l’AI esprimono tutto il loro potenziale quando diventano dirompenti, usati in modo trasversale e soprattutto se si adottano i modelli di business che generano. Ed è proprio questo che sta cambiando: notiamo l’emergere di modelli di business nuovi basati sulla coopetition all’interno di filiere ed ecosistemi. Qui, la condivisione dei dati abilita analisi prima non possibili e che invece attaccano spazi di mercato ancora vergini. Pensiamo al caso della servitization, ancora agli inizi in Italia, ma su cui stiamo investendo attraverso la collaborazione con diversi attori, produttori di macchine, utilizzatori, startup, banche». Per Elena Mazzotti di CRIF le novità sono legate a metriche innovative. «La nuova frontiera riguarda l’utilizzo di metriche innovative quali lo speech recognition process o l’utilizzo di acoustic measurements applicabili nei percorsi di riconoscimento digitale degli individui. Inoltre, i data set saranno sempre più arricchiti di componenti di natura economica, di dimensioni connesse alla mobilità & IoT, e di variabili legate all’evoluzione dei comportamenti».

TRASFORMAZIONE DELLE COMPETENZE

Per poter utilizzare gli advanced analytics, sfruttando al meglio tutte le loro funzionalità, bisogna innanzitutto conoscere a fondo la propria realtà, e poi le potenzialità degli strumenti. «Ogni imprenditore – spiega Vercellino di IDC Italia – deve comprendere quale parte dei suoi processi può essere automatizzata ricorrendo agli algoritmi, perché i suoi concorrenti dall’altra parte del mondo lo faranno di sicuro. Non esiste ovviamente una ricetta valida per tutti, ma è più che mai stringente la necessità di imparare a innovare per piccoli passi, incessantemente, ogni giorno. Insomma, l’innovazione portata dagli algoritmi dovrebbe diventare la buona abitudine di qualsiasi imprenditore». Sicuramente, bisogna operare con una certa metodologia, come spiega Perillo di Holonix. «Le imprese devono conoscere, progettare e realizzare. E questo triplice imperativo caratterizza anche le nostre “IoT Experience”, dei veri e propri laboratori esperienziali che offriamo ai clienti per accompagnarli in queste tre fasi e sviluppare progetti concreti di analytics, machine learning e augmented intelligence».

Gli imprenditori dovranno necessariamente essere supportati da un valido team. Per Marinelli di Di.Tech sarà necessaria una diversa organizzazione in azienda: «Le imprese devono creare un team multidisciplinare, composto dalle figure chiave dei vari settori del business, da data scientist e da esperti di tecnologie. Il compito di questo team è quello di interpretare al meglio il patrimonio informativo disponibile e affiancare i decision maker nel disegno, utilizzo ed evoluzione costante del DSS». Formare una squadra significa anche prepararsi a un cambio culturale e organizzativo. Una evoluzione che non è solo tecnologica, ma culturale, sociale e organizzativa. «Un’evoluzione – conferma Zinno di Denodo – che dovrà essere accompagnata con la giusta convinzione, una efficace comunicazione interna e con il sostegno di nuovi modelli organizzativi, senza imposizioni, facendo sì che i valori siano in modo naturale fatti propri da tutti e diventino guida del lavoro quotidiano. La tecnologia, pertanto, diventa un abilitatore fondamentale ma non ne sarà mai il cardine».

Un nuovo ecosistema decisionale basato sui dati – spiega Broggio di SAS – richiede un profondo e generale cambio di mind set in grado di coinvolgere i singoli e anche delle organizzazioni, ancora troppo legate a modelli che stanno sparendo. «SAS sta molto puntando e investendo sulla trasformazione delle competenze. Ci sono alcune barriere da rimuovere, per esempio il Trust nell’AI. Non c’è ancora fiducia nelle sue potenzialità e spesso non si dà credito a decisioni degli analytics che potrebbero sembrare controintuitive. Ma la formazione che stiamo portando a tutti i livelli e i casi di successo che stiamo ottenendo contribuiscono a rimuovere queste barriere». Occorre anche lavorare sull’organizzazione dei dati, con il giusto supporto. «Le nuove tendenze vedono una maggiore attenzione al futuro» – spiega Menecali di Sinfo One. «Le funzioni fondamentali per i moderni strumenti di analisi sono: consentire simulazioni e analisi “what-if”; integrare fonti dati esterne, algoritmi previsionali quali il clustering e quanto serve per fare analisi di tipo statistico; machine learning per la creazione di sistemi di individuazione preventiva dei problemi.

Quando si usano i dati per prendere decisioni strategiche, i sistemi di apprendimento automatico hanno un ruolo importante. Forse in futuro potranno sostituire i manager a 360 gradi. Ma lo scenario che si rappresenta dipende molto da come i dati sono preparati per l’elaborazione. La storia che viene raccontata dai dati è fortemente influenzata da come i dati sono organizzati. Ecco perché il ruolo dei nostri esperti è ancora fondamentale nel preparare i corretti ambienti di analisi e simulazione per i clienti». Sulla stessa lunghezza d’onda Elena Mazzotti di CRIF, che pone l’accento su aspetti tecnologici e funzionali: «In CRIF da tempo sono allo studio nuove metriche growth up, reboot indicators & engine. Per rendere veramente performanti i modelli è però necessario disporre di capabilities, piattaforme digitali che abilitino la gestione di big data e laboratori di sperimentazione che consentano l’apprendimento dei modelli e il continuo mapping dei bisogni dei clienti».