L’era del cognitive business

Dalle esigenze di business alle domande dei CIO, qual è la roadmap per una corretta adozione? Focus su TCO e ROI. Il ruolo dei vendor per guidare le imprese a prendere una decisione. I cambiamenti che le imprese stanno affrontando nei diversi settori richiedono investimenti, strategia e visione condivisa a livello di sistema

Per competere, le organizzazioni stanno “ricablando” i loro modelli operativi con focus su velocità e reattività. L’impresa “cognitiva” può fare qualcosa di più – diventare “situationally aware” con un nuovo potenziale e aumentata capacità di rispondere autonomamente. Ma a che punto è il livello di adozione delle soluzioni cognitive? Le organizzazioni che stanno tracciando la loro roadmap verso il cognitive si distinguono in quattro gruppi principali. Giancarlo Vercellino, research and consulting manager di IDC Italia ci aiuta a capire quali sono le fasi di adozione. Il primo dei quattro ideali raggruppamenti, che si potrebbe ribattezzare “Pondering Transformation”, include imprese che stanno meditando come affrontare la Trasformazione Digitale nella loro organizzazione e si ritrovano in qualche modo bloccate a metà del guado, ferme in un processo di rielaborazione strategico in gran parte non portato a termine. «Sono imprese che si chiedono come trasformare il proprio modello di business in un contesto organizzativo caratterizzato molto spesso da un dipartimento IT con tanti problemi, che richiede un adeguamento sia dei processi che delle tecnologie, e una sostanziale razionalizzazione dei costi. Questo scenario – spiega Vercellino – caratterizza circa il 40% del segmento Enterprise nel mercato italiano e rappresenta la grande massa delle imprese che si attardano in ragionamenti molto complessi anziché muoversi in una direzione determinata, ancorché provvisoria».

Al secondo posto troviamo un raggruppamento di imprese forse più pragmatiche: le “Automation First”. Non sentono alcuna necessità di trasformare il proprio modello di business oppure di elaborare chissà quali sofisticate strategie digitali inseguendo esempi che arrivano da oltre oceano. Il loro modello di business va bene così com’è, ma sentono invece chiaramente la necessità di automatizzare tutto ciò che possono per fare efficienza e riuscire a competere meglio a livello globale. «Questa categoria – rileva Vercellino – è ragionevolmente persuasa dell’idea che i dati possano diventare un vantaggio competitivo, soprattutto quando attorno ai dati si riescono a concepire forme di automazione sempre più intelligenti. Queste imprese investono nelle nuove piattaforme di predictive analytics, machine learning e cognitive con un solo obiettivo ben chiaro in testa: portare l’automazione dei processi aziendali a un livello superiore. Dalle indagini condotte da IDC sul mercato italiano nell’ultimo anno, è possibile stimare questo raggruppamento attorno al 25% del segmento Enterprise».

Al livello di elaborazione successivo, troviamo il terzo raggruppamento: il gruppo “Analytics for Competitive Edge”. Si tratta di imprese per cui i dati e le informazioni hanno un valore competitivo intrinseco, non necessariamente legato a processi di automazione, ma soprattutto di indirizzamento immediato delle azioni e delle iniziative da intraprendere sul mercato per agire con maggiore efficacia rispetto alla concorrenza. «Queste imprese – spiega Vercellino – sono mosse da grande realismo: molto spesso si muovono in contesti dove il modello di business è più che consolidato e la trasformazione digitale sembra un mito troppo impegnativo. Investono costantemente nell’evoluzione delle proprie piattaforme analitiche perché hanno compreso perfettamente quanto siano indispensabili per il core business aziendale. Questo gruppo rappresenta circa il 23% del segmento Enterprise in Italia».

Il quarto e ultimo raggruppamento è quello che IDC chiama “Analytics for Long-Term Value”, ed è costituito dalle imprese che sono riuscite a realizzare in qualche forma le proprie strategie di trasformazione digitale grazie e attraverso le nuove tecnologie analitiche e cognitive. «Queste imprese – fa notare Vercellino – ritengono che qualsiasi strategia digitale di successo dipenda esclusivamente dal modo in cui si usano dati e informazioni. Non esiste alcuno iato tra l’elaborazione di una strategia digitale e l’investimento in soluzioni analitiche perché il presupposto di fondo di queste organizzazioni è che qualsiasi impresa si caratterizza per essere di fatto una data company, indipendentemente dal core business effettivo. Questo gruppo rappresenta il 12% delle aziende che pensano con la loro testa e i loro dati».

LE DOMANDE DEI CIO

Il percorso cognitivo del CIO parte proprio dalla consapevolezza che i dati, in ogni loro forma, si stanno espandendo come risorsa da utilizzare. Tuttavia, l’esplosione dei dati sta superando la capacità umana di comprendere il significato nascosto all’interno di quei dati e così i CIO spesso soli (e a rischio disruption) sentono il bisogno di partnership autorevoli e affidabili. Inevitabile il confronto con i vendor sul mercato, ciascuno presente con un proprio livello di specializzazione: diventa così necessario separare chiaramente “hype” e realtà al fine di valutare il potenziale delle soluzioni cognitive in azienda. Le domande sono molte. È più utile considerare un provider software “di nicchia” per applicazioni mirate come ad esempio, il digital assistant per il customer service nel retail? Oppure è meglio prendere in considerazione un fornitore di software configurabile per la robotica di processo? O sarà meglio ancora cercare un vendor di piattaforme più ampie per l’intelligenza artificiale e il machine learning? Un bel dilemma per il CIO. Come emerso dall’analisi di IDC, la vendor selection per il cognitive deve allinearsi alla strategia più utile a creare valore in azienda, bilanciando tattiche veloci di breve periodo con la realizzazione di soluzioni “game-changers” a lungo termine. Altro fattore non secondario è quello di trovare fornitori in grado di essere davvero complementari alle risorse e capability interne all’organizzazione aziendale esistente. Data Manager ha avuto modo di simulare uno “stress-test”, mettendo i maggiori player del mercato cognitive italiano a confronto su un vero e proprio “fuoco di fila” costituito dalle domande che oggi i CIO ci hanno indicato essere le loro priorità da smarcare.

Leggi anche:  Dai silos a un ecosistema analitico integrato. Un approccio per avere dati da usare su più sistemi

ESIGENZE DI BUSINESS

Prima di tutto, cerchiamo di capire quali sono le esigenze di business che fanno nascere il bisogno di adottare soluzioni di tipo cognitive in azienda. In un contesto di crescente competitività e cambiamento, legato all’esplosione della quantità di dati – «le istituzioni finanziarie hanno bisogno di soluzioni innovative per vincere la sfida della trasformazione digitale» – spiega Franco Saracco, sales executive director di GFT Italia. Questo significa – «gestire e rendere una risorsa primaria come il volume di dati disponibili per rinnovare le strategie aziendali. Le soluzioni cognitive valorizzano questi dati per la comprensione del mercato e dei clienti, influenzando la creazione o l’evoluzione dei modelli di business». Aspetto rilevante è la conformità normativa, ma – «non è più sufficiente gestire il trattamento dei dati manualmente, occorre impiegare processi decisionali e predittivi svolti da sistemi basati sull’intelligenza artificiale, in grado di facilitare le operazioni e rendere trasparenti le regole sulle modalità con cui le informazioni sono governate».

Per Stefano Maio, country sales leader Big Data Analytics di Oracle Italia si tratta di un percorso di presa di coscienza. «Inizialmente, le aziende non pensano al vendor, ma adottano la strategia dei piccoli passi, attingendo a conoscenze interne o attivando collaborazioni per esempio con professori, startup. Nell’area del machine learning, dopo un approccio da laboratorio – su open source – l’azienda capisce che aspetti fondamentali come scalabilità, integrazione o rendere il progetto Enterprise, possono essere garantiti solo da un vendor esperto. In questo senso, Oracle si pone come partner che offre garanzie di scalabilità (cloud), capacità di orchestrazione – e qui l’acquisizione di DataScience.com va proprio in questa direzione – semplificando la gestione e il rilascio di progetti di IA e machine learning per accompagnare l’azienda a essere davvero data driven».

Spesso viene proposta una soluzione cognitive per risolvere problemi che la mente umana ha la capacità di capire e risolvere. «I modelli che stanno dietro queste soluzioni si basano appunto su reti neurali che riproducono il funzionamento della mente umana» – spiega Jacopo Radaelli, head of data science di Data Reply. In pratica – «imparano dallo studio del passato per definire il problema e migliorano la soluzione con il passare del tempo e i feedback che ricevono. Le principali esigenze sono relative all’elaborazione del linguaggio naturale per sistemi conversazionali meglio conosciuti come chatbot, riconoscimento volti e oggetti nelle foto e information retrieval da documenti digitali».

COME MISURARE IL ROI

Con la GDPR ogni individuo ha il diritto di ottenere una “comprensibile spiegazione della logica coinvolta” nei processi di decisione automatica qualora questi abbiano effetti legali sullo stesso o lo riguardino direttamente. «Senza tecnologie capaci di esplicitare la logica delle black box, tale indicazione rischia di cadere nel vuoto o rendere fuorilegge gran parte delle soluzioni oggi in uso» – spiega Franco Saracco di GFT Italia. «Gli algoritmi “opachi” infatti non consentono di spiegare chiaramente le regole. Gli strumenti “clear box”, invece – tramite reverse engineering e machine learning – astraggono i modelli e prendono decisioni secondo regole facilmente interpretabili. GFT sta sperimentando tale approccio con l’adozione di algoritmi di intelligenza artificiale che siano comprensibili, non solo per validarne qualità e correttezza, ma anche per renderli “fitting” con i valori e le aspettative di business, e preservare l’autonomia dell’analista di contesto nella capacità di decisione». Per Stefano Maio di Oracle Italia, le aziende data driven hanno compreso che il cloud, come infrastruttura abilitante per utilizzare le predictive analytics, l’AI e il machine learning possono migliorare la relazione con i propri clienti, ridurre i difetti di produzione o aumentare la sicurezza dei lavoratori. È il caso di Bitron Elettronica che – spiega Maio – «ha inaugurato l’era della Zero Defect Line per ridurre il tasso di difettosità dei componenti elettronici implementando un progetto di realtime prediction basato sul sistema che sfrutta Oracle Analytics Cloud per raccogliere i dati lungo tutta la linea di produzione».

Leggi anche:  La roadmap di Prysmian verso l’HR 4.0

Per Antongiulio Donà, VP sales Italy di Talend, l’evidenza del ROI sarà calcolabile solo a valle di progetti di più ampio respiro. Il TCO è uno strumento più immediato – «ma da solo non può dare una dimensione adeguata. Talend vede e analizza con particolare interesse queste analisi di misurazione intervenendo definitivamente sulla seconda». Secondo Massimo Ruffolo, founder di Altilia, i driver per il calcolo del ROI dipendono dal tipo di soluzione e bisogna distinguere i casi in cui la soluzione impatta sul cliente finale dai casi in cui la soluzione è totalmente interna all’azienda. «In entrambi i casi, individuati una serie di driver di costo/beneficio insieme al cliente, definiamo delle formule basate su funzioni delle prestazioni della nostra tecnologia. In uno use case che prevede la gestione automatica di documenti legati a pratiche di recupero crediti, il ROI è da valutarsi in base alla riduzione del numero di ore di lavoro degli avvocati e alla maggiore accuratezza nell’identificare i beni su cui agire per il recupero del credito. Un altro use case prevede la produzione di profili di imprese costruiti automaticamente in modo da favorire la valutazione delle modalità di proposizione di prodotti finanziari adeguati. In questo caso, i driver per la misura del ROI vanno rinvenuti nella riduzione dello sforzo fatto da persone per la costruzione manuale dei profili di aziende (ore-persona) e nella possibilità di scalare la costruzione dei profili a cui proporre con precisione prodotti e servizi finanziari».

Per il risparmio energetico e la gestione della manutenzione degli impianti è possibile dimostrare il ritorno dell’investimento attraverso analisi quantitative. Nel primo caso – spiega Luca Stella, product manager BU Asset Management di Zucchetti – «è necessario definire un modello cosiddetto di baseline che possa indicare quale sarebbe stato il consumo energetico a parità di condizioni a contorno: temperature, quantità di beni prodotti nella stessa unità di tempo, orari di funzionamento e di apertura. Successivamente, si confronta il consumo indicato nella baseline con quello reale del periodo preso in considerazione e ottenuto grazie alle azioni di miglioramento e risparmio poste in essere mediante un modello di AI. La differenza tra i due consumi rappresenta il ritorno dell’investimento». Sul fronte della prevenzione e riduzione dei guasti – «il risultato economico è dato sia dai costi evitati per la riparazione delle macchine sia dai ricavi ottenuti dalla produzione che non sarebbe stata possibile in caso di fermo macchina».

DOMINIO, SINERGIA E POTENZA

Nel mondo manifatturiero, ci sono due aree di focalizzazione che precedentemente erano difficilmente accessibili – spiega Jacopo Cassina, CEO di Holonix. «La “manutenzione predittiva”, quindi la possibilità di stimare quando si verificherà un guasto con congruo anticipo, e lo “zero defects”, cioè la capacità di adattare velocemente il processo produttivo al fine di ottimizzare la qualità del prodotto. Il dominio manifatturiero però richiede una elevata competenza ed esperienza. «Non è quindi sufficiente l’analisi che un data scientist può fare sui dati, ma è necessario un lavoro sinergico che parta da chi conosce sensori e metodi per acquisire i dati arrivando a chi comprende gli aspetti principali del macchinario e del processo da gestire». Holonix da anni è impegnata su questi fronti, rimanendo inoltre sempre all’avanguardia tecnologica. Come dimostra l’impegno dell’azienda su due progetti di innovazione europei sul Zero-Defects (Z-Factor; IQONIC) e uno su Manutenzione Predittiva (Z-Break). «Da questa esperienza – mette in evidenza Cassina – sappiamo che è necessario un approccio incrementale, che abbiamo implementato nella nostra offerta i-LiKe Machines, iniziando con un’acquisizione dati strutturata, creando poi, congiuntamente con il cliente, a seconda della qualità dei dati già disponibili e delle conoscenze aziendali, una sezione di algoritmi ad-hoc per ogni realtà produttiva».

I dati rappresentano una componente fondamentale dell’intelligenza artificiale in quanto sono paragonabili alla corrente per i dispositivi elettronici. «Come per un dispositivo, la quantità di corrente richiesta dipende dalla potenza erogata – spiega Jacopo Radaelli di Data Reply – così per predire un fenomeno avremo bisogno di una certa quantità di dati per erogare una certa potenza predittiva». La chiave quindi è capire le peculiarità che caratterizzano il fenomeno: «Più il fenomeno è complesso più energia è necessaria e quindi, più dati. In definitiva, per capire di quanti dati ho bisogno è importante definire il fenomeno che si vuole modellizzare identificando i segnali distintivi».

Leggi anche:  Talend annuncia la release Summer '19 di Talend Data Fabric

MAKE OR BUY?

«Con il crescere della complessità delle applicazioni realizzate, crediamo che occorra avere alle spalle degli specialisti che possano definire i modelli più appropriati per affrontare i differenti bisogni espressi dal mercato» – afferma Luca Stella di Zucchetti. «Un vendor come Zucchetti garantisce inoltre l’integrazione nativa di tutte le sue soluzioni, per fornire una coerenza nella gestione delle informazioni, che rende poi possibile l’introduzione di processi di machine learning per creare sistemi adattivi e intelligenti in grado di autoapprendere». Sulla stessa lunghezza d’onda anche Antongiulio Donà di Talend: «Come vendor tendiamo a suggerire di utilizzare strumenti in grado di contenere il TCO ma che siano strumenti di mercato: nessun cliente può avere da solo la potenza della R&D che mettono in campo i vendor, o come Talend, la community Open Source. Sono troppo facili le analogie con il reinventarsi la ruota; la capacità del cliente sta nel saper fare leva sugli strumenti differenziandosi in questo mondo dalla concorrenza continua».

SICUREZZA E PREVENZIONE

Analisi dati e gestione del business in mobilità sono oggi soluzioni preziose, ma ormai non più innovative. Il futuro passa dall’intelligenza artificiale. Sinergest è una software house che da vent’anni produce software per i sistemi di gestione e workflow personalizzati. Il centro Ricerca e Sviluppo sta sviluppando progetti di AI e servizi cognitivi. I campi di applicazione sono infiniti – spiega Marco Vannucchi, CEO di Sinergest – «ma ci sono due settori su cui i nostri clienti si dimostrano più attenti. Innanzitutto la sicurezza: sistemi come i dispositivi uomo a terra non fanno prevenzione. Attraverso telecamere evolute, come per esempio le termo-camere, è possibile invece raccogliere immagini da trasformare in dati che a loro volta vengono gestiti, integrati e rielaborati per un processo dinamico. Da qui, è possibile predisporre campagne preventive contro i comportamenti scorretti, registrare anomalie, lanciare alert in caso di emergenze. Ma c’è un altro campo che sfrutta la potenza dell’AI: l’assistenza post-vendita e la manutenzione predittiva. Anche in questo caso l’immensa mole di dati va trasformata in informazioni semplici. Una volta fatto questo, i vantaggi per le aziende sono grandi, in termini di qualità del prodotto e di servizio ai clienti». Per Massimo Ruffolo di Altilia, la trasformazione digitale è la giusta combinazione delle capacità degli uomini e delle macchine di sfruttare al meglio tutti i dati disponibili per l’ottimizzazione del business. «Tutti i nostri clienti sono impegnati in profondi sforzi di innovazione dei loro processi interni, del modo con cui gestiscono il rapporto con il mercato e i clienti, di come valutano la concorrenza e reagiscono alle azioni di quest’ultima, di come riconoscono rischi e opportunità e vi reagiscono». In questo contesto di cambiamento – «noi siamo vicino al cliente, come partner in grado di attivare processi di trasformazione digitale del business».

FARE SISTEMA IN ITALIA

Grazie all’evoluzione tecnologica, nei prossimi 15 anni il computer avrà superato abbondantemente il cervello umano nella capacità di analizzare e di prendere decisioni razionali. Molte delle attività svolte dalle persone saranno sostituite da software che utilizzeranno la cosiddetta intelligenza artificiale. «Si pone dunque un problema economico, sociale ed etico» – afferma Claudio Ruffini, presidente e AD di Augeos. «Oggi, non siamo in grado infatti in Italia di competere con i grandi player internazionali sia nel livello tecnologico sia nella quantità delle risorse economiche e di ricerca dedicate a queste innovazioni». La domanda di queste tecnologie applicate per migliorare i servizi di business – oggi – non appare ancora così diffusa nonostante l’urgenza e la strategicità dei temi. «Occorre un’azione importante di sistema per elaborare una piattaforma italiana comune di intelligenza artificiale su cui ogni banca e ogni impresa possa sviluppare il proprio servizio dedicato e personalizzato sulla base delle proprie esigenze. Occorre investire molto in formazione e ricerca per recuperare il terreno perduto e tornare a presidiare e non solo usare l’innovazione tecnologica. Oggi, non dobbiamo guardare il ROI del singolo progetto ma, per una volta, guardiamo oltre l’orizzonte unendo gli sforzi».