Il potere trasformativo dell’AI passa dai dati. L’intelligenza artificiale sta rivoluzionando il modo in cui le organizzazioni prendono decisioni, gestiscono le risorse e interagiscono con i propri clienti. Ma prima di intraprendere un progetto basato sulle nuove tecnologie generative e agentiche occorre fare ordine e pulizia nei dataset aziendali. Con la partecipazione di Amplifon, Aubay, Denodo, Plenitude (Società controllata da Eni), Generali, Gi Group Holding, Intesa Sanpaolo, Qlik, RCS MediaGroup, Università degli Studi di Milano-Bicocca
L’intelligenza artificiale è una leva strategica per il cambiamento di modelli di business, processi e modalità di lavoro? Lo è indubbiamente, perché le tecnologie degli algoritmi e dei modelli di linguaggio di grande formato mettono oggi a disposizione delle imprese strumenti avanzati per migliorare l’efficienza operativa, anticipare i trend di mercato e creare esperienze utente sempre più su misura. Non si tratta più di scenari futuristici, ma di una realtà in rapido consolidamento, di un fenomeno (non a caso definitivo trasformativo) capace di ridefinire interi comparti e intere industrie.
Alla base dell’AI, e questo è un messaggio forte e chiaro che emerge dai protagonisti di questo settore, ci sono i dati: strutturati e non strutturati, prodotti e raccolti in tempo reale e provenienti da fonti interne o esterne. Perché l’intelligenza artificiale possa esprimere tutto il suo potenziale, è essenziale valorizzare i dati aziendali attraverso una governance efficace e una cultura diffusa del dato stesso. La corsa all’adozione dell’intelligenza artificiale non può inoltre prescindere da una riflessione approfondita sugli aspetti normativi, etici e di responsabilità. Comprendere potenzialità, limiti e implicazioni delle tecnologie AI è il primo passo per una trasformazione digitale consapevole. Per cogliere appieno i vantaggi di questa tecnologia, sono fondamentali due azioni di largo respiro. La prima è promuovere la conoscenza approfondita delle sue potenzialità e dei suoi limiti, in un contesto regolatorio in continua evoluzione. La seconda è garantire resilienza all’azienda e all’ecosistema in cui opera, attraverso un approccio responsabile, capace di garantire fiducia e sostenibilità nel tempo. L’intelligenza artificiale, come concordano esperti e addetti ai lavori, non è una meta, bensì un percorso che richiede capacità di adattamento e spirito collaborativo: governare l’intelligenza artificiale, in altre parole, significa saperne indirizzare gli effetti con responsabilità e visione strategica.
La sintesi dialettica su come dati e AI stanno ridisegnando la governance aziendale, emerge in modo evidente dal Data & AI Forum 2025: l’evento di Data Manager che riunisce, esperti, vendor e utenti per analizzare l’impatto reale della trasformazione data-driven e mettere a fuoco le sfide e le opportunità di un’infrastruttura informativa davvero al servizio del business. Sullo sfondo del prestigioso Gran Visconti Palace di Milano, non solo riflessioni teoriche, ma anche casi d’uso reali, progetti già operativi e testimonianze dal campo, a dimostrazione di come la collaborazione tra tecnologie emergenti e intelligenza umana stia già ridisegnando il modo in cui imprese e organizzazioni affrontano il cambiamento. Dall’analisi predittiva alla data governance, dalla semantica all’automazione intelligente, la giornata restituisce una prospettiva chiara: il futuro si gioca sulla capacità di orchestrare dati e AI in modo strategico. Con la partecipazione: Amplifon, Aubay, Denodo, Plenitude, Generali, Gi Group Holding, Intesa Sanpaolo, Qlik, RCS MediaGroup, Università degli Studi di Milano-Bicocca.
POTENZA E CONSAPEVOLEZZA
L’Intelligenza artificiale si è affermata in questi ultimi anni come uno degli snodi centrali della trasformazione digitale, impattando in modo pervasivo e sostanziale sull’operatività quotidiana di aziende e organizzazioni. Il cambiamento è profondo, trasversale, e coinvolge ogni settore. Impone alle organizzazioni un ripensamento strutturale sul modo in cui i dati vengono raccolti, interpretati e messi al servizio del business. Parola di Gabriella Pasi, professoressa ordinaria del Dipartimento di Informatica, Sistemistica e Comunicazione e pro-rettrice all’Internazionalizzazione dell’Università Milano-Bicocca, che nell’intervento di apertura evidenzia un punto chiave: «Le tecnologie basate su intelligenza artificiale stanno rivoluzionando la gestione dei processi decisionali, con ricadute importanti sull’efficienza e sull’esperienza del cliente». Ma per rendere davvero efficace e sostenibile questa transizione, serve un passo in più: costruire conoscenza attorno alle potenzialità e ai limiti dell’IA, adottare un approccio responsabile che bilanci innovazione e governance. «La velocità dello sviluppo tecnologico –aggiunge Pasi – impone nuovi standard di trasparenza, sicurezza e protezione della privacy. La fiducia nasce solo da un uso consapevole e regolato delle tecnologie».

L’intelligenza artificiale è sotto i riflettori, ma non è certo una novità. Le sue origini risalgono agli anni Cinquanta, quando nel 1956 fu coniato il termine stesso. È però negli ultimi anni che l’interesse verso questa tecnologia è cresciuto in modo esponenziale, spinto da due fattori principali: la proliferazione di un’ingente quantità di dati e l’aumento della potenza di calcolo. «Oggi se ne parla tantissimo – osserva Gabriella Pasi – perché siamo sommersi da dati e contenuti di ogni tipo, e la capacità di elaborazione dell’hardware ha raggiunto livelli impensabili fino a poco tempo fa».
In una prima fase di questo processo evolutivo, svariate tecniche di apprendimento automatico (machine learning) hanno consentito di realizzare numerose applicazioni. Più recentemente è sopraggiunta l’era dell’IA generativa, che ha consentito la definizione di algoritmi (basati su reti neurali profonde) in grado di apprendere da immani quantità di contenuti come generarne nuovi (testi, immagini, codice o contenuti multimediali). Ma accanto alle possibilità straordinarie che questi strumenti offrono, serve uno sguardo critico. «Con l’intelligenza artificiale generativa – precisa Pasi – l’algoritmo non “pensa”, ma elabora e genera contenuti su basi probabilistiche. Per questo è fondamentale comprenderne il funzionamento, le grandi potenzialità ma anche i limiti, e in quali contesti possa essere utile davvero». La parola chiave resta quindi consapevolezza. Nessuna tecnologia, per quanto avanzata, può sostituire la capacità umana di interpretare, validare, decidere. E l’impegno di chi sviluppa, adotta o promuove soluzioni basate su IA dovrebbe essere proprio questo: aiutare le organizzazioni a orientarsi tra opportunità e rischi, con responsabilità e competenza. Un altro elemento decisivo è la provenienza dei dati. Senza chiarezza sulle fonti, sull’ordine e sui processi che hanno trasformato l’informazione, l’intera catena decisionale può incepparsi. La qualità, la tracciabilità e la responsabilità diventano così elementi fondamentali per costruire sistemi di IA affidabili e trasparenti. Lavorare con dati di qualità è un presupposto fondamentale – come ricorda ancora l’esperta – richiamando l’attenzione sull’emergere dei dati sintetici e sull’importanza di valutarne l’affidabilità.
Anche per una ragione estremamente delicata: in un panorama dove i dati tendono a uscire sempre più spesso dal perimetro aziendale per finire nelle mani delle BigTech, diventa ancora più urgente interrogarsi sulla governance, sulla sicurezza e sul controllo delle informazioni sensibili. Una priorità per manager e decisori aziendali è quindi il rapporto tra intelligenza umana e intelligenza artificiale, un binomio che necessita di una presa di consapevolezza altrettanto importante. Se l’IA può automatizzare, analizzare e suggerire, non può e non deve sostituire il pensiero critico e la supervisione umana. Ed è proprio in questa interazione che si gioca la partita più importante, quella di una collaborazione virtuosa fra le due intelligenze, guidata da principi etici e rispetto della privacy. Pensare a un’AI davvero utile e sostenibile, infine, significa anche toccare l’aspetto dell’adattabilità. «Applicazioni diverse – spiega Gabriella Pasi – necessitano di modelli d’uso diversi della tecnologia, che si allontanano da una logica di condivisione standardizzata e che si avvicinano invece all’idea di modelli di IA più sostenibili, abbracciando un’esperienza d’uso su misura, più personalizzata e contestuale».
LA CORSA VERSO L’AI AGENTICA
Se da un lato le aziende italiane hanno molta voglia di sperimentare con l’AI e gli agenti intelligenti, dall’altro non va sottovalutato il rischio che si lascino sedurre dalla narrazione che circonda l’intelligenza artificiale. «Non sono rari i casi – evidenzia Giorgio David Jacchini, senior manager di Aubay Italia – in cui si pensa di introdurre l’AI e automatizzare subito un processo. Ma senza dati e senza struttura, è come voler guidare una macchina su una strada non asfaltata. Non si tratta quindi solo di destinare risorse, ma di orientare correttamente l’investimento: spesso le aziende sono disponibili a spendere nell’intelligenza artificiale, ma fanno più fatica a destinare lo stesso budget al data management. È una questione di percezione: ma prima bisogna costruire le fondamenta».

La necessità di un cambio di approccio è palese ma c’è anche un segnale incoraggiante, che proprio Aubay sta raccogliendo sul campo: la maturità tecnologica delle imprese sta crescendo e con essa la consapevolezza dei dirigenti, che non chiedono più al tech provider «cosa possiamo fare con l’AI» – ma arrivano preparati all’incontro con il fornitore di tecnologia dicendo – «vogliamo applicare l’AI su questo processo». E questo – rileva Jacchini – è un bel segnale, perché conferma la tendenza ad abbandonare le suggestioni teoriche legate all’uso degli algoritmi e degli strumenti generativi per focalizzarsi su soluzioni realmente applicabili. Il passo avanti tecnologico, per contro, deve essere accompagnato da un’evoluzione culturale e organizzativa. «Molte aziende italiane hanno una struttura padronale o familiare e quindi serve convincere l’imprenditore e coinvolgere tutta l’organizzazione. Il cambiamento non può però essere gestito solo da un IT manager entusiasta, è necessario un vero processo di change management». Guardando all’AI agentica, l’esperienza maturata da Aubay suggerisce che uno degli ostacoli principali all’adozione di queste tecnologie non è – come si potrebbe pensare – una questione di budget.
«La messa in pista di un agente intelligente non è fuori portata nemmeno per una PMI» – spiega in modo convinto Jacchini. «I costi non sono la criticità principale, perché parliamo di progettualità che anche una media impresa può ragionevolmente sostenere. Il vero ostacolo non è economico, ma culturale e infrastrutturale». A fare la differenza è la qualità dei dati. Lo scenario tipico che si manifesta è il seguente: molte imprese italiane, soprattutto in ambito manifatturiero, sono cresciute in modo organico, stratificando sistemi IT uno sopra l’altro, senza una visione d’insieme. Il risultato? Architetture incoerenti, silos informativi, difficoltà nell’unificare e rendere utilizzabili i dati. E senza dati di qualità, gli agenti rischiano di diventare inutili o, peggio, dannosi mentre invece devono diventare strumenti su misura e personalizzati, allenati a lavorare sui dati dell’impresa. «L’agente – precisa Jacchini – impara dai dati aziendali. Se questi non sono coerenti, aggiornati e ben strutturati, le risposte saranno scorrette e incoerenti. La preparazione del dato è dunque il passaggio chiave, perché è al livello del dato che si possono nascondere criticità derivanti da sistemi informativi cresciuti in modo non uniforme, aggiungendo pezzi non interoperabili fra di loro. Senza una base dati omogenea e ben ottimizzata, diventa difficile automatizzare il singolo processo».
A che punto siamo – è lecito chiedersi – con l’adozione degli agenti AI nelle imprese italiane? La risposta di Aubay conferma un quadro di crescente maturità: le imprese oggi sono decisamente più preparate ad affrontare l’adozione dell’intelligenza artificiale. In particolare, CIO e responsabili IT mostrano una maggiore consapevolezza nell’identificare i processi interni che possono essere ottimizzati, rendendo l’integrazione dell’AI sempre più mirata ed efficace. «La base è più solida rispetto a soli dodici mesi fa, anche se i processi delle medie imprese di alcuni specifici settori, manifatturiero in testa, sono complessi» – spiega Jacchini. «Le sfide non mancano, ma non possono diventare un freno né per noi vendor tecnologici né per le aziende utenti. Siamo solo all’inizio di un percorso, che oggi ci vede nella fase dell’AI agentica 1.0, ma il mondo dell’automazione di processo è in continua evoluzione e chi parte oggi con il piede giusto avrà un grande vantaggio competitivo domani, quando parleremo di agenti 2.0 e oltre».
USE CASE CHE FANNO SCUOLA
Ad arricchire il panel di relatori del Data & AI Forum, l’intervento dei diversi rappresentati di importanti aziende italiane, e fra questi Giuseppe Ficara, group Data & AI Officer e global senior director di Amplifon. Per l’azienda leader globale nei servizi e soluzioni per l’udito, l’intelligenza artificiale non è più (solo) un fenomeno da osservare, ma uno strumento da testare, addestrare e integrare nei flussi reali di lavoro. La società ha infatti avviato un programma strutturato di sperimentazione dell’AI generativa (denominato AmplifAI), con l’obiettivo di indirizzare l’adozione di questi strumenti a supporto della produttività personale degli addetti Amplifon, attraverso progetti pilota basati su soluzioni Google (Gemini e NotebookLM) e Microsoft (Copilot). L’approccio seguito da Amplifon è quindi esplorativo ma metodico, e racconta una visione matura e sistemica dell’AI: non un esercizio di stile, ma un percorso disciplinato, dove sperimentazione, governance e formazione convergono per costruire una base solida verso un’adozione scalabile e responsabile della tecnologia.

«L’analisi di tutti i feedback raccolti nell’arco di diversi mesi – spiega Ficara – porterà a una scelta strategica sulla soluzione da implementare. Non escludiamo a priori l’utilizzo di entrambe. Il nostro obiettivo è chiaro: vogliamo valorizzare l’AI generativa su scala, superando l’approccio limitato all’uso di strumenti generalisti come ChatGPT e integrandola in modo strategico nei processi aziendali». L’ambizione di Amplifon, in altre parole, è quella di costruire una “AI enterprise-ready”, capace di impattare sul lavoro quotidiano in maniera concreta e misurabile. Per farlo, ha creato una vera e propria “control tower”: un team multidisciplinare che include figure attive in tutte le aree strategiche dell’azienda. «Abbiamo coinvolto una cinquantina di persone rappresentative delle varie funzioni e la finalità è quella di sviluppare business case e sperimentarle per capire in modo approfondito le potenzialità della tecnologia applicata ai processi» – continua Ficara.
«Il percorso di sperimentazione non si limita dunque alla sola dimensione tecnica, con la prototipazione e la verifica delle use case, ma si estende a un piano strutturato di formazione interna, definito in collaborazione con le funzioni legal e risk e con il fine garantire che l’adozione dell’AI sia accompagnata da una solida cultura digitale». Sebbene il programma sia ancora nella fase di test e validazione, alcune applicazioni sono già entrate in produzione, soprattutto per l’automazione di processi specifici legati alla generazione di contenuti. Uno degli aspetti più interessanti dell’esperienza di Amplifon con l’AI è il modo attraverso il quale l’azienda reinterpreta il rapporto tra dati e intelligenza artificiale. «Stiamo ribaltando il paradigma della data governance» – evidenzia Ficara. «Il nostro utente interno oggi va a lavorare sui KPI generati e modellati dall’intelligenza artificiale per validarne la correttezza in termini di definizione, mentre in passato era chiamato a gestirne manualmente il suo aggiornamento, compito che ora è affidato alla macchina».
Un effettivo cambio di paradigma che sposta il compito umano dal “fare” al “verificare”, liberando tempo, energie e competenze per attività a più alto valore. Se la prima ondata di intelligenza artificiale si è concentrata su automazione, predizione e analytics, la seconda – guidata dalla Generative AI – apre scenari radicalmente nuovi, soprattutto in settori storicamente sensibili all’innovazione tecnologica, come quello dei media. L’adozione di modelli linguistici avanzati e agenti intelligenti sta trasformando l’intero ciclo di vita dei contenuti: dalla produzione alla personalizzazione, fino alla monetizzazione.
Lo dimostra in modo concreto l’esperienza di RCS MediaGroup, gruppo editoriale che comprende brand come il Corriere della Sera, la Gazzetta dello Sport, El Mundo, Marca, e che raggiunge oltre 200 milioni di utenti mensili tra Italia, Spagna, America Latina e Stati Uniti. L’azienda ha implementato oltre 20 progetti di AI generativa e 50 iniziative di AI tradizionale, avviando a una trasformazione profonda dei processi editoriali e del rapporto con il pubblico. «Il piano è nato nel 2020» – racconta Rocco Michele Lancellotti, chief data & AI officer del Gruppo. «Siamo partiti dalla costruzione di un data lake centrale, proseguendo con un’intensa attività di pulizia e preparazione dei dati, che sono poi stati elaborati con tecniche di advanced analytics, machine learning e modelli LLM. Tutto ciò ha coinvolto attivamente le funzioni di business, marketing e redazione, in un clima di fiducia condivisa nel valore e nel supporto che può fornire la tecnologia generativa».
Il cuore della strategia di RCS è un’architettura unificata, definita One Multimodal AI Brain, che integra oltre 3.000 KPI monitorati quotidianamente, più di 100 dashboard a supporto della gestione data-driven, motori di ricerca multimodali e strumenti intelligenti per SEO, content creation, customer care e automazione. «La nostra evoluzione punta alla personalizzazione delle esperienze dei nostri lettori e spettatori» – spiega Lancellotti – «grazie ad agenti intelligenti capaci di operare in contesti dinamici e profilati. Uno di questi, potenziato da Gemini, elabora oltre 60 KPI per abbonato e propone azioni su misura per l’operatore di call center, basandosi su abitudini di lettura, interessi e dati di engagement. Se, ad esempio, un abbonato mostra interesse per la geopolitica, l’agente suggerisce l’invio di una newsletter tematica firmata da Federico Rampini».

Tra i componenti più avanzati dell’architettura ci sono il SEO Assistant Agent, che genera autonomamente report ottimizzati per la misurazione delle performance di traffico, e il Website Search Agent, che trasforma la ricerca tradizionale in una vera e propria conversazione, con suggerimenti contestuali e follow-up basati su query autogenerate. L’approccio di RCS MediaGroup si fonda su una visione avanzata degli agenti AI, intesi non come semplici chatbot, ma come entità autonome o semi-autonome, costruite su large language models opportunamente orchestrati e customizzati, dotati di obiettivi, capacità decisionali e interazione ambientale. Veri e propri attori digitali, in grado di adattarsi, apprendere e agire in scenari variabili, portando in azienda l’innovazione dell’AI generativa e agentica, ben oltre i limiti della tradizionale Robotic Process Automation, focalizzata sull’automazione di processi rigidi e predefiniti. Per raggiungere questo livello e sfruttare l’intelligenza artificiale come abilitatore concreto di nuovi modelli di business e di fidelizzazione dell’utente, la formula vincente adottata da Lancellotti è stata chiara: «Costruire un team di figure competenti, con piena ownership del progetto di GenAI, per evitare il rischio di proof of concept non strutturati e destinati al fallimento. Fondamentale, in questo percorso, è stato anche il commitment del CEO, che ha garantito la visione strategica e il supporto finanziario necessario allo sviluppo del team e dell’intero programma di AI».
SEMANTICA E CAMBIAMENTO
Nel corso di una delle tavole rotonde del Data & AI Forum, Denodo e Qlik, due protagonisti di primo piano nel panorama tecnologico, condividono la loro visione sul ruolo strategico dei dati. Entrambi attivi nello sviluppo di soluzioni per l’analisi e la valorizzazione delle informazioni aziendali, sottolineano come il modo in cui i dati vengono gestiti e interpretati rappresenti un elemento determinante per dare forma a progetti di intelligenza artificiale realmente efficaci. Non si tratta solo di avere a disposizione grandi quantità di dati, ma di saperli trattare con metodo e coerenza, per trasformarli in valore concreto per il business.
Il messaggio lanciato da Andrea Zinno, data evangelist di Denodo è più che esplicito: «L’integrazione dei dati non è un’avventura tecnologica, ma una sfida semantica. Tutto si gioca sulla capacità di modellare i dati, ed è un’attività complessa, che può durare anche anni: occorre superare un approccio tecnicistico e capire l’importanza di come estrarre valore dal dato, generando business o migliorando i servizi. Ciò che conta è la bontà della concettualizzazione». Lavorare con i dati, nella concezione della società californiana, significa renderli significativi. Tale operazione non riguarda solo la qualità “misurabile” del dato, ma anche e soprattutto la sua capacità di rappresentare correttamente i fenomeni che descrive. Se questo non avviene, perché i dati non sono adeguati, non si avrà una comprensione chiara di quel fenomeno. «Questa è la base dell’analisi predittiva – spiega Zinno – e vale anche per l’AI generativa, una tecnologia a comportamento assertivo, che restituisce risposte anche quando il dato è impreciso».

Il rimando di Zinno ci riporta a cavallo degli anni 2000, quando la business intelligence sembrava il punto d’arrivo dell’evoluzione informativa. E invece qualcosa mancava. «All’epoca – continua l’evangelist di Denodo – l’analisi dei dati era eseguita con tecnologie meno avanzate di quelle attuali, si trattava di una disciplina ben contestualizzata, ma probabilmente mancava la dovuta attenzione alla qualità dei dati usati per fare intelligence. Poi sono arrivati gli strumenti di data science e di advanced analytics e con essi un nuovo sguardo sul come interpretare i dati». Oggi siamo in una fase ancora più matura, in cui la democratizzazione responsabile dell’uso dei dati rappresenta il nuovo paradigma. «È finita l’oligarchia del dato – spiega Zinno – perché non ha più senso che solo poche persone abbiano competenze per interrogare e analizzare le fonti informative. La sfida è culturale e va nella direzione di coinvolgere nuove figure aziendali, anche non tecniche, per interrogare i dati a supporto delle decisioni operative o strategiche, riducendo le tempistiche di accesso alle informazioni da settimane a minuti». Per Denodo, rendere operativa questa visione all’interno delle aziende parte da un principio tanto essenziale quanto sottovalutato: la semplicità. È proprio attraverso architetture agili e facilmente integrabili che diventa possibile gestire la crescente complessità informativa, garantendo accesso rapido, coerente e sicuro ai dati, senza appesantire i processi IT o rallentare l’innovazione.
La tecnologia migliore – come precisa Zinno – è quella che rende più facili e immediate le operazioni da compiere e che applica un modello pensato per favorire un’adozione fluida, intuitiva e inclusiva, con interfacce semplici e strutturate in forma di data catalog per i data consumer con limitate competenze tecniche (per esempio le figure di marketing) e per i data engineer e per i data steward che si occupano di governance e manutenzione. In questo approccio, l’usabilità non è un dettaglio, ma una leva abilitante per democratizzare l’accesso ai dati e accelerare i benefici dell’AI in tutta l’organizzazione. «Entrambi devono poter lavorare al meglio, ma con strumenti diversi».
Anche Giorgio Dossena, senior presales manager di Qlik, apre la sua riflessione sul legame tra dati e intelligenza artificiale, partendo da un punto fermo: per ottenere risultati tangibili, le aziende devono adottare un approccio più realistico, concreto e maturo. Basta entusiasmi superficiali o rincorse a soluzioni di tendenza: servono basi solide e una gestione consapevole e strutturata dei dati. Solo così l’intelligenza artificiale potrà generare reale valore e trasformarsi in un alleato strategico per il business. «Tutti vogliono l’intelligenza artificiale, ma pochi si fermano a chiedersi dove possa davvero fare la differenza» – osserva Dossena. «Spesso ci si affida all’AI come se fosse una “bacchetta magica”, sperando che possa risolvere problemi strutturali o consolidare basi fragili. In alcuni casi funziona, in altri no. L’interesse è enorme, ma la verità è che poche aziende arrivano davvero pronte al momento dell’implementazione». Il monito è chiaro: senza concretezza, si rischia di ripetere gli errori del passato.

«È lo stesso errore che abbiamo visto con l’Internet of Things – continua Dossena – quando per anni si sono disseminati sensori senza sapere esattamente cosa farne. Solo ora si comincia a gestire davvero quei dati e a trarne valore. Con l’AI vale la stessa regola: la tecnologia non basta. Serve un lavoro profondo sulla qualità dei dati, ma soprattutto sulle persone e sui processi che devono saperli leggere e trasformare in azione». Il primo passo da compiere è disporre di dati affidabili, completi, contestualizzati e accessibili nei tempi giusti. Non si tratta insomma solo di quantità, ma di rilevanza. «Oggi – spiega il manager di Qlik – abbiamo più dati che mai, ma non è detto che siano quelli più idonei per perseguire l’obiettivo, perché un dato di qualità è tale solo se è rilevante per il caso d’uso specifico. Tutto dipende dal contesto: un’analisi in ambito sanitario può tollerare dati aggiornati al giorno precedente, ma un’azienda telco ha bisogno di insights in tempo reale, anche al secondo». Ed è per questo che entrano in gioco tecnologie avanzate per abilitare la selezione, il filtraggio e l’arricchimento del dato.
La struttura e la validazione del dato diventano ancora più centrali nel momento in cui si lavora con algoritmi di intelligenza artificiale, perché solo i dataset verificati e strutturati sono il vero – e unico – antidoto alle “allucinazioni” tipiche degli algoritmi AI. Se il dato di partenza è incompleto o incoerente, anche il modello più avanzato rischia di restituire risultati errati. Per Giorgio Dossena, la governance dei dati va vista non solo come risposta agli obblighi normativi – pensiamo al GDPR – ma come leva strategica a tutti gli effetti. Una buona gestione non serve soltanto a garantire la compliance, ma può diventare un vantaggio competitivo concreto. «Un presidio solido del dato è in grado di generare fiducia: verso l’esterno, nei confronti di clienti e partner; ma anche all’interno dell’organizzazione, dove trasparenza e tracciabilità aiutano a costruire un ambiente decisionale più consapevole». Sapere da dove provengono i dati, come sono stati trattati e da chi, diventa così un elemento abilitante per prendere decisioni strategiche. «Il nostro obiettivo – continua Dossena – è aiutare le aziende a costruire una governance efficace, in cui la tracciabilità, la responsabilità e l’accessibilità dei dati siano elementi chiave. E per farlo facciamo leva sulla capacità di integrazione nei sistemi esistenti senza forzature. Non andiamo dai clienti con l’idea di sostituire tutto, perché le aziende oggi hanno già dati, strumenti, infrastrutture: il nostro compito è valorizzare quanto esiste e integrarlo con la nostra tecnologia». Un approccio di tipo “ecosistemico”, in altre parole, che fa della compatibilità delle soluzioni Qlik con le piattaforme di Oracle, AWS, Snowflake o Databricks un punto di forza.
Tornando alla sfida legata all’adozione dell’intelligenza artificiale, emerge con forza la centralità del modello semantico. «La Gen AI ha una conoscenza potenzialmente sconfinata – osserva Andrea Zinno di Denodo – ma se la domanda che le poniamo è imprecisa o mal formulata, la risposta sarà inevitabilmente incompleta, vaga o, peggio ancora, fuorviante». Il problema, ancora una volta, sta nella qualità dei dati. Zinno utilizza una metafora efficace: «Il dato è come un prompt. Se è parziale, distorto o povero, anche l’output sarà mediocre. Mi piace sempre ricordare che la parte “sexy” del lavoro sui dati è quella finale, l’elaborazione, quella che genera insights. Ma è prima, nella preparazione e nella qualità del dato, che si decide il vero valore del risultato». Infine c’è il tema del cambiamento organizzativo, spesso trattato come una nota a margine ma che, in realtà, può determinare il successo o il fallimento di qualsiasi trasformazione guidata dai dati: «Le difficoltà tecniche esistono – ammette l’evangelist di Denodo – specie in ambienti IT complessi o datati, come quelli ancora basati su mainframe. Ma sono ostacoli che, con il tempo e risorse adeguate, si possono superare».
Molto più insidiosa, invece, è la resistenza culturale. «Il vero spartiacque non è tecnologico, ma umano. Se un’azienda non riesce a comunicare chiaramente il senso del cambiamento, se non costruisce fiducia intorno alla nuova direzione, anche il progetto più innovativo rischia di naufragare». E conclude: «In molte organizzazioni, esiste una conoscenza cristallizzata, sedimentata in anni di abitudini operative. Scardinarla richiede tempo, ma anche una comunicazione autentica e continua. La vera svolta parte da qui: dalla capacità di comprendere e far comprendere che anche il modo di accedere, interpretare e usare i dati sta cambiando».
La necessità di un cambiamento in chiave culturale e organizzativa trova del tutto d’accordo anche Giorgio Dossena di Qlik, convinto del fatto che un progetto AI ben impostato parte sempre dalle persone e che le sue probabilità di successo sia sempre e comunque una questione di ruoli e competenze. Nella visione di Qlik, la situazione ideale prevede una chiara distinzione di ruoli e responsabilità tra chi gestisce i dati sul piano tecnico e chi li interpreta in ottica business. Troppo spesso, però, queste funzioni molto diverse vengono accentrate in una sola figura, con il rischio di compromettere sia la comprensione delle reali esigenze sia la capacità di individuare soluzioni efficaci. Una governance efficace, al contrario, nasce dalla collaborazione tra competenze diverse, capaci di dialogare e costruire insieme un percorso solido di valorizzazione del dato. «Siamo un fornitore di tecnologia – spiega Dossena – ma siamo anche consapevoli che uno dei problemi principali che ostacolano le progettualità sia il change management. La responsabilità sul dato, la sua tracciabilità e l’ownership non sono ancora delle priorità per molti CIO e sulla qualità del dato spesso c’è confusione e approssimazione, ma la padronanza del dominio è invece fondamentale».
Lavorare con team strutturati – l’esempio a cui fa riferimento Dossena è proprio quello di RCS MediaGroup, passato da tre a oltre venti persone dedicate – è per contro il segnale che l’azienda investe davvero in cultura del dato. «L’intelligenza artificiale – spiega il manager di Qlik – ha senso solo se fa leva su fondamenta solide e su dati affidabili, su processi ben gestiti e un’organizzazione che sa come impiegare questo strumento. Ed è per questo che è necessario mettere le aziende in condizione di acquistare tecnologia in modo intelligente, solo dove serve e dove porta un ritorno reale, tanto più in un’era in cui si lavora prevalentemente in modalità as a Service e per un vendor è fondamentale indirizzare la scelta architetturale più idonea».
DENTRO LE AZIENDE
Coniugare una base dati solida con una chiara focalizzazione sui processi in cui applicare l’intelligenza artificiale non è semplice. Eppure, le difficoltà non hanno fermato le aziende più attente all’innovazione, che continuano a sperimentare e ad affinare i propri percorsi, cercando di definire razionali concreti per dare continuità e scalabilità ai progetti di AI. Per Simona Squaglia, global data scientist manager di Gi Group, importante agenzia per il lavoro, il punto di partenza non può che essere uno: «Per usare bene l’AI si parte dai dati». La sfida per un’azienda di servizi è creare una vista unica del cliente e di qualsiasi soggetto o elemento chiave da monitorare, organizzando tutte le informazioni in modo centralizzato e facilmente accessibile all’interno di un customer data hub. «Nel nostro caso – spiega la manager – due sono i soggetti rilevanti: i candidati e le aziende che cercano profili. L’idea di un hub di dati dedicato, è trasversale a ogni tipologia di business ed è su questa base solida che possono innestarsi tecnologie avanzate come l’intelligenza artificiale. Oggi parliamo di evoluzione tecnologica e di AI, ma senza una base dati completa e consistente, tutta le meravigliose potenzialità dell’AI non possono performare».
La fotografia di Squaglia descrive fedelmente lo stato delle cose nel nostro Paese per quanto riguarda l’adozione a scala dell’intelligenza artificiale. «Nel tessuto aziendale italiano il tasso di adozione dell’AI è nell’ordine del 25-30 per cento, nelle PMI si scende a percentuali bassissime. Perché? Perché in Italia siamo molto indietro nella messa a terra delle basi dati». Costruire un data lake con una governance in grado di servire tutte le funzioni aziendali è una delle sfide più complesse, ma anche tra le più strategiche. «Centralizzare le informazioni e renderle accessibili all’intera organizzazione è un obiettivo ambizioso, ma rappresenta il prerequisito per avviare progetti che sfruttano tecnologie avanzate come l’AI generativa». Non è però solo una questione di visione, ma di condizioni abilitanti. «Anche per applicazioni più consolidate, come il machine learning tradizionale o i modelli predittivi, non tutte le aziende sono pronte» – spiega Simona Squaglia di Gi Group. «Spesso mancano dati sufficienti, oppure le informazioni esistenti non sono strutturate, storicizzate o omogenee. Inoltre, molte imprese non hanno ancora digitalizzato i propri processi o le interazioni con stakeholder interni ed esterni, rendendo difficile raccogliere i dati necessari per alimentare l’innovazione guidata dall’AI». A queste criticità si aggiunge il tema della privacy, tutt’altro che secondario. «È un nodo delicato, che può diventare critico se non vengono rispettati i vincoli normativi. Per questo è fondamentale adottare una strategia privacy by design» – aggiunge Squaglia. «Solo così è possibile restare competitivi, anticipare i comportamenti di clienti e utenti, e non subire il cambiamento. La trasformazione richiede agilità, e i dati sono l’elemento chiave per governarla e rendere davvero efficace l’intelligenza artificiale».
Anche per Giuseppe Guarnuto, head of Data Governance & Quality di Plenitude, è fondamentale adottare un approccio strutturato, partendo dalla costruzione dell’infrastruttura e della cultura aziendale necessarie a supportare l’evoluzione data-driven. «Siamo partiti circa sei anni fa per creare un’area dedicata ai dati in azienda, con l’intento di puntare all’AI per migliorare prodotti e servizi offerti ai clienti. E ci siamo subito resi conto che senza le fondamenta, senza la governance e senza una platform dedicata sarebbe stato difficile mettere i modelli in produzione e successivamente scalarli». Da questa assunzione di consapevolezza prende forma il progetto di data transformation che oggi coinvolge tutta l’organizzazione. «Abbiamo combinato dati e informazioni in un processo di revisione data-driven dei processi in cloud, creando una piattaforma unica e dando modo a tutte le professionalità interne, data scientist compresi, di lavorare in sinergia e con i medesimi strumenti».
L’obiettivo di Plenitude è valorizzare la conoscenza come asset strategico, ponendola al centro dello sviluppo di nuovi modelli e progetti. Un traguardo che l’azienda sta raggiungendo grazie a una solida collaborazione tra le funzioni Data e le aree di business, guidata da un Center of Excellence che risponde direttamente al CIO. Questo centro ha il compito di definire e implementare standard, strumenti e pratiche di governance condivise, abilitando una trasformazione profonda che va oltre la tecnologia e coinvolge i modelli operativi, la cultura aziendale e la visione stessa di data governance. «Abbiamo integrato deontologia, semantica e responsabilità del dato all’interno di un data catalog accessibile a tutta l’organizzazione, favorendo l’autonomia operativa delle diverse funzioni di business» – spiega il responsabile della governance e della qualità dei dati di Plenitude. L’azienda ha già avviato l’introduzione dell’AI generativa con un approccio trasversale e consapevole, supportato da un framework condiviso che raccoglie i casi d’uso di interesse per tutte le aree aziendali per rendere la tecnologia accessibile, comprendere dove può generare valore e aumentare la produttività in modo diffuso. «La nostra visione – spiega Guarnuto – è accompagnare l’IT e il business verso un’eccellenza ingegneristica abilitata dall’AI, coinvolgendo l’intera popolazione aziendale e promuovendo un uso consapevole della tecnologia per massimizzarne i benefici».
IL FATTORE COMPETENZE
Nel nuovo scenario dell’intelligenza artificiale, il dato non è più un semplice numero archiviato in un database, ma un asset a tutti gli effetti, da trattare come un prodotto che ha valore e come tale va gestito. «Il rispetto del quadro regolatorio fissato da GDPR e AI Act è stato fino a oggi la spinta per innovare ma oggi la nostra missione è quella di proporre all’azienda una gestione del dato più a 360 gradi, costruendo una struttura in cui il dato correlato da tutte le informazioni semantiche diventa un asset di senso compiuto e di valore» – spiega Carla Molteni, data engineer – Data & AI Governance per il Country Data Office di Generali. L’obiettivo è far dialogare i dati provenienti da entità diverse secondo logiche coerenti e costruire una conoscenza condivisa, accessibile a tutti in modo democratico, all’interno di un marketplace centralizzato dove gestire i dati come prodotti.
«Vogliamo costruire un’ontologia di business che serva da base comune per tutte le attività aziendali e per l’applicazione dell’AI in ogni funzione, dal marketing alle risorse umane. Per farlo, investiamo in un percorso strutturato di change management e formazione, coinvolgendo anche chi non possiede competenze tecniche, affinché tutti possano comprendere e utilizzare questi strumenti in modo consapevole». Le risorse su cui Generali ha investito per traghettare questo obiettivo sono importanti e parliamo nello specifico di un centinaio di persone fra data engineer, data analyst e data scientist che si occupano di sviluppare progetti in ambito dati a stretto contatto con le aree di business. Risorse che stanno aiutando l’azienda a lavorare attivamente anche sul fronte dell’intelligenza artificiale generativa, sperimentandone l’adozione. «Il nostro compito – spiega Molteni – è definire le linee guida per un uso sicuro, integrato e coerente con l’intero ecosistema e nel rispetto dei requisiti previsti dall’AI Act».

A definire un utilizzo consapevole e regolato dell’AI, però, non ci sono solo le policy, ma anche l’esperienza maturata sul campo. È il caso di Intesa Sanpaolo, il cui rapporto con l’intelligenza artificiale nasce in tempi non sospetti, con la creazione di un laboratorio interno dedicato alla sperimentazione. Oggi, a distanza di anni e dopo un’evoluzione profonda, l’AI è diventata un asse portante del processo di trasformazione sia digitale e che organizzativa del Gruppo. «La nostra storia con l’intelligenza artificiale – racconta Federico Aguggini, head of AI Transformation, Data Science & Responsible AI – inizia nel 2017 con la creazione del Big Data Lab, un laboratorio dedicato alla sperimentazione. Da allora abbiamo consolidato un’organizzazione strutturata, guidata dal chief data & AI officer, che presidia ambiti strategici come la data governance, la data strategy e l’intelligenza artificiale, articolata a sua volta in due aree: una focalizzata sulla delivery dei progetti, l’altra sulla Responsible AI, tema oggi più che mai centrale». La svolta arriva nel dicembre 2022, quando il CEO di Intesa Sanpaolo lancia il programma AIxeleration trasformando il laboratorio in una vera e propria fabbrica dell’intelligenza artificiale. «Dopo un’analisi del valore generato dai progetti sviluppati fino a quel momento – prosegue Aguggini – il laboratorio si evolve in una struttura operativa, dove le idee prendono forma». La strategia di Intesa Sanpaolo punta a un’adozione diffusa, responsabile e democratica dell’AI in tutto l’ecosistema aziendale, attraverso un modello distribuito.
Al centro, un hub che armonizza dati e soluzioni. Intorno, una rete di spoke – tra cui i Democratic Data Lab – pensati per permettere ai team di business di esplorare ed effettuare test, sviluppando nuove competenze e soluzioni. «Questa architettura poggia su asset chiave: una governance solida, una rete che connette funzioni centrali e periferiche, e un sistema che integra competenze tecnologiche e regole di utilizzo consapevole dell’intelligenza artificiale». In questo scenario, l’intelligenza artificiale non è solo una questione di strumenti, ma prima di tutto di persone e cultura. «L’AI– osserva Federico Aguggini – ha un impatto trasversale sull’intera organizzazione, soprattutto in termini di competenze e risorse umane, che evolvono rapidamente».
Accanto allo sviluppo tecnologico, Intesa Sanpaolo investe in modo continuativo nella formazione e nella diffusione della consapevolezza, anche al di fuori dei confini aziendali, portando il racconto della trasformazione digitale nelle scuole e nelle imprese. «Siamo – e vogliamo essere – parte attiva di un ecosistema che investe in conoscenza» – afferma Aguggini. E sul rapporto tra AI e lavoro, ha un orientamento preciso che parafrasa un messaggio chiave lanciato dal fondatore di LinkedIn, Reid Hoffman: «L’intelligenza artificiale non ruberà il lavoro, ma lo farà a chi non saprà usarla».
Foto di Gabriele Sandrini
Point of view
Intervista a Giorgio David Jacchini, senior manager di Aubay Italia: AI Agentic e ROI
Intervista ad Andrea Zinno, data evangelist di Denodo: Tutto parte dai dati
Intervista a Giorgio Dossena, senior presales manager di Qlik: Le fondamenta dell’AI