Oltre la metà delle aziende italiane non considera i propri dati pienamente affidabili, mettendo a rischio l’accuratezza delle soluzioni di intelligenza artificiale
Il 78% dei dirigenti sente una pressione crescente nel trasformare i dati in maggior valore per il business. La nuova edizione del report State of Data and Analytics di Salesforce, rivela che il principale ostacolo resta la qualità delle informazioni: dati incompleti, obsoleti o non coerenti. Il divario tra le esigenze delle aziende e la reale disponibilità di dati affidabili diventa sempre più critico nell’era dell’intelligenza artificiale agentica. Se da un lato i le organizzazioni vedono nell’AI una leva per ottenere insight e migliorare la produttività, dall’altro i responsabili tecnici sono consapevoli che serve un nuovo approccio alla gestione e all’analisi dei dati.
Per colmare questo divario, i leader più scrupolosi si stanno concentrando su alcuni aspetti fondamentali: disporre di dati aggiornati e completi, rafforzare la governance e adottare architetture zero copy che permettano di accedere alle informazioni ovunque si trovino, senza duplicazioni. Allo stesso tempo, si stanno aprendo a soluzioni emergenti come l’agentic analytics, che consente di ottenere insight attendibili in tempo reale sui vari processi aziendali.
“Le esperienze fatte nelle fasi iniziali di adozione dell’intelligenza artificiale offrono una guida per le aziende che vogliono diventare davvero agentiche, dove persone e agenti intelligenti collaborano in modo integrato”, spiega Michael Andrew, Chief Data Officer di Salesforce. “Dati affidabili, coerenti e contestualizzati sono la chiave di tutto. Le imprese pronte ad agire su larga scala devono ora consolidare le fondamenta necessarie per sfruttare in sicurezza tutto il potenziale dell’AI e generare valore concreto e misurabile”.
Le infrastrutture di dati faticano a tenere il passo con le esigenze aziendali
Quasi la metà dei dirigenti (46%) considera la propria organizzazione data-driven. Tuttavia, una percentuale analoga (53%) ammette di non riuscire a sostenere efficacemente le priorità strategiche attraverso i dati, segno di un divario tra percezione e realtà.
- Solo il 45% dichiara di poter generare informazioni tempestive e in modo affidabile, mentre il 46% dei responsabili dei dati e dell’analisi afferma che nelle proprie aziende vengono tratte, almeno occasionalmente, conclusioni errate a causa di informazioni fuori contesto.
Dati di scarsa qualità frenano l’evoluzione verso modelli aziendali “agentici”
L’intelligenza artificiale è diventata rapidamente la principale priorità in ambito dati e, al tempo stesso, il più grande banco di prova per le infrastrutture esistenti. In Italia, le funzionalità di AI sono passate dal settimo posto tra le priorità del 2023 al terzo nel 2024, subito dopo l’accesso ai dati in tempo reale e la diffusione della cultura del dato.
- Il 66% dei responsabili dei dati e dell’analisi sente la pressione di implementare rapidamente l’AI, ma quasi la metà (48%) non si fida pienamente dell’accuratezza e della pertinenza dei risultati prodotti, complice la frammentazione e l’obsolescenza dei dati.
- Pur riconoscendo in teoria (86%) che la qualità dei risultati dell’AI dipende direttamente dalla qualità dei dati, i responsabili stimano che il 31% delle informazioni aziendali non sia del tutto affidabile.
Le conseguenze sono tangibili:
- l’85% di chi utilizza l’AI in produzione ha riscontrato risultati imprecisi o fuorvianti;
- oltre la metà (51%) ammette di aver sprecato risorse significative a causa di dati errati utilizzati per addestrare o ottimizzare i modelli.
Anche i dati migliori non servono se restano bloccati nei silos
Quasi nove responsabili su dieci (88%) riconoscono che per soddisfare le aspettative dei clienti è fondamentale avere dati unificati. Tuttavia, la situazione è complessa: in media, un’azienda utilizza 897 applicazioni diverse, ma solo il 29% di queste comunica realmente tra loro. Questo significa che la maggior parte delle applicazioni non scambia informazioni in modo integrato, creando “isole” di dati separati e rendendo difficile ottenere una visione unica e completa del cliente.
Questo livello di frammentazione causa una forte dispersione delle informazioni, rendendone difficile o impossibile l’accesso.
- In media, il 16% dei dati aziendali risulta isolato o inutilizzabile.
- Il 62% dei responsabili ritiene che proprio in quel 16% siano contenute le informazioni commerciali più preziose.
Questo causa la riduzione dell’efficacia dei modelli di AI, visione incompleta dei clienti, personalizzazione limitata e opportunità di business mancate.
I responsabili tecnici rivedono approcci e strumenti per garantire accesso e sicurezza
Per superare il problema dei dati intrappolati, quasi la metà delle aziende (49%) sta adottando l’integrazione zero copy, che consente di accedere ai dati presenti in diversi sistemi senza doverli spostare o duplicare. I risultati si vedono: le organizzazioni che hanno implementato questo approccio hanno il 44% di probabilità in più di disporre di un’integrazione dei dati eccellente e il 118% di probabilità in più di avere successo nelle iniziative di AI.
Un’altra leva è rappresentata dalle interfacce in linguaggio naturale, come l’agentic analytics, che semplificano l’accesso ai dati e migliorano la data literacy: il 57% dei responsabili riconosce che tradurre domande di business in query tecniche è un passaggio critico e soggetto a errori, mentre il 96% dei leader aziendali ritiene che otterrebbe risultati migliori se potesse interrogare i dati direttamente in linguaggio naturale.
Governance e sicurezza sono le basi per una gestione dei dati più evoluta: solo il 42% dei responsabili ha già definito un quadro formale di governance dei dati, ma il 90% concorda sul fatto che l’AI imponga nuovi approcci alla sicurezza e alla gestione delle informazioni.
“La vera trasformazione si realizza quando dati e AI procedono insieme”, conclude Andrew. “Dati solidi forniscono all’intelligenza artificiale il contesto necessario per operare, e l’AI, a sua volta, aiuta le aziende a valorizzare i propri dati. Chi saprà integrare queste due dimensioni passerà con successo dalla sperimentazione all’impatto concreto”.


































