A cura di Rick Vanover, Vice President of Product Strategy Veeam Software
Con tutto l’“hype” che lo circonda, l’AI può talvolta sembrare quasi una notizia già vista, visto che praticamente ogni organizzazione parla di come stia influenzando il proprio business. Ma oggi, gran parte di queste discussioni non rispecchia la realtà. Molte aziende, anche se difficilmente lo ammetterebbero, restano bloccate nella fase di sperimentazione. Secondo una ricerca dell’iniziativa NANDA del MIT, infatti, il 95% dei progetti pilota di AI fallisce, generando un impatto misurabile minimo o nullo. Più che fare un vero salto in avanti, la maggior parte delle organizzazioni sta cercando affannosamente di dimostrare il valore dell’AI, senza però la fiducia necessaria per innovare davvero.
Al centro di questa sfida c’è il dato. Le dimensioni, la complessità e la sensibilità delle informazioni necessarie per l’AI possono risultare intimidatorie, se non addirittura paralizzanti. Ed è comprensibile. In un mondo sempre più guidato dall’AI, accedere ai dati, gestirli e proteggerli è una sfida significativa, e le misure di resilienza esistenti spesso non sembrano all’altezza. Tuttavia, una corretta igiene dei dati resta fondamentale, e investire fin dall’inizio in visibilità e resilienza è l’unico modo per procedere con sicurezza. In caso contrario, si rischia di limitarsi a parlare di innovazione, senza riuscire davvero a metterla in pratica.
Riportare l’AI alla realtà
Con gran parte del dibattito sull’AI concentrato sul suo potenziale di trasformazione del business, è facile dimenticare l’elemento fondamentale da cui tutto dipende: i dati. Intelligenza artificiale generativa (GenAI), Large Language Model (LLM), rilevamento delle anomalie, modelli predittivi — qualunque sia la tecnologia, tutte si basano sui dati, vengono addestrate sui dati e generano nuovi dati.
È anche per questo che, solo quest’anno, a livello globale, si prevede la creazione, acquisizione, duplicazione e fruizione di 181 zettabyte di dati, una quantità tre volte superiore rispetto a cinque anni fa. Numeri di questa portata sono difficili da immaginare, ma il messaggio è chiaro: oggi le organizzazioni devono gestire una quantità di dati enormemente superiore rispetto a quella per cui erano state inizialmente progettate.
L’AI sta anche cambiando radicalmente le regole su quanta parte dei dati le aziende siano effettivamente in grado di utilizzare. Secondo Gartner, l’80% dei dati aziendali è non strutturato. Prima dell’AI, questo significava che la maggior parte di queste informazioni restava inutilizzata: dati da archiviare e proteggere, ma dai quali era praticamente impossibile estrarre valore. Con l’AI, però, questo scenario è completamente cambiato.
E questa quantità di dati cresce in modo esponenziale man mano che l’AI continua a evolversi. Oggi, quindi, la vera realtà dell’AI è che le organizzazioni faticano a orientarsi tra montagne di dati in continua espansione, nel tentativo di classificare e comprendere ciò che possiedono realmente. Se a questo scenario si aggiunge un progetto pilota di AI, diventa evidente perché così tanti programmi falliscano.
Di conseguenza, anche se le aziende vorrebbero poter affermare di avere policy sull’AI solide e ben definite, per molte lo shadow IT resta un problema molto concreto. I fallimenti dei progetti pilota finiscono per rallentare le organizzazioni, spingendo i dipendenti a sperimentare in modo informale con strumenti di AI non autorizzati. E questa situazione è destinata a protrarsi, a meno che le aziende non riescano a uscire dal “vortice” dei dati e a creare le condizioni per una vera innovazione basata sull’AI.
Costruire sulle giuste fondamenta
L’AI viene spesso presentata come l’inizio di una “nuova era”, ma, che lo si voglia o no, questa nuova fase deve poggiare sulle fondamenta di quella precedente. In altre parole, una corretta igiene dei dati resta tale anche nell’era dell’AI, e non c’è motivo di accantonare le misure di resilienza già esistenti.
Questo significa continuare a condurre valutazioni di impatto su tutti i dati. Perché il primo passo per orientarsi tra volumi di informazioni in costante crescita è capire esattamente che cosa si possiede. Solo così è possibile individuare quali dati siano davvero critici per l’organizzazione e trattarli di conseguenza. Ottenere questa visibilità è fondamentale per garantire la resilienza dei dati man mano che aumentano. In caso contrario, se dovesse verificarsi un incidente, non si saprebbe quali dati siano realmente necessari per ripristinare l’operatività, né quale sia l’ultimo stato valido da cui ripartire.
Questo non può essere un approccio “una tantum”. Il flusso di dati non accenna a rallentare ed è necessario mantenerne il controllo nel tempo. È quindi fondamentale che pratiche come la standardizzazione dei dati, la validazione e le valutazioni di impatto continue restino attive, per evitare che le organizzazioni vengano nuovamente sommerse dalla crescente mole di informazioni.
Idealmente, la maggior parte delle organizzazioni dovrebbe già disporre di queste misure. Per questo, non si tratta tanto di introdurre metodi completamente nuovi per sbloccare il potenziale dell’AI, quanto piuttosto di estendere e rafforzare ciò che è già in essere. Mettere solide fondamenta deve essere la prima vera priorità.
Perché la realtà è che l’AI può essere di grande aiuto proprio in questo lavoro preliminare. Può supportare la classificazione dei dati, migliorare la tracciabilità (data lineage) e rafforzare le misure di resilienza. In un certo senso, il primo progetto di AI dovrebbe essere semplicemente quello di prendersi cura dei propri dati. Se lasciamo che l’AI si occupi dei dati, saranno poi i dati a prendersi cura dell’AI.
Stabilire un reale senso di controllo sui propri dati è essenziale non solo per costruire fondamenta solide, ma anche per acquisire la fiducia necessaria a innovare davvero con l’AI e a realizzare progetti pilota che funzionino concretamente.
Non correre prima di saper camminare
Sembra ovvio, ma la soluzione è semplice in linea di principio: partire in piccolo. Non serve inventare la prossima grande novità; è sufficiente dimostrare che la propria organizzazione può innovare e generare valore pur mantenendo il controllo.
Invece di reinventare la ruota, conviene iniziare con un’iniziativa gestibile, dove l’AI possa aggiungere valore in modo sicuro e mostrare risultati concreti. Una volta ottenuti questi primi successi, non solo costruirete fiducia in voi stessi, ma dimostrerete anche all’intera organizzazione che l’innovazione è possibile. Solo allora sarà il momento di passare ad applicazioni più grandi e trasformative.
È quindi fondamentale tornare alle basi. Assicuratevi che il costo di creazione, le prestazioni e la resilienza del vostro modello AI siano tutti allineati. Altrimenti, non sarà possibile costruire processi aziendali intorno ad esso senza compromettere la resilienza. Ad ogni passo, dovreste essere in grado di spiegare chiaramente i processi; e nel momento in cui ciò non è più possibile, è il segnale per fermarsi e tornare indietro prima che la situazione sfugga al controllo.
Partire in piccolo è fondamentale per superare quella paura del fallimento che trattiene molte organizzazioni dal valorizzare davvero i propri dati e dall’utilizzare l’AI per generare reale valore trasformativo per il business. Allo stesso tempo, è importante mantenere una piccola dose di questa paura lungo tutto il processo, per preservare l’equilibrio cruciale tra controllo e innovazione e garantire la resilienza. Solo così si può davvero “parlare e agire” con l’AI, dimostrando risultati concreti.


































