Gen AI e governance dei dati, la sinergia tra IT e business

Business più agile, il CIO in prima linea

Intelligenza artificiale generativa, guida ai quattro imperativi per una data governance efficace: policy aggiornate, qualità dei dati, processi e revisione delle architetture

Con l’adozione crescente dell’intelligenza artificiale generativa e dei modelli linguistici avanzati, i dati diventano l’asset più critico, rendendo la data governance una priorità. Gli esperti si confrontano sulle strategie per ottimizzare la gestione dei dati e massimizzare le opportunità di business, garantendone sicurezza e qualità. Il cambiamento coinvolge direttamente i CIO che devono guidare l’implementazione di policy di utilizzo, la creazione di fonti di masterdata e definire ruoli chiave come il chief data officer, i data owner e i data steward. Secondo Tendü Yogurtçu, CTO di Precisely, la governance è direttamente proporzionale all’integrità. La data governance mira a garantire che i dati siano gestiti in modo efficace, sicuro e conforme alle normative.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Isaac Sacolick, presidente di StarCIO delinea quattro imperativi fondamentali per i team di data governance. Il primo imperativo riguarda l’aggiornamento delle politiche di utilizzo dei dati. Con l’introduzione di strumenti di intelligenza artificiale in grado di generare contenuti a partire dai dati esistenti, è fondamentale garantire che le policy siano adeguate. Questo per evitare la produzione di risultati non affidabili, non etici o illegali. In sostanza, occorre assicurarsi che gli strumenti di intelligenza artificiale siano alimentati con dati appropriati e di alta qualità. Il secondo imperativo riguarda l’accelerazione delle iniziative di data quality. La qualità dei dati diventa cruciale quando si utilizzano modelli di intelligenza artificiale generativa. È essenziale garantire che i dati siano accurati, completi e coerenti per ottenere risultati affidabili. Ciò richiede un impegno costante nell’identificare e risolvere eventuali problemi di qualità dei dati prima che influenzino i modelli di intelligenza artificiale.

Leggi anche:  Reti di dati, un ruolo in evoluzione: da commodity a protagonista della trasformazione digitale

Il terzo imperativo consiste nella revisione delle architetture di gestione dei dati per rendere i dati più accessibili, scalabili e interoperabili. Questo permette di facilitare il monitoraggio e il controllo dei flussi di dati tra le diverse fonti e destinazioni, garantendo una gestione efficace e sicura dei dati nell’ambiente aziendale. Infine, il quarto imperativo sottolinea l’importanza di estendere la gestione dei dati ai processi di intelligenza artificiale generativa. Per la creazione, la validazione, il rilascio e la manutenzione dei modelli occorre definire chiaramente responsabilità, metriche e procedure. In questo modo, è possibile assicurare trasparenza, tracciabilità e conformità dei processi e dei risultati. Secondo Ryan Snyder, CIO di Thermo Fisher Scientific, i dati sarebbero come una «layer cake» composta da quattro strati. Al primo livello troviamo la visione strategica di business che comprende la mappatura delle idee. Poi c’è lo strato consumabile, dove si decide come i clienti, interni ed esterni, possono accedere e utilizzare i dati, per esempio, selezionando gli strumenti di visualizzazione. L’architettura rappresenta lo stato più complesso e coinvolge IT e business nella presa di decisioni sulla governance dei dati. E per finire, lo strato di dati grezzi, dove i dati acquisiti dai vari sistemi sorgente, vengono acquisiti, organizzati e resi sicuri per ulteriori analisi e applicazioni. In pratica, invece di parlare di “stack tecnologici”, il concetto di “layer cake” sposta la discussione sui dati dall’ambito puramente IT all’intersezione tra business e tecnologia.

In sostanza, la metafora della torta a strati evidenzia l’importanza di integrare la tecnologia nei processi aziendali in modo strategico e mirato. In altre parole, anziché concentrarsi solo sugli aspetti tecnici dei dati, si considera anche come essi possano essere integrati. Ogni strato riflette un elemento cruciale del processo, fornendo una base solida per la gestione dei dati e le esigenze operative, come il miglioramento del processo di discovery oppure il monitoraggio delle prestazioni. Questi strati sono poi collegati con soluzioni tecnologiche specifiche, come gli strumenti di visualizzazione per ottimizzare l’analisi e l’utilizzo delle informazioni disponibili. Con il modello “layer cake”, il business guida i livelli superiori e l’IT quelli inferiori, suggerendo che le decisioni partono dall’alto, cioè dal business, e scendono al livello operativo, con il coinvolgimento dell’IT per l’attuazione pratica.

Leggi anche:  Le aziende prevedono che la quota di fatturato generato da attività legate al software quadruplicherà entro il 2030