Le imprese devono iniziare oggi a costruire una piattaforma dati per l’intelligenza artificiale capace di generare valore nel tempo
A cura di Marco Zacchello, Global Principal, Global Technical Sales di Equinix
Nel mettere a punto la propria strategia di intelligenza artificiale, le imprese devono fare i conti con un livello di incertezza ancora elevato. Non è sempre chiaro quali casi d’uso diventeranno davvero prioritari, né come andranno scalati i singoli workload: dove saranno allocate le risorse, quanto cresceranno e quale sarà l’impatto sui costi. Anche il perimetro dei partner con cui costruire l’ecosistema, tra cloud, GPUaaS, neocloud e fornitori specializzati, è spesso in evoluzione, così come la tecnologia stessa, destinata a cambiare rapidamente. Ma l’incognita più critica resta una: i dati. Molte organizzazioni non hanno ancora piena visibilità su dove si trovino, quali siano effettivamente adatti all’uso con l’intelligenza artificiale e quali passaggi servano per renderli davvero “AI-ready”.
Intanto, in questo periodo di incertezza, la filiera del computing è sotto stress, costi e tempi di approvvigionamento che esplodono, l’high-performance computing per l’intelligenza artificiale resta specializzato e ulteriormente costoso da implementare, con l’aggiunta di una necessità di maggiore potenza elettrica e raffreddamento avanzato. Per questo molte aziende iniziano sperimentando in un cloud pubblico e, in base alle esigenze, spostano i carichi su provider GPU as a Service (GPUaaS) o neocloud. In qualunque configurazione, però, il computing non produce valore in assenza di dati giusti, disponibili dove servono e con prestazioni adeguate.
La soluzione? Costruendo la giusta data architecture, ci si può assicurare di essere pronti a un futuro dove poter supportare dataset massivi provenienti da fonti dati distribuite, indipendentemente dalla natura o dalla posizione esatta di quei dati.
In che modo l’intelligenza artificiale ha cambiato l’infrastruttura?
Un aspetto cruciale di cui tenere conto in questo percorso è che l’avvento dell’intelligenza artificiale generativa e agentica sta costringendo le imprese a rivalutare il modo in cui gestiscono la propria infrastruttura digitale, incluse le piattaforme dati e l’infrastruttura di rete. Per anni, i leader IT hanno compreso che un’architettura dei dati centralizzata rende più difficile utilizzare i dataset giusti nei posti giusti. Tuttavia, grazie alla crescente adozione dell’intelligenza artificiale, il supporto ai dati distribuiti non è più un “nice to have”: è diventato un fattore necessario.
Molti casi d’uso dell’intelligenza artificiale si basano su grandi volumi di dati, e si può ragionevolmente supporre che questi dataset cresceranno ancora di più in futuro. Con workload AI nativamente distribuiti, le aziende devono spostare rapidamente i dati tra Systems of record, grandi archivi di dati non strutturati e risorse di colcolo per l’inferenza in sedi diverse. Se i flussi dati attraversano connessioni inaffidabili o a bassa capacità, la latenza può compromettere prestazioni e user experience. Per evitare tutto questo, le imprese devono costruire e mantenere una piattaforma dati ottimizzata per l’intelligenza artificiale.
Che cos’è un’AI data platform?
Un’AI data platform è l’insieme di software, hardware e architettura di rete globale con cui un’organizzazione identifica, prepara e utilizza i dati lungo la propria infrastruttura AI distribuita.
Include attività come: protezione dei dati sensibili, deduplicazione dei dataset, salvataggio nei sistemi e nelle sedi corrette, governance e compliance, consolidamento selettivo per limitare la “data sprawl” e federazione dell’elaborazione dei dati quando devono restare distribuiti. Per funzionare, richiede una rete agile, sicura e ad alte prestazioni, oltre al posizionamento dei componenti chiave dell’inferenza in hub distribuita livello regionale, così da ridurre colli di bottiglia e accelerare l’uso dei dati da parte di agenti AI.
Quali sono gli elementi chiave di una piattaforma dati ideale?
Costruire un’AI data platform a prova di futuro significa definire una strategia per la sovranità dei dati. Le imprese devono potersi connettere con i partner, utilizzare o condividere dati in modo sicuro e conforme ovunque essi risiedano, e sfruttare diversi modelli infrastrutturali in base alla maturità del workload. E, ovviamente, devono fare tutto ciò mantenendo piena custodia, controllo e osservabilità sui propri dati.
Con l’AI agentica cresce anche il numero di partner coinvolti (cloud, GPUaaS, provider di modelli, SaaS, supply chain, marketplace dati) e ogni spostamento verso ambienti esterni può aumentare il rischio di perdere controllo, soprattutto in un quadro normativo in continua evoluzione. Per superare queste difficoltà, le imprese possono mettere in atto l’approccio dell’authoritative data core, che consente di mantenere i dataset “autorevoli” in un ambiente di storage privato e interconnesso, sotto pieno controllo dell’impresa. Quando si presenta la necessità di spostare i dati nel cloud o verso altri partner dell’ecosistema, questo metodo consente di creare delle copie temporanee dei dati per poi cancellarle a fine utilizzo, riducendo complessità e costi di egress. Non un unico silos, quindi, ma più ambienti di storage collegati e posizionati vicino a cloud provider e partner.
Queste funzionalità consentono alle aziende di utilizzare dati compatibili con l’IA ovunque ne abbiano bisogno, oggi come in futuro. Infatti, anche se il networking non è sempre una priorità nella pianificazione dell’IA, è proprio una connettività affidabile e ad alte prestazioni alle risorse IA distribuite che, in ultima analisi, consente all’IA di scalare ed evolversi in tutta l’organizzazione.


































