L’intelligenza artificiale sta rivoluzionando il data center. È ora che il settore se ne renda conto

L’intelligenza artificiale non sta solo mettendo alla prova i limiti dell’infrastruttura dei data center odierni, ma li sta mettendo a nudo. L’AI rappresenta un cambiamento fondamentale nelle esigenze di alimentazione, raffreddamento e rapidità di implementazione. Il settore deve adottare un nuovo modo di pensare, implementare sistemi integrati e modelli di realizzazione accelerati per non perdere terreno

A cura di Jon Abbott, Technology Director Global Strategic Clients di Vertiv

C’è una dura verità che il settore dei data center deve affrontare: l’infrastruttura che abbiamo perfezionato negli ultimi 20 anni non è adatta alle esigenze dell’AI. L’AI non è solo un altro workload ad alte prestazioni, è un comparto a sé stante e le richieste che pone in termini di alimentazione, raffreddamento e tempi di implementazione stanno stravolgendo lo status quo dei data center.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Ciò che rende l’AI così rivoluzionaria non è semplicemente la potenza di calcolo che richiede, ma il modo in cui concentra tale richiesta. Un singolo rack può ora assorbire 30 kW, 40 kW o persino 60 kW. Un livello di densità del genere era un tempo impensabile al di fuori degli ambienti di elaborazione specializzati e ad alte prestazioni (HPC). Oggi sta diventando la norma e la maggior parte delle strutture esistenti semplicemente non è stata progettata per gestire questi workload.

Le power chain stanno raggiungendo i propri limiti. I sistemi di distribuzione progettati per soddisfare carichi più prevedibili stanno lottando con la volatilità introdotta dall’AI e i modelli di ridondanza sono sotto pressione. Anche i gruppi di continuità (UPS) vengono rivalutati non solo come backup passivi, ma anche come potenziali risorse interattive con la rete in grado di supportare strategie di resilienza sia a livello di struttura che di rete.

Leggi anche:  OVHcloud presenta Public VCF as-a-Service

Anche il raffreddamento è a un punto di svolta. L’aria da sola non è più sufficiente. Il settore ha sperimentato il liquid cooling per anni, ma ora è una necessità. Quello che sta emergendo è un modello basato su sistemi ibridi: il raffreddamento a liquido viene riservato ai componenti più caldi, mentre l’aria continua a essere impiegata per il resto dell’infrastruttura. Tuttavia, questo approccio non può essere semplicemente integrato a posteriori. Aggiungere un circuito di liquid cooling alle infrastrutture legacy ottimizzate per l’aria semplicemente non funzionerà. Potrebbe introdurre punti ciechi nel monitoraggio termico, creare ulteriore stress sull’infrastruttura di supporto e causare più danni che benefici senza un’attenta integrazione.

Vertiv collabora con partner quali Intel e Nvidia per sviluppare strategie che trattino questi sistemi non come sfide ingegneristiche separate, ma come parti interdipendenti di un insieme. Dalle piattaforme integrate di alimentazione e raffreddamento ai percorsi di implementazione co-progettati, l’attenzione si sta spostando verso un approccio sistemico completo. Un cambiamento di mentalità atteso da tempo.

Il problema principale, tuttavia, è legato ai tempi. Lo sviluppo dell’intelligenza artificiale procede in pochi mesi. La realizzazione dei data center richiede anni. Questa pressione sta diventando difficile da gestire. I modelli di costruzione tradizionali – costruzioni personalizzate, ampliamenti graduali, approvvigionamenti sequenziali – semplicemente non riescono a stare al passo. Questo è il motivo per cui stiamo assistendo a un forte aumento dei sistemi modulari, prefabbricati e strettamente integrati. Non solo perché consentono di risparmiare denaro, ma anche perché fanno risparmiare tempo prezioso: riducono il numero di appaltatori, riducono il rischio di interconnessione e rendono la capacità operativa più rapidamente.

Leggi anche:  Cisco: al via “Programma in Rete”, il laboratorio virtuale per imparare a programmare

Soluzioni come Vertiv PowerNexus, che combina UPS, dispositivi di commutazione e sistemi di controllo in un’unica piattaforma testata in fabbrica, stanno fornendo un contributo fondamentale a questo cambiamento. Stiamo assistendo a una drastica riduzione dei tempi di implementazione da parte dei clienti e, allo stesso tempo, a un miglioramento dell’affidabilità, poiché gran parte della complessità è stata assorbita in fase di progettazione.

Ma la vera sfida è di natura culturale. Gran parte del settore continua a trattare l’AI come un best case speciale, qualcosa che può essere inserito nei sistemi esistenti con qualche modifica e un budget leggermente superiore. Questo è un errore. I requisiti fisici dell’AI sono fondamentalmente diversi. Il profilo di rischio è diverso. Anche gli aspetti economici sono diversi.

Non è possibile gestire l’AI allo stesso modo in cui si pianificano i workload tradizionali. Non è possibile separare la progettazione dell’alimentazione dal design termico. Non è possibile rimandare decisioni importanti fino al termine del ciclo di approvvigionamento. Gli operatori che oggi hanno successo sono quelli che stanno adottando un modello diverso, più veloce, più integrato e decisamente orientato al futuro.

Questo cambiamento richiede anche che si guardi oltre la struttura stessa. Gli operatori stanno assumendo sempre più il ruolo di fornitori di energia, non solo di consumatori. I sistemi UPS vengono utilizzati per il bilanciamento della rete. Le micro-reti, le celle a combustibile e le energie rinnovabili stanno diventando parte integrante della strategia tradizionale, non più solo progetti scientifici. Tutto ciò sta costringendo a ripensare la logica degli approvvigionamenti: acquistare per garantire flessibilità, realizzare strutture in grado di adattarsi al cambiamento e pianificare in funzione della variabilità.

Leggi anche:  AI Agent in azienda: una nuova forza lavoro digitale?

Perché la verità è questa: se la nostra infrastruttura è stata progettata per la scorsa generazione di workload, non è pronta per affrontare le nuove sfide. E non c’è più tempo per sostenere il contrario.

Il data center AI-scale non sta arrivando: è già qui. E a meno che il settore non sia pronto a ripensare le regole – dal ciclo di costruzione alle strategie di raffreddamento, dall’architettura energetica agli approvvigionamenti – rischia di rimanere definitivamente indietro.

L’AI non sta solo mettendo alla prova i limiti delle infrastrutture, ma li sta ridefinendo. E prima lo accetteremo, meglio saremo preparati a realizzare ciò che verrà dopo.