Piergiorgio Tagliapietra, a capo dell’Application Engineering Thermal Management EMEA di Vertiv, analizza l’impatto dei workload AI sui requisiti di raffreddamento dei data center
L’AI ridefinisce il raffreddamento nei data center
I workload dell’intelligenza artificiale stanno evolvendo rapidamente, e con questa accelerazione emerge un cambiamento evidente nelle esigenze dei data center. In particolare, i sistemi di raffreddamento sono sottoposti a una crescente pressione per adattarsi a nuove condizioni di densità termica, concentrazione del calore e velocità di implementazione.
I sistemi di raffreddamento tradizionali, basati prevalentemente su tecnologie aerauliche, hanno garantito a lungo prestazioni affidabili. Oggi, però, la diffusione di rack AI ad alta densità — con singoli cabinet che consumano già tra i 30 e i 60 kW — sta spingendo questi approcci al limite. Le previsioni sono ancora più sfidanti: il consumo potrebbe salire a 300 – 600 kW e persino raggiungere 1 MW entro il 2030.
Una tale concentrazione di calore non può essere gestita unicamente con condizionatori ad aria, soprattutto nei data center tradizionali originariamente progettati per densità più contenuta rispetto alle richieste di oggi. Le strutture realizzate prima dell’attuale sviluppo dell’intelligenza artificiale spesso non dispongono né dello spazio necessario né della resistenza strutturale per ospitare le nuove infrastrutture digitali.
Per far fronte a queste sfide, gli operatori stanno aggiornando i sistemi di contenimento del freddo o del caldo, riconsiderando la disposizione degli spazi e valutando strategie di raffreddamento alternative, più in linea con le densità termiche emergenti.
Evoluzione dei sistemi di raffreddamento a liquido
Una delle direzioni intraprese dal settore è l’adozione di soluzioni ibride di raffreddamento, che combinano soluzioni a liquido che può essere anche diretto su chip.
In queste soluzioni ibride, il raffreddamento ad aria continua a servire i carichi a bassa intensità, mentre il raffreddamento a liquido gestisce i rack ad alta intensità di calcolo.
Questo modello offre vantaggi operativi, ma introduce anche nuove complessità. L’integrazione di circuiti a liquido nei data center — gestiti principalmente da team elettrici e meccanici — richiede nuove competenze specifiche, procedure di manutenzione dedicate e una collaborazione più stretta tra IT e facility management. Inoltre, anche i sistemi di controllo e monitoraggio devono essere aggiornati per riflettere i cambiamenti nel flusso di raffreddamento, i differenziali termici e i punti di vulnerabilità in tutta la struttura.
Gli esperti del settore dei data center osservano una crescente domanda di soluzioni termiche integrate in grado di adattarsi ai vincoli infrastrutturali e ai carichi di lavoro AI in continua evoluzione. Segno che il modello ibrido si sta trasformando da soluzione di nicchia in uno standard consolidato.
Il divario tra infrastruttura e innovazione
La velocità con cui l’AI evolve esercita pressioni anche sui tempi di implementazione. Se un nuovo modello può essere sviluppato in pochi mesi, l’aggiornamento dell’infrastruttura o la costruzione di un nuovo data center può richiedere anni. Questo divario sta alimentando l’interesse per soluzioni di raffreddamento installabili rapidamente, integrabili senza riprogettazioni complesse e scalabili in modo graduale.
I sistemi modulari, le unità a liquido autonome e i moduli di raffreddamento prefabbricati stanno guadagnando terreno, soprattutto negli ambienti edge e di colocation, dove il tempo e l’accesso sono limitati. Tuttavia, l’adozione varia a seconda della geografia, delle normative e della disponibilità di competenze specializzate.
In Europa, ad esempio, la revisione della normativa F-gas sta incidendo direttamente sulle scelte tecnologiche: dal 2025 i sistemi che utilizzano refrigeranti ad alto GWP saranno vietati nelle nuove installazioni. Negli Stati Uniti, incentivi regionali e obiettivi di efficienza energetica stanno guidando l’adozione di nuove soluzioni di raffreddamento. In diverse aree dell’Asia e del Medio Oriente, la scarsità di spazi e le condizioni climatiche stanno spingendo verso tecnologie capaci di garantire maggiore efficienza per metro quadrato.
I carichi di lavoro AI pongono anche rischi più sottili. La natura di queste applicazioni fa sì che il comportamento termico possa variare nel tempo, anche all’interno dello stesso rack. I workload di inferenza, in particolare, possono generare picchi imprevedibili. Se i sistemi non sono progettati per rispondere in modo dinamico, aumenta il rischio di surriscaldamenti localizzati o di usura accelerata delle apparecchiature. Questi scenari richiedono una telemetria ad alta risoluzione e logiche di controllo più intelligenti, a garanzia di affidabilità e continuità operativa.
Per questo motivo, molti operatori stanno rivalutando i processi di commissioning. I test basati su simulazione stanno diventando più diffusi per validare la risposta termica in diversi scenari operativi. Parallelamente, cresce l’interesse per il monitoraggio continuo delle prestazioni, in cui l’efficacia del raffreddamento viene valutata in parallelo all’attività dei workload.
Le aspettative sono in aumento
Il cambiamento in atto è tanto culturale quanto tecnico. La progettazione del raffreddamento non può più essere considerata una disciplina separata dalla potenza, dal software o dall’architettura e utilizzare il calore prodotto dagli impianti di condizionamento sta diventando essenziale per massimizzare l’efficienza complessiva del sistema. Per soddisfare le esigenze dell’infrastruttura AI, il pensiero sistemico sta diventando la norma: coinvolgimento anticipato dei professionisti del raffreddamento nella pianificazione dei progetti, maggiore integrazione tra design digitale e meccanica, e responsabilità condivisa per la resilienza del sistema a lungo termine.
Le competenze si stanno evolvendo di pari passo. Gli ingegneri termici sono ora chiamati a contribuire attivamente con le metriche di efficienza energetica, a partecipare alle discussioni sulla pianificazione del ciclo di vita dei sistemi informatici e a fornire indicazioni sull’impatto operativo delle scelte di design termico nel tempo.
L’AI sta cambiando le aspettative su tutta la linea: workload più densi, cicli di costruzione più brevi e condizioni termiche più variabili. L’industria del raffreddamento dispone di strumenti e delle competenze per rispondere a queste sfide e il successo dipenderà dalla collaborazione continua, dall’integrazione più rapida e dalla capacità di adattarsi a una logica infrastrutturale in costante evoluzione.
La gestione termica resta uno degli elementi più critici per il futuro dell’infrastruttura AI. Il suo ruolo è in espansione — e con esso, l’opportunità di guidare il cambiamento attraverso soluzioni più intelligenti e reattive.