L’esplosione dell’AI sta cambiando radicalmente il modo in cui progettiamo, realizziamo e gestiamo le infrastrutture critiche del data center. Non si tratta di una semplice evoluzione tecnologica, ma di una trasformazione strutturale che investe architetture, modelli energetici, competenze e servizi. Oggi si tende a non parlare semplicemente di data center, ma di AI Factory: infrastrutture che funzionano come una grande unità di calcolo, progettata per processare in tempo reale le richieste legate all’intelligenza artificiale, con livelli di densità e potenza molto più elevati rispetto al passato. Nel documento un’analisi di Vertiv
Di Andrea Faeti, Sales Director Enterprise Accounts di Vertiv per l’Italia
Dalla logica del Data Center al paradigma dell’AI Factory
L’AI sta portando, dal punto di vista tecnologico, una vera e propria rivoluzione nel mondo dei data center. Se il data center tradizionale nasceva per ospitare molteplici applicazioni, servizi e clienti diversi, con workload eterogenei e distribuiti, l’AI Factory si configura invece come una grande unità di elaborazione integrata, progettata per processare enormi quantità di dati in tempo reale.
Questo cambio di paradigma modifica completamente i criteri di progettazione. Non si dimensiona più lo spazio in funzione del numero di rack o della superficie disponibile, ma in funzione della potenza di calcolo richiesta e della densità energetica che essa comporta. La crescita esponenziale delle applicazioni di machine learning e deep learning comporta un aumento altrettanto significativo della potenza elettrica necessaria per alimentare GPU e acceleratori sempre più performanti.
Densità energetica e sfide infrastrutturali senza precedenti
Da un lato, quindi, si assiste a un incremento importante delle potenze elettriche installate; dall’altro, emerge il tema cruciale dell’efficienza energetica. Se in passato la crescita di un data center era spesso associata a un’espansione fisica della struttura, oggi la tendenza è opposta: le infrastrutture diventano relativamente più compatte, ma estremamente più dense. In pochi metri quadrati si concentra una quantità di potenza e calore che fino a pochi anni fa sarebbe stata impensabile. Questo comporta nuove e complesse sfide dal punto di vista infrastrutturale.
Uno degli aspetti più evidenti di questa trasformazione riguarda l’aumento della densità per rack, normalmente misurata in kilowatt per rack. Se fino a qualche anno fa si parlava di pochi kilowatt o di qualche decina di kilowatt per armadio, oggi siamo già nell’ordine delle centinaia di kilowatt, con prospettive che guardano al megawatt per singolo rack nei prossimi anni. È un salto dimensionale enorme.
Dal raffreddamento ad aria al liquid cooling: il cambio di paradigma
A un megawatt di potenza IT corrisponde un megawatt di alimentazione elettrica e un megawatt di calore da dissipare. La sfida è quindi duplice: portare in modo sicuro ed efficiente l’alimentazione a questi sistemi e, allo stesso tempo, estrarre il calore generato in maniera affidabile.
Con questi livelli di densità, il raffreddamento ad aria mostra i suoi limiti. La risposta tecnologica è il raffreddamento a liquido. In realtà non si tratta di una tecnologia completamente nuova: il principio è lo stesso che utilizziamo da decenni nei motori delle automobili. Tuttavia, applicare il liquid cooling all’interno di un ambiente ricco di componenti elettroniche comporta sfide significative in termini di progettazione, sicurezza, gestione e manutenzione.
Ammodernare senza fermarsi: l’evoluzione delle infrastrutture esistenti
Molte aziende, inoltre, devono affrontare questa trasformazione senza poter interrompere l’operatività. Devono ammodernare infrastrutture esistenti, spesso progettate per carichi molto inferiori, integrando nuove tecnologie ad alta densità. In questo contesto diventano fondamentali le soluzioni prefabbricate e modulari, che consentono rapidità di implementazione, scalabilità e resilienza.
La modularità permette di lavorare in parallelo su più fronti: mentre si prepara il sito, si possono realizzare moduli prefabbricati in fabbrica, già collaudati, da installare successivamente in tempi ridotti. Questo riduce drasticamente il time-to-market e i rischi legati alle attività in campo. Inoltre, le soluzioni modulari consentono di aumentare progressivamente la capacità, ad esempio aggiungendo moduli di potenza esterni, senza dover stravolgere l’infrastruttura esistente.
In ambito enterprise, la possibilità di sfruttare le infrastrutture già presenti è un elemento strategico. Attraverso soluzioni ibride e sistemi di distribuzione avanzati, è possibile integrare il raffreddamento a liquido e aumentare la potenza disponibile, mantenendo la continuità operativa. Questa flessibilità rappresenta una delle tendenze più rilevanti del momento.
Sostenibilità ed efficienza energetica nell’era dell’AI
Un altro tema centrale è quello della sostenibilità. L’aumento delle potenze installate rende imprescindibile un’attenzione estrema all’efficienza energetica, all’ottimizzazione dei consumi e all’integrazione con fonti rinnovabili. Non si tratta solo di ridurre i costi operativi, ma di rispondere a requisiti normativi, obiettivi ESG e aspettative sempre più stringenti da parte del mercato.
Costruire un’AI Factory oggi significa integrare fin dall’inizio competenze multidisciplinari: elettriche, meccaniche, digitali, energetiche. Ma non basta costruire: occorre anche gestire nel tempo. Le performance di affidabilità e sostenibilità devono essere mantenute lungo tutto il ciclo di vita dell’infrastruttura.
Evoluzione dei servizi, dalla manutenzione preventiva alla manutenzione predittiva
Proprio per questo stanno emergendo nuovi servizi. L’introduzione del liquido direttamente a contatto con i server, ad esempio, richiede competenze specifiche di natura idraulica e meccanica che prima erano marginali nel perimetro IT. Cambiano le procedure, cambiano i protocolli di sicurezza, cambia l’approccio alla manutenzione.
Si sta passando da una manutenzione prevalentemente preventiva a una manutenzione predittiva, basata sull’analisi dei dati raccolti dai sistemi. Sensori, piattaforme di monitoraggio e strumenti di intelligenza artificiale consentono di individuare anomalie prima che si traducano in guasti, ottimizzando gli interventi e riducendo i tempi di fermo. Questo approccio aumenta l’affidabilità complessiva e contribuisce a migliorare l’efficienza operativa.
Nuove competenze per gestire infrastrutture ad alta complessità
In definitiva, l’era dell’AI sta ridefinendo il concetto stesso di data center. Le AI Factory non sono solo edifici pieni di server, ma ecosistemi tecnologici altamente integrati, progettati per sostenere carichi estremi, garantire resilienza e operare in modo sostenibile. La sfida non è soltanto tecnologica, ma culturale e organizzativa: richiede nuove competenze, nuovi modelli di collaborazione e una visione strategica capace di anticipare un’evoluzione che corre a una velocità senza precedenti, per un settore, quello del data center che, come mai oggi, rappresenta il cuore pulsante dell’innovazione digitale.
Per ulteriori informazioni consultare www.vertiv.it.


































