Due nuovi sistemi ad alta efficienza energetica spingono Cisco oltre i limiti del networking multi-data center, con un taglio dei consumi del 65% e una protezione integrata lungo tutta la rete
L’addestramento dei modelli più avanzati di intelligenza artificiale richiede investimenti colossali in infrastruttura hardware. Parliamo di server ad altissima potenza, equipaggiati con decine di migliaia di GPU e quantità monumentali di memoria, indispensabili per elaborare l’enorme mole di dati che “nutre” l’intelligenza dei modelli. Secondo diverse stime, l’addestramento di GPT-4 di OpenAI avrebbe superato i 100 milioni di dollari, per processare migliaia di miliardi di parole. Per GPT-5 non esistono cifre ufficiali, ma analisi accademiche indicano che entro il 2027-2028 il costo di addestramento dei modelli di punta potrebbe sfondare la soglia del miliardo di dollari. In questo scenario, la potenza di calcolo non è l’unico fattore critico. Anche il networking gioca un ruolo decisivo, perché i dati devono fluire a velocità estreme per alimentare in tempo reale le schiere di processori impegnate nell’addestramento dell’IA.
Silicon One P200
Cisco, da sempre protagonista assoluta nel campo del networking, si conferma leader anche nella progettazione di chip di rete di nuova generazione, componenti essenziali per le aziende che devono gestire enormi volumi di dati e costruire data center iperscalabili. Big tech e colossi del cloud si affidano a reti estremamente performanti per sostenere i propri flussi di dati, ma l’addestramento dei modelli di intelligenza artificiale impone un livello di complessità ancora superiore. È in questo contesto che Cisco presenta P200, un nuovo chip della famiglia Silicon One – architettura hardware e software capace di gestire sia le funzioni di routing – l’instradamento dei dati tra reti differenti – che di switching – lo scambio di pacchetti all’interno di una singola rete o data center. Progettato specificamente per i carichi di lavoro AI, P200 offre una capacità di 51,2 terabit al secondo, crittografia integrata e una maggiore efficienza energetica, che – dichiara Cisco – rappresenta “un punto di svolta per l’infrastruttura AI”. A completare l’offerta, i nuovi sistemi Cisco 8223, disponibili nei moduli OSFP e QSFP-DD, permettono di interconnettere in modo sicuro e ad alta densità enormi cluster di GPU distribuiti su più data center, offrendo – sottolinea l’azienda – “la più alta densità di banda oggi disponibile nel settore”.
Durante la tavola rotonda virtuale per la stampa dello scorso 2 ottobre, Martin Lund, Executive Vice President Common Hardware Group di Cisco, ha sottolineato che dati i limiti attuali dell’AI «i carichi di lavoro non possono più essere contenuti dentro un solo data center». Per questo, il nuovo sistema di Cisco punta a una connettività ad ampia larghezza di banda in grado di collegare più centri dati come se fossero un unico super-sistema. «Con Silicon One abbiamo creato un’infrastruttura scalabile, programmabile e sicura per reti di dimensioni mai viste prima».
Alla guida tecnica del progetto, Rakesh Chopra, Senior Vice President e Fellow di Silicon One, ha illustrato la portata della sfida con un dato emblematico: «Se nel 2019 ChatGPT veniva addestrato con circa 100 GPU per GPT-5 serviranno 50.000 GPU. Questo significa reti 5.000 volte più grandi, che non è più possibile contenere dentro un singolo data center». Da qui l’esigenza di estendere l’architettura AI “oltre i confini fisici”, mantenendo allo stesso tempo efficienza, sicurezza e affidabilità.

Anche sul fronte energetico, Cisco rivendica un progresso significativo con una riduzione del 65% dei consumi a parità di capacità di banda rispetto alla generazione precedente. Il merito va alla diminuzione del numero di chip e al nuovo processo produttivo a 5 nanometri, che accorcia le distanze percorse dai bit all’interno del silicio. «Il vero costo energetico non è calcolare, ma spostare i dati su lunghe distanze. Più tutto è integrato, meno energia serve», ha sottolineato Chopra. La sicurezza è l’altro pilastro dell’annuncio. «Fondiamo la sicurezza direttamente nella rete», ha affermato Lund, mentre Chopra ha aggiunto: «Abbiamo integrato protocolli di crittografia quantistica e un’autenticazione completa del piano dati, per impedire che attori malevoli possano interferire con il ciclo di vita del prodotto».
In chiusura, Lund ha riassunto la visione di Cisco per la nuova era del calcolo distribuito: «Tutti parlano dei modelli di AI, ma senza una connettività affidabile e sicura, ogni pacchetto perso può bloccare un training da milioni di dollari. Networking, potenza e sicurezza sono le chiavi della rivoluzione AI e Cisco è in prima linea su tutti e tre i fronti».