Il nuovo codice delle reti aziendali: scalabilità, sicurezza e sostenibilità. Non basta più connettere, le reti devono abilitare il futuro del business. Per i decision maker dell’IT, il networking AI-ready non è solo upgrade, ma l’inizio di un nuovo paradigma operativo
Le reti aziendali diventano il tessuto connettivo dell’innovazione business-tech. Ma per funzionare, apprendere e scalare, l’AI ha bisogno di reti altrettanto intelligenti. Dalla robotica industriale alla videosorveglianza intelligente, le applicazioni basate su intelligenza artificiale esercitano una pressione crescente sulle reti: richiedono enormi volumi di dati, velocità di trasmissione elevate e latenza prossima allo zero. L’intelligenza artificiale è senza dubbio il motore trainante della rivoluzione industriale in atto. Ma come ogni motore ad alte prestazioni, ha bisogno di carburante di qualità: in questo caso, una rete in grado di stare al passo con la sua crescente fame di dati e potenza di calcolo. L’edge computing, inoltre, sposta l’elaborazione dei dati più vicino alla loro origine, riducendo la latenza e migliorando l’efficienza. È un approccio imprescindibile per l’AI in contesti remoti o con connettività limitata.
Ma l’evoluzione delle reti non si ferma qui: servono maggiore sicurezza, affidabilità, scalabilità e flessibilità. La crescita della spesa in AI spinge quella per infrastrutture cloud, e viceversa. Stando alle analisi di IDC, la spesa globale per infrastrutture cloud ha toccato i 67 miliardi di dollari nel solo Q4 del 2024, con un incremento annuale del 99,3%. Una crescita esplosiva, alimentata dalla domanda di capacità computazionale per l’AI avanzata. Le previsioni parlano chiaro: oltre 200 miliardi di dollari entro il 2029, con un tasso annuo composto del 17,8%. Secondo il rapporto di Morningstar pubblicato a luglio 2024, la spesa globale per apparecchiature di rete destinate all’intelligenza artificiale generativa è destinata a crescere con un tasso annuo composto (CAGR) del 34% fino al 2028, passando dagli otto miliardi di dollari registrati nel 2023 a 34 miliardi di dollari nel 2028. Morningstar evidenzia che le apparecchiature di rete per l’AI generativa rappresenteranno circa il 75% della spesa totale per le reti ad alta velocità nei data center entro il 2028.
Le diverse fonti concordano nel rilevare che le reti destinate all’intelligenza artificiale devono essere progettate per supportare modelli sempre più complessi – con miliardi, e presto trilioni, di parametri – oltre a carichi di lavoro estremamente intensivi in termini di dati e potenza di calcolo. A questo si aggiunge la gestione di schemi di traffico altamente imprevedibili e di migliaia di processi paralleli. In questo scenario, si stima che ogni acceleratore AI richiederà una larghezza di banda minima di un terabit al secondo per operare in modo efficiente. Anche l’Italia non resta a guardare. Secondo le stime più recenti, l’intelligenza artificiale è al terzo posto tra le priorità di investimento ICT per il 2025 (dati Osservatori Digital Innovation del Politecnico di Milano), dietro solo a cybersecurity e business intelligence. Un segnale forte dell’interesse crescente verso la modernizzazione delle infrastrutture digitali, in particolare in ambito enterprise.
Le PMI italiane giocano un ruolo chiave in questo processo, con una crescita del 3,7% negli investimenti ICT. Molte stanno puntando su soluzioni per migliorare le proprie reti, in vista di una maggiore automazione e integrazione con sistemi AI. Inoltre, entro il 2025, oltre il 70% delle imprese italiane adotterà infrastrutture ibride e multi-cloud, aumentando agilità e capacità di adattamento (dati IDC).
La sfida per le imprese è chiara: trasformare le reti in asset strategici, capaci non solo di supportare l’AI, ma di evolversi con essa. Significa investire oggi in tecnologie scalabili, sicure, performanti, e aprirsi a nuovi modelli operativi. Il futuro delle reti sarà sempre più software-defined, automatizzato e orchestrato in tempo reale da intelligenza artificiale. Se l’intelligenza artificiale sta ridefinendo le regole dell’IT, per esprimere tutto il suo potenziale ha bisogno di reti capaci, intelligenti e ultra-performanti. Dati in tempo reale, latenza minima, scalabilità dinamica e sicurezza sono ormai prerequisiti essenziali. Il problema? Le infrastrutture tradizionali non bastano più. Quasi un paradosso: l’intelligenza artificiale ha bisogno di reti intelligenti, ma solo l’AI è in grado di gestire reti così complesse. Un circolo virtuoso già in atto, dove l’AI diventa al tempo stesso utente e regista dell’evoluzione delle reti.
OLTRE LE RETI TRADIZIONALI
Costruire un’infrastruttura di rete all’altezza delle nuove esigenze non è solo una questione di performance ma anche di sicurezza. Le aziende che oggi implementano architetture di rete per supportare l’AI si trovano ad affrontare sfide molto complesse e inedite. Per Fabrizio Gergely, Cloud & AI sales leader Italy/Israel/Spain/Portugal di Cisco, tra le principali c’è la vulnerabilità dell’AI, in quanto modelli, framework, applicazioni, dati e infrastrutture a supporto dell’AI rappresentano nuove superfici per gli attacchi informatici. «Tecniche come il prompt injection, gli adversarial attacks, il model poisoning, i data leaks e l’accesso illecito alle risorse GPU, per citarne alcune – spiega Gergely – richiedono un approccio integrato e olistico alla protezione di tutte le componenti infrastrutturali, applicative e del modello stesso».
L’altra grande sfida è la complessità di implementazione: «Rendere operativo uno stack di infrastrutture AI sicuro e scalabile per esigenze in continua evoluzione è un compito complesso e costoso, che necessita di un’infrastruttura AI integrata e pre-validata, comprendente computing, networking, storage, virtualizzazione e soluzioni applicative che lavorino insieme come un’unica piattaforma. Inoltre, disporre di strumenti evoluti di observability per monitorare sistemi complessi come gli stack AI consente di mantenere il pieno controllo in caso di fault e ottimizzare continuamente il comportamento del sistema».
In ultima analisi, la performance della rete resta un punto irrinunciabile: senza una connettività rapida, stabile e scalabile, l’intelligenza artificiale non può esprimere il suo pieno potenziale. «Il training dei modelli, il checkpointing, il fine-tuning, RAG e l’inferenza – continua Gergely – generano un grande traffico GPU-GPU (est-ovest) e GPU-storage (nord-sud) e la mancanza di una rete con adeguate caratteristiche prestazionali può avere forti impatti sul funzionamento del sistema, in particolare nell’utilizzo ottimale delle GPU».
Secondo Manuel Gentili, business developer, BU Digital Technology, Marketing & Business Development di Maticmind, le aziende che progettano architetture di rete per supportare l’intelligenza artificiale si confrontano con sfide sempre più complesse: «Dalla scalabilità dell’infrastruttura alla gestione della latenza, fino all’esplosione della domanda di banda. A tutto questo si aggiunge la necessità di soluzioni capaci di ottimizzare in modo intelligente il traffico dati, garantendo al contempo affidabilità e continuità operativa in ambienti ad alta intensità computazionale».
L’AI sta trasformando i modelli operativi aziendali, richiedendo reti capaci di gestire grandi volumi di dati, spesso in tempo reale – spiega Massimo Morsaniga, technical account manager di NovaNext. «Questi carichi di lavoro impongono elevata larghezza di banda e bassa latenza, mentre l’elaborazione dei dati avviene spesso in ambienti distribuiti tra data center, cloud ed edge computing. Una sfida critica riguarda la governance e la compliance dei dati, poiché le aziende devono rispettare normative stringenti come il GDPR. Per proteggere i dati sensibili, le architetture di rete devono integrare misure avanzate come crittografia end-to-end e monitoraggio continuo del traffico».
Marco Bubani, direttore Innovazione di VEM sistemi, fotografa con lucidità lo stato di adozione dell’intelligenza artificiale nei data center italiani: «Oggi, sono ancora poche le aziende che integrano soluzioni AI all’interno delle proprie infrastrutture locali. Ma il trend è destinato a cambiare. Alla base di questa evoluzione – secondo Bubani – non ci sono solo motivi tecnologici, ma anche considerazioni strategiche legate al contesto globale: «Le attuali dinamiche geopolitiche spingono sempre più imprese a rivalutare l’affidamento di dati e applicazioni critiche a provider internazionali. La sovranità del dato torna al centro delle strategie IT». Una visione che apre uno scenario in cui l’adozione di AI on-premise potrebbe crescere, trainata non solo da esigenze di performance e latenza, ma anche da un ritrovato bisogno di controllo e sicurezza. «Inoltre, il continuo progresso tecnologico renderà sempre più realizzabile lo sviluppo di progetti di intelligenza artificiale non solo attraverso le soluzioni offerte dal cloud pubblico, ma anche mediante l’implementazione diretta all’interno delle infrastrutture aziendali. Cresce, infine, la consapevolezza dell’importanza di una governance efficace sia dei costi sia delle informazioni critiche necessarie all’addestramento dei modelli di AI. In questo contesto, ritengo che la principale sfida da affrontare per la componente di rete risieda nella natura stessa dell’implementazione dell’intelligenza artificiale, che si basa su un’architettura a microservizi e richiede un sistema di orchestrazione di container applicativi. Questo tipo di infrastruttura prevede componenti di rete fortemente orientate al software, ancora poco diffuse all’interno dei data center aziendali».
IL FUTURO È SOFTWARE-DEFINED
Quali architetture di rete sono davvero pronte per l’era dell’intelligenza artificiale? Per Fabrizio Gergely di Cisco, servono reti progettate per performance estreme. Le applicazioni AI non si accontentano. Richiedono reti ad alte prestazioni, a bassissima latenza e soprattutto lossless, senza perdite di pacchetti. Esigenze, che mettono in discussione l’efficacia delle infrastrutture tradizionali. «Per raggiungere questo obiettivo, le infrastrutture devono essere progettate utilizzando adeguate funzionalità hardware e software, insieme a una configurazione che supporti le esigenze delle applicazioni AI. Le applicazioni AI hanno anche bisogno di reti in grado di fornire visibilità e telemetria in modo che possano essere ottimizzate secondo le necessità. Infine, le applicazioni AI dovrebbero sfruttare i framework di automazione per assicurarsi che l’intera infrastruttura di rete sia configurata correttamente, senza deviazioni» – spiega Gergely. «Cisco sta sviluppando tecnologie e partnership in ambito AI per portare sul mercato le migliori soluzioni di rete basata sullo standard Ethernet, aperte, scalabili, sicure e con performance già oggi a 800Gbps basate su Silicon One. Le soluzioni indirizzano sia le reti di front-end, sia le reti critiche di back-end che assicurano la corretta comunicazione fra le GPU per il supporto delle applicazioni AI».
Su questo punto interviene anche Mario Manfredoni, senior director South Europe di Juniper Networks – affermando che l’AI networking presenta sfide uniche a causa del suo paradigma di calcolo altamente distribuito e dei requisiti di prestazioni particolarmente elevati. «A differenza di quanto avviene con i data center tradizionali o il traffico internet, i carichi di lavoro dell’AI comportano un numero inferiore di flussi di rete, ma di dimensioni significativamente maggiori e di lunga durata, il che può causare congestione» – spiega Manfredoni. «Questi workload richiedono una larghezza di banda eccezionalmente elevata, bassa latenza e un jitter minimo per garantire performance ottimali. Inoltre, le reti basate sull’AI sono caratterizzate in larga misura da traffico RDMA (Remote Direct Memory Access) invece che ai flussi TCP (Transmission Control Protocol) tradizionali, differenziandosi ulteriormente dalle infrastrutture di rete convenzionali».
Per affrontare queste sfide, le architetture di rete AI si sono molto evolute grazie a un’alta specializzazione nelle strategie di progettazione – continua Manfredoni. «Spesso vengono create reti fisiche separate per diversi tipi di traffico: le reti front-end facilitano l’accesso ai server AI, mentre le reti back-end scale-out consentono uno scambio di dati efficiente per il computing distribuito. Queste reti sono progettate senza “over subscription” per massimizzare le prestazioni. Meccanismi avanzati di prevenzione e controllo della congestione, come il bilanciamento intelligente del carico e l’auto-tuning dei parametri DCQCN (Data Center Quantized Congestion Notification), contribuiscono a ottimizzare la gestione dei flussi. Gli switch ad alte prestazioni con connettività a 400G/800G con un numero elevato di connessioni (radix) sono utilizzati per ridurre al minimo la latenza e massimizzare il throughput. Inoltre, le reti basate sull’AI fanno ampio uso di moduli ottici, privilegiando soluzioni ad alta efficienza energetica come LPO (Linear-drive Pluggable Optics)/LRO (Linear Receive Optics) per ridurre il consumo di energia, garantendo al contempo connettività ad alta velocità».
Per superare i limiti delle infrastrutture tradizionali, le aziende stanno guardando a nuove architetture di rete ad alte prestazioni, progettate per garantire throughput elevatissimo e tempi di risposta minimi – spiega Manuel Gentili di Maticmind. «Come quelle con switching fabric ad alta velocità, Ethernet ad altissima capacità (400G/800G) e tecnologie RDMA su converged Ethernet (RoCE), che riducono la latenza e migliorano l’efficienza del data movement». La rete smette di essere solo un’infrastruttura e diventa un abilitatore. Le architetture di rete devono essere scalabili, flessibili e intelligenti, capaci di adattarsi dinamicamente ai carichi di lavoro variabili. Massimo Morsaniga di NovaNext evidenzia il ruolo strategico del Software-Defined Networking (SDN) in questo contesto. Separando il piano di controllo da quello dei dati, l’SDN consente una gestione centralizzata e una visibilità completa dell’infrastruttura. Un vantaggio fondamentale per orchestrare in modo efficiente le reti AI-driven. «Questo approccio consente policy dinamiche e microsegmentazione, migliorando sicurezza e prestazioni. L’SDN supporta inoltre l’Intent-Based Networking (IBN), che permette di gestire la rete definendo obiettivi aziendali invece di configurare manualmente ogni dispositivo. Un’altra tecnologia chiave è la Network Function Virtualization (NFV), che virtualizza funzioni di rete tradizionalmente hardware-based (come firewall e router) eseguendole su server standard. Ciò semplifica l’implementazione e consente di adattarsi rapidamente alle variazioni del traffico di rete, migliorando la continuità operativa. Per connettere data center geograficamente distanti, il Data Center Interconnect (DCI) avanzato utilizza fibra ottica e protocolli ottimizzati per garantire connettività stabile e sicura. Le nuove architetture devono infine integrare ambienti on-premise, cloud ed edge, offrendo infrastrutture agili e resilienti per rispondere alle crescenti esigenze dell’AI».
Nel dibattito sull’evoluzione delle infrastrutture, Marco Bubani di VEM sistemi sposta l’attenzione oltre la pura capacità tecnologica. «Oggi i principali vendor di networking offrono già apparati in grado di gestire volumi di traffico dell’ordine dei terabit al secondo, con latenze estremamente contenute. Il punto critico non è più l’hardware». Il vero nodo, secondo Bubani, riguarda l’integrazione efficace tra la rete fisica e le soluzioni software-based, come il cloud networking o il service mesh. «Sono questi gli elementi chiave per garantire una comunicazione sicura, scalabile e governata tra i componenti di un’applicazione AI, sia all’interno dell’infrastruttura sia nelle interazioni verso l’esterno».
PROTEZIONE E GOVERNANCE
Con l’intelligenza artificiale al centro delle strategie aziendali, la protezione dei dati e la governance delle comunicazioni diventano elementi imprescindibili. Le nuove architetture di rete non solo devono offrire performance elevate, ma anche rispondere a requisiti sempre più stringenti in termini di sicurezza e privacy. La sicurezza non è più un layer aggiuntivo, ma una componente nativa e intelligente della rete stessa. Manuel Gentili di Maticmind sottolinea come oggi queste infrastrutture integrino crittografia end-to-end, segmentazione dinamica e modelli di sicurezza Zero Trust, a tutela dei dati sensibili. «Inoltre, l’adozione di sistemi di sicurezza basati sull’AI permette alle reti di reagire in modo proattivo e intelligente alle minacce, anticipando attacchi e vulnerabilità».
Marco Bubani di VEM sistemi punta l’attenzione sulla crescente centralità del networking software-defined. «Le soluzioni più evolute oggi permettono un controllo capillare di ogni comunicazione tra i componenti di un’applicazione AI, sia internamente che verso l’esterno». Secondo Bubani, questa capacità trasforma la rete in una piattaforma integrata che unisce networking, observability e security. «Non si tratta più solo di trasportare dati, ma di isolarli, monitorarli in tempo reale, identificare anomalie e replicare digitalmente i flussi di traffico attraverso modelli di digital twin».
FLESSIBILITÀ OPERATIVA
Il futuro delle reti aziendali non sarà solo più veloce, ma anche più intelligente, automatizzato e sicuro. Ma progettare architetture di rete AI-ready non è solo questione di prestazioni: è una sfida di scalabilità, sicurezza e semplicità operativa. Le esigenze cambiano rapidamente e le aziende devono rispondere con infrastrutture flessibili e adattabili. Secondo Mario Manfredoni di Juniper Networks, la chiave sta nella standardizzazione e nell’affidabilità dei modelli di implementazione. «Le reti AI devono essere progettate per semplificare gestione e scalabilità. Utilizzare progetti pre-validati con impostazioni testate e interoperabili accelera il time-to-market e riduce i margini di errore». Particolare attenzione viene riservata alla sicurezza, in contesti multi-tenant dove i carichi di lavoro AI richiedono isolamento rigoroso per training e inferenza. «Micro-segmentazione, policy Zero Trust e protezioni avanzate garantiscono l’integrità dei dati senza compromettere le prestazioni» – aggiunge Manfredoni, sottolineando come la piattaforma AI-Native Networking di Juniper offra una gestione semplificata per reti performanti e resilienti. «Grazie a una soluzione di gestione semplice e facile da usare, le aziende possono progettare, implementare e gestire le proprie reti senza problemi e con una complessità minima».
Anche Manuel Gentili di Maticmind ribadisce l’importanza della flessibilità operativa: «Per garantire scalabilità e affidabilità servono architetture software-defined, capaci di gestire dinamicamente il traffico e distribuire il carico di lavoro tra datacenter edge e cloud in modo intelligente e resiliente». Chiude il quadro Marco Bubani di VEM sistemi, che guarda all’orchestrazione applicativa come elemento centrale nell’evoluzione infrastrutturale. «Investire su piattaforme di orchestrazione di container applicativi è fondamentale per sviluppare soluzioni AI efficaci. Queste architetture sono pensate per gestire con precisione i carichi specifici dell’AI, integrando nuove infrastrutture di comunicazione capaci di adattarsi in tempo reale».
LA VERA SFIDA È CULTURALE
Nel dibattito sull’evoluzione delle infrastrutture di rete, l’AI si impone come catalizzatore di cambiamento. Ma quali sono i costi reali legati all’adozione di nuove architetture in grado di supportarla? E soprattutto, come si misura il ritorno sull’investimento? Per Manuel Gentili di Maticmind, l’equazione non è semplice: «I costi variano in funzione della complessità dell’infrastruttura e comprendono componenti hardware evoluti, piattaforme software dedicate e investimenti in formazione tecnica». Tuttavia, il ROI può essere significativo se misurato su parametri concreti come il miglioramento delle performance, la riduzione dei downtime e l’incremento di competitività grazie all’automazione avanzata.
Ma non è solo una questione di numeri. Marco Bubani di VEM sistemi, invita a un cambio di prospettiva. «Il vero tema non è quanto costa l’AI, ma quanto può costare restare indietro. Le aziende che non investono oggi rischiano di perdere terreno in un mercato che sta evolvendo rapidamente». Bubani sottolinea che i costi tecnologici tenderanno a ridursi, mentre la vera barriera sarà culturale e di competenze. «Il gap da colmare riguarda la capacità di comprendere, integrare e governare le nuove soluzioni. È qui che si gioca il vero ritorno sull’investimento». Se la rete è il nuovo backbone dell’intelligenza artificiale, l’investimento non si limita all’infrastruttura, ma coinvolge l’intero mindset aziendale.
L’adozione di architetture di rete ottimizzate per l’intelligenza artificiale non è più una sperimentazione, ma una realtà già operativa. «Un esempio emblematico è Tesla, che impiega infrastrutture AI-driven per addestrare i suoi sofisticati modelli di guida autonoma» – osserva Manuel Gentili di Maticmind. Ma il fenomeno non riguarda solo l’automotive: «Molti big player del mondo IT stanno già utilizzando reti progettate per supportare carichi di lavoro AI con l’obiettivo di accelerare la ricerca, l’analisi predittiva e l’elaborazione dati su larga scala». Il contesto italiano, invece, appare ancora in fase preparatoria – come evidenzia Marco Bubani di VEM sistemi. «Allo stato attuale, non abbiamo ancora realizzato implementazioni AI-specifiche nei data center dei nostri clienti». Tuttavia, le basi ci sono. «I dispositivi di rete che installiamo oggi sono progettati per gestire anche i carichi tipici delle applicazioni AI».
NUOVO IMPERATIVO STRATEGICO
In sintesi, le infrastrutture di rete esistenti potrebbero non essere in grado di soddisfare le nuove esigenze imposte dalle applicazioni di intelligenza artificiale, ed è pertanto prevedibile una tendenza significativa all’aumento della spesa nel networking nei prossimi anni. Investimenti necessari per garantire le necessarie capacità, velocità, bassa latenza e affidabilità delle reti. L’ottimizzazione dell’architettura di rete potrebbe quindi diventare un imperativo strategico, perché una rete robusta, scalabile e sicura potrebbe essere il fondamento su cui costruire l’AI aziendale.
In tale contesto è da sottolineare l’importanza che dovrebbe avere la collaborazione tra i fornitori di servizi di rete, i fornitori di hardware e software e le aziende per costruire infrastrutture di rete moderne. Da non dimenticare però anche l’impatto sulla sostenibilità, perché l’AI non solo aumenta la domanda di infrastrutture di rete avanzate, ma pone anche sfide significative in termini di consumo energetico. Secondo l’Agenzia Internazionale dell’Energia (IEA), il fabbisogno elettrico dell’AI potrebbe quadruplicare entro il 2030. Riflessione conclusiva: “Nel futuro delle reti, l’intelligenza artificiale tesse il progresso, ma ogni filo deve intrecciarsi con la sostenibilità, per creare un tessuto che duri nel tempo”. Meditiamo, gente, meditiamo.