È questione di velocità

Cloud e big data stanno creando nuove sfide per rendere più reattiva l’IT. Anche perché il nuovo panorama di server e storage virtuali ha lasciato un conto scoperto: quello delle reti. Tra SDN e in memory computing il panorama incontra un’improvvisa accelerazione

 

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Sandro Frigerio, ObserverSe il cloud e l’effetto sostituzione del tablet nei confronti del pc hanno riempito negli ultimi due anni colonne di giornali, siti web e aule di convegni, altri iceberg stanno emergendo all’orizzonte. E hanno qualcosa in comune: la velocità. Il primo – e più massiccio – è quello dell’SDN, le reti definite dal software. Ormai, non c’è produttore di rilievo nel campo delle reti o dei server che non abbia detto la sua (ultima nell’ordine Alcatel-Lucent, pochi giorni dopo Huawei e Juniper, ma l’elenco è lungo). È vero: la domanda è ancora agli esordi, anche perché la tecnologia sta maturando e i clienti devono ancora capire come muoversi, ma tanto basta per far schizzare le stime di IDC, dagli ancor modesti 360 milioni di dollari previsti per quest’anno ai 3,7 miliardi per il 2016, con quasi un raddoppio delle stime rispetto a sei mesi prima e un incremento stimato che va oltre il 100 per cento l’anno. Attenzione – però – la crescita dell’SDN lascia intendere uno spostamento di valore di una fetta del mercato – appunto dall’hardware al software – proprio perché indirizzando su di questo una parte delle funzioni di controllo e gestione, potranno bastare anche switch e server più “commodity” e più economici. La velocità di cui parliamo, in questo caso, è soprattutto quella della configurazione delle reti nell’epoca della virtualizzazione dei data center e del cloud. La velocità con cui si può creare nuovi server virtuali – e di riflesso uno storage virtuale – con tempi di provisioning che possono passare da settimane a qualche quarto d’ora, ha lasciato scoperto un dente cariato: la necessità di riadeguare i modelli delle reti. Un po’ come se in una tabella di Excel zeppa di funzioni e di creazione, a ogni spostamento di celle dovessimo riadeguare manualmente tutti i collegamenti. L’obiettivo delle SDN è quello di automatizzare questo compito, di definire i modelli con le relative policies, per rendere anche la rete più complessa capace di auto-riorganizzarsi. In tempi di cloud privati, pubblici o ibridi, dove un’applicazione e i suoi dati possono rapidamente crescere, richiedere più server e dischi o anche solo spostarsi, il vantaggio è evidente.

Leggi anche:  Perché il 2024 sarà l'anno del 5G

Tutti al Rodeo

L’interesse è ancora maggiore per gli operatori di TLC, che sono al tempo stesso fornitori di servizi Internet, sempre più interessati ai servizi cloud (la connettività da sola rende poco, ma se dietro c’è una rete di data center allora le cose cambiano) e che, tra le novità, devono fronteggiare l’esplosione del traffico sugli utenti mobili. Motivazioni come queste hanno indotto Cisco, un anno fa, a promuovere uno “spin-in”, la start-up Insieme Networks (guidata da vecchie conoscenze come Mario Mazzola, Luca Cafiero e Prem Jain), con 100 milioni di investimento iniziale destinati a moltiplicarsi (con un’opzione d’acquisto per 750 milioni): mani libere da regole interne ed esterne. Un’operazione che Cisco ha già fatto con Andiamo (switch per le SAN) e Nuova Systems (Switch per i data center). Poco dopo, a luglio, Cisco ha giocato la sua carta SDN con ONE, l’Open Network Environment, una serie di API, agenti e controller che – nelle ambizioni dell’azienda – punta a completare l’approccio SDN con soluzioni che vanno dal trasporto, alla gestione e orchestrazione delle risorse in rete. Da una parte Cisco protegge ovviamente il suo parco con un “Platform Kit” che apre le API a chi sviluppa applicazioni nel suo ambiente, dall’altra dichiara di guardare anche alle soluzioni industry standard di OpenFlow, potenzia il suo switch virtuale Nexus 1000 (un elemento del suo disegno di Unified Computing – UCS) e promette anche supporto multi-hypervisor e OpenStack. A inizio anno, si è parlato di nuovi sviluppi di Insieme Networks, che starebbe sviluppando un super-controller ad alta densità. In contemporanea si è mossa VMware: l’azienda controllata (all’80%) da EMC che ha dato corpo in questi anni alla virtualizzazione dei server, negli stessi giorni di luglio comprava per 1,3 miliardi la specialista Nicira: una mossa che è stata vista un po’ in concorrenza con Cisco, di cui è alleata nell’offerta integrata di server, storage, networking e virtualization. A fine luglio, è stata la volta di Oracle, che ha rafforzato la sua offerta di sistemi ex Sun Microsystems con l’acquisto di Xsigo, uno specialista di virtualizzazione delle reti, che può combinarsi con l’offerta Oracle VM per la virtualizzazione server. 

Leggi anche:  Città intelligenti e sostenibili

L’effetto virtualizzazione

In ottobre, sono arrivati gli annunci di IBM e di HP, basati sulla compatibilità con lo standard OpenFlow. La prima, con il System Networking Programmable Network Controller, un’applicazione per piattaforme Linux, che astrae il control plane dagli apparati di rete per farlo funzionare come un’appliance. La seconda, ha annunciato in supporto di OpenFlow 25 suoi switch, di cui nove introdotti nell’occasione, lasciando prevedere il prossimo arrivo anche di un controller, anche qui un’appliance basata su un server x86. A novembre, è stata la volta di Brocade – altro specialista di reti per i data center e tra i primi sostenitori di OpenFlow – a rilanciare con un’altra acquisizione, quella di Vyatta. Un mese dopo, mentre Cisco faceva ancora shopping nell’SDN, comprando Cariden per 141 milioni, era la volta di Juniper, che metteva le mani su Contgrail, una start-up fondata sempre nel 2012 e pagata 176 milioni. Piccolo particolare: il chief technology officer di Cariden era Kireeti Kompella, che fino a tre mesi prima era appunto in Juniper. Giocare in famiglia fa bene e già a fine gennaio – alla Global Partner Conference di Las Vegas – l’azienda poteva indicare la sua strategia nel settore e un mese dopo facevano seguito i primi prodotti. In primo luogo, la visione con la separazione del software di networking nei quattro livelli tipici dell’SDN: management, servizi, controllo e forwarding. Il tutto con una centralizzazione di questi aspetti e l’uso del cloud per l’erogazione dei servizi richiesti. Nella visione di Juniper, la centralizzazione del management avviene su macchine virtuali che sono orchestrate con sistemi di VMware (vCloud Director), Microsoft (System Center) o con OpenStack.

Leggi anche:  Polesine TLC e IRIDEOS (Gruppo Retelit) insieme per lo sviluppo digitale del Polesine

Nello stesso time frame, era la cinese Huawei a muoversi prima con le proposte enterprise a novembre e dopo a febbraio con la strategia SoftCOM per le telco, che prevede abbondanti dosi di “cloudizzazione” a livello di apparati e sistemi reti. Ultima nell’ordine, ai primi di aprile, è giunta Alcatel-Lucent, che già nel 2012 aveva fatto tre mosse: l’introduzione di una soluzione di orchestrazione e gestione per le reti dei carrier, con relativo sistema di gestione (CloudBand) e la promozione – anch’essa – di una start-up, dal nome emblematico di “Nuage” (la “nuvola”, in francese) e nuove soluzioni enterprise a novembre. Ad aprile, è stata la volta della VSP, la Virtualized Service Platform, una soluzione “tutta software”, di tipo open, definita una “SDN di seconda generazione”, con già annunciato il supporto OpenStack, Cloud Stack e VMware. Obiettivo è la possibilità di governare gli switch di data center di tutti i principali fornitori e di poter governare in modo centralizzato e “policy based” i diversi ambienti: a livello di rack, di data center, tra data center e tra data center e VPN. Se l’interesse è per le SDN, tra start-up, acquisizioni, la promessa di cambiare un po’ anche i rapporti di forza sul mercato è più che evidente, ma c’è un altro vento che si sta levando. E’ quello dell’in-memory computing. Benché questa tecnologia non sia nuova in sé, tecnologie più veloci e prezzi in discesa stanno aprendo la porta a quella che Gartner indica come una trasformazione simile a quella del web e del cloud. A muovere le acque è stata soprattutto SAP con la sua architettura SANA e già diverse strade si stanno evidenziando. Le aree applicative – dai big data alla business analytics, dalle telco alla finanza – sono virtualmente illimitate. Stay tuned.