Software defined everything. Siete pronti?

Software defined everything

Nuove frontiere per il software defined everything. Sempre più grande l’interesse tecnologico e di business sui temi della virtualizzazione, come capacità di rendere le risorse disponibili su richiesta, con grandi efficienze in termini di costo

Qual è il futuro delle infrastrutture in un mondo definito dal software? Proviamo a esaminarne le nuove frontiere, in particolare quelle relative allo storage e al network, che stanno drasticamente modificando il mondo dei data center – e non solo – con impatti importanti sulla ownership delle infrastrutture. I driver che sostengono lo sviluppo di tecnologie e modelli di network virtualization e agilità sono sempre più evidenti: cloud, big data, mobility, digital economy, IoT, sicurezza, nuovi requisiti applicativi e di erogazione dei servizi IT e via dicendo. Ponendo allora l’attenzione sull’evoluzione nel network e in particolare ai nuovi modelli cosiddetti di software defined network (SDN), secondo i dati di IDC (SDN Survey 2015) tra le principali motivazioni a livello mondiale che stanno spingendo aziende e service provider a considerare o implementare l’SDN, ritroviamo infatti sicurezza, agilità e supporto a virtualizzazione e cloud, automazione, programmabilità delle risorse di rete. Fabio Rizzotto, research and consulting director di IDC Italia spiega che a livello globale il valore del mercato SDN (comprensivo di SDN applications, physical network, virtualization layer e professional services, per aziende e service provider) è stato pari a due miliardi e 280 milioni di dollari con una crescita di oltre il 140% rispetto al 2014. Sempre secondo le previsioni IDC, il mercato SDN è destinato a crescere sensibilmente, sia nel segmento dei cloud service provider, sia grazie agli investimenti in enterprise datacenter. Come per molte aree promettenti, ma complesse, sarà necessario bilanciare la capacità di comunicare, chiarendo i benefici emergenti e attesi con le sfide tipiche dell’adozione di un nuovo approccio architetturale, in questo caso applicato al network. La crescita si annuncia sostenuta nel corso dei prossimi anni, fino a un valore previsto nel 2020 di quasi 12 miliardi e mezzo di dollari (corrispondente a un CAGR del 54% nell’orizzonte 2014-2020). Lungo questa strada le trasformazioni previste saranno molte, dallo shift tecnologico alle operation, alla capacità di supportare nuove dinamiche di business. Per esempio, nel segmento enterprise, i dati della survey IDC mostrano cambiamenti significativi previsti in termini di IT staffing e network operation: dalla maggiore collaborazione tra gruppi nei dipartimenti IT e a livello interdipartimentale, alla riconversione di competenze e risorse verso altre attività (analytics, gestione e orchestrazione di ambienti automatizzati…).

Insomma, stanno emergendo nuovi modelli che alcuni ipotizzano come “rivoluzionari” e il percorso è già iniziato, ma sarà “vera gloria”? Proviamo a capirne di più, ponendo un paio di domande ad alcuni operatori del mercato. Networking, storage e data center: la parola chiave è “software-defined”. Ma quali sono le prospettive, le opportunità e i rischi? Secondo Andrea Carignano, chief executive officer di Altea Digital (Altea Digital fa parte di Altea Federation) nello scenario attuale di tecnologie disruptive, il networking, lo storage e i data center sono stati, e lo saranno ancora, fortemente impattati dal “software-defined”. «Volendo ben vedere, anche l’industria dei prodotti e dei servizi sono sempre più indirizzati al software defined everything, basti pensare al mondo dei prodotti IoT connessi. I possibili benefici sono enormi in termini di definizione di nuove architetture: scalabilità, riduzione del “single point of failure” e sharing dei servizi. In questo scenario, aumentano anche le opportunità per le aziende di nuovi modi per fare business, erogando servizi a valore aggiunto sempre più personalizzati per il cliente. L’attenzione va posta ora nel gestire la trasformazione digitale che accompagna il nuovo approccio, il cambiamento da un sistema centrale a un sistema distribuito, e gli inevitabili rischi legati alla privacy e alla corretta e opportuna gestione dell’informazione».

Per Alberto Degradi, architecture infrastructure leader di Cisco Italia, il software defined networking (SDN) sta generando grande interesse nell’industria del networking, dello storage e del data center negli ultimi anni grazie alle sue promesse di un’infrastruttura di rete più agile e programmabile. «Avvicinarsi al mondo delle applicazioni significa fornire alle applicazioni stesse la capacità di lavorare meglio in un ambiente iperconnesso, in modo più sicuro e ottenendo dalla rete quello che serve nel momento in cui serve, in termini di qualità, di sicurezza e di velocità. E questi sono i principali vantaggi delle reti programmabili e definite dal software, con un approccio evolutivo alla progettazione, dove il controllo dei flussi di traffico può avvenire tramite funzioni software accessibili da application programming interfaces (APIs), rendendo il linguaggio delle reti più simile al linguaggio delle applicazioni e rendendo le reti stesse più flessibili, semplificando la complessità operativa. Il software defined everything intende permettere alla rete di implementare e soddisfare le esigenze delle applicazioni sia nel data center sia nel cloud. La rete deve fornire livelli adeguati di connessione, sicurezza, conformità, firewall e load balancing, e deve farlo in modo dinamico e on-demand».

Come reagire al cambiamento

Stefano Brioschi, category manager di HPE ARUBA Italia, pensa che in un mercato in continua trasformazione, il software defined network richieda un approccio sempre più diffuso nella progettazione e gestione delle reti delle aziende, che si trovano oggi ad affrontare nuove sfide in termini di cloud, sicurezza, mobilità e big data. «L’SDN consente agli operatori di rete e alle aziende di allocare le risorse in maniera più flessibile e di reagire puntualmente al cambiamento in atto: adottare una tecnologia SDN significa poter creare un ambiente IT stress-free, con una visione globale della rete che favorisce la comunicazione e l’interconnessione tra device e applicazioni, migliorando la user experience, la produttività e l’efficienza». La nuova frontiera dell’IT è il software defined everything come virtualizzazione dell’infrastruttura. «Questo nuovo paradigma – ci spiega Matteo Masera, direttore commerciale di PRES destabilizza priorità, skill e metodologie con cui è stata finora progettata e gestita l’infrastruttura. Non dobbiamo più preoccuparci di gestire l’infrastruttura, ci penseranno le applicazioni. Questa rivoluzione permette una notevole ottimizzazione degli investimenti in termini di hardware e di gestione operativa.

Leggi anche:  5G e il potere dell’Edge

Nel networking e nello storage abbiamo già visto i primi risultati di questo fenomeno in rapida crescita, che permetterà alla aziende di avere data center sempre più efficienti e soprattutto flessibili e rapidissimi nel cambiamento». Non c’è più confine fisico. «Il data center – continua Masera – è ovunque si trovi una risorsa disponibile che abbia le caratteristiche che il software richiede. La rivoluzione digitale delle aziende esige flessibilità e rapidità. Per reagire ai cambiamenti e rispondere con agilità alle esigenze del business. PRES è il system integrator e centro formazione che, da oltre 25 anni, affianca le aziende nelle più importanti rivoluzioni tecnologiche, connettendo le organizzazioni e i professionisti dell’ICT al futuro».

Antonio Baldassarra, CEO di Seeweb, ha un punto di vista per molti versi originale. «Siamo praticamente nati con questo tipo di approccio più o meno pervasivo all’interno dei nostri data center e come Seeweb operiamo ormai da molti anni come cloud provider in ambito IaaS. Quindi siamo un “utilizzatore primo” di questo genere di tecnologie che puntano a spostare la complessità di orchestrazione, di configurazione e di utilizzo a livello software al fine di fornire la massima flessibilità e gestibilità delle infrastrutture. Infatti, il paradigma stesso di servizio cloud richiede di poter disporre di risorse in maniera sostanzialmente immediata senza passare per complesse filiere di provisioning che impattino anche a livello fisico di infrastrutture, dispositivi, software e altro. Sempre in ambito cloud computing, la distinzione tipicamente molto netta e chiara tra networking, storage e data center è molto “sfumata” e anzi non sempre facilmente definibile. Tutto questo fa parte del “sistema di produzione” per i servizi cloud. In uno scenario del genere, puntare il più possibile a soluzioni “software-defined” è in realtà l’unica possibilità per proporre al mercato servizi cloud che siano efficienti, efficaci e competitivi. Disporre e gestire in real-time e in maniera dinamica delle risorse di storage, networking e computazionali è imprescindibile per un’azienda come Seeweb. Pertanto, nel nostro caso, non è una prospettiva. Si tratta della realtà del nostro lavoro almeno dal 2009, anno nel quale abbiamo lanciato sul mercato la nostra prima soluzione IaaS: il cloud server. Ovviamente, un approccio del genere richiede un elevato livello di governo di ogni cosa e di audit continuo proprio perché la “potenza” degli strumenti in campo è elevatissima: errori, anche banali, possono generare problemi di una certa importanza.

Software contro hardware?

L’opinione di Carlo Baffè, business development manager di SUSE è che il software si stia mangiando l’hardware specializzato (networking e storage). «Ciò perché consente rapidità, adattamento e permette all’IT aziendale di fare il cloud provider, e questa è un’opportunità imperdibile perché consente agli IT manager di essere percepiti come innovatori e non solo come un centro di costo. I rischi possono essere mitigati a due livelli: strategico e tattico. Tatticamente, si tratta di partire in maniera graduale su ambiti non critici, per “prenderci la mano”. A livello strategico, si tratta di puntare su tecnologie open source con un ecosistema ampio e robusto (OpenStack per lo IaaS e Ceph per lo storage) in modo da evitare lock-in proprietari. Come SUSE, forniamo distribuzioni e supporto tecnico sia per OpenStack (siamo alla release 6.0) e sia per Ceph (SUSE Enterprise Storage è alla versione 2.1, e per primo sul mercato ha introdotto l’accesso via iSCSI)».

Leggi anche:  Puglia prima regione italiana senza digital divide

Dal canto suo, Bruno Camaggi, vicepresidente di VM Sistemi, ricorda che il software defined everything raccoglie un insieme di tecnologie, il cui obiettivo è quello di separare la gestione e il controllo dall’hardware sottostante. «Grazie al software di virtualizzazione delle risorse, la parte computazionale viene resa fruibile come servizio, mentre l’hardware diventa una componente facilmente sostituibile. Tra gli effetti di questa evoluzione tecnologica ci sono: il miglioramento degli standard di sviluppo per la programmabilità delle infrastrutture; l’interoperabilità nei data center e l’automazione nel cloud computing; e l’acquisizione rapida dell’infrastruttura ICT necessaria».

Ecosistema e filosofia SDN

Ma perché la filosofia del software defined everything sta cambiando le aziende da un punto di vista tecnologico e culturale? Andrea Carignano di Altea Digital pensa che la filosofia SDx sia un cambio di paradigma per l’azienda. «La progettazione delle architetture deve favorire l’ottica collaborativa e sinergica. Il disegno complessivo è frutto delle competenze trasversali di molti enti in azienda. La sfida quindi si può vincere solo quando il commitment al cambiamento è diffuso. La tecnologia d’altro canto, grazie a nuovi strumenti e all’atomizzazione delle componenti, riduce i rischi di fail e, nel contempo, richiede un monitoraggio d’insieme ancora più attento e più diffuso».

Per Alberto Degradi di Cisco Italia si tratta di un paradigma che cambia il modo in cui vengono gestite e si comportano le reti. «In particolare, utilizza policy predefinite per automatizzare il provisioning di rete, creando un’infrastruttura più agile in grado di supportare dinamicamente le esigenze delle diverse applicazioni lungo gli ambienti fisici e virtuali. Da un punto di vista aziendale, ciò significa avere un’infrastruttura agile, dinamica e altamente sicura in grado di ridurre le spese in conto capitale e quelle operative, semplificare la transizione al cloud ibrido e proteggere gli asset aziendali e gli investimenti. Un’infrastruttura di questo tipo permette alle aziende di soddisfare le mutevoli esigenze dei clienti e creare differenziazione competitiva».

L’approccio SDN comporta un grande cambiamento perché trasforma i network tradizionali in piattaforme pronte a rispondere in tempo reale alle esigenze di larghezza di banda e alla natura dinamica delle applicazioni. «Hewlett Packard Enterprise – spiega Stefano Brioschi di HPE ARUBA Italiaè stata tra le prime aziende a investire nell’SDN, con un approccio aperto e multivendor per supportare le organizzazioni nel processo di modernizzazione. L’ecosistema SDN di HPE offre piattaforme intelligenti, programmabili, flessibili, agili e sicure per lo sviluppo di servizi e applicazioni on demand, rispondendo alle esigenze di innovazione e di business del mercato di oggi. In particolare, l’offerta SDN si rivolge alle organizzazioni complesse, quelle composte da sedi centrali, filiali e periferiche, che necessitano di modernizzare le proprie architetture tradizionali per soddisfare la crescente domanda di banda, traffico, applicazioni e condivisione in tempo reale di dati e informazioni».

Nuovo linguaggio comune

Su questo punto abbiamo raccolto anche l’opinione di Tullia Zanni, head of solutions marketing di Italtel, che afferma come la tendenza “software defined” sia concreta, motivata da nuove esigenze sia di business sia tecnologiche, oltre che da evoluzioni nella fruizione dei servizi. «Il paradigma SDx è in grado di fornire potenziali benefici di grande valore per un’azienda sia in termini di agilità che di apertura, automazione e riduzione dei costi. La vera spinta al cambiamento è la flessibilità. La percezione, da parte delle aziende, che oggi sia possibile adattare la tecnologia al proprio business case, rappresenta già di per sé una vera e propria evoluzione culturale. Gradualmente, nelle aziende avremo sempre meno enti che parleranno esclusivamente un “dialetto” tecnico o un “dialetto” orientato al business. Il nuovo linguaggio comune consentirà di allineare le diverse organizzazioni alle reali esigenze. La capacità di automazione e orchestrazione delle infrastrutture ICT sarà alla base di tale visione convergente. Il percorso verso il cambiamento, parallelamente alla generale tendenza verso la Digital Transformation, sarà progressivo e personalizzato. Un partner come Italtel si propone di affiancare passo dopo passo i propri clienti in tale percorso, in funzione della maturità degli obiettivi di ciascuna azienda. I nuovi “termini” tecnologici saranno introdotti al momento opportuno, secondo un approccio pragmatico, integrando dove necessario soluzioni “ibride” sia software defined sia tradizionali».

Antonio Baldassarra di Seeweb racconta che il software defined non ha cambiato l’azienda, ma ha permesso l’esistenza di una linea di business che oggi rappresenta oltre il 60% del fatturato e che per altri versi non sarebbe proprio potuta nascere. Questa trasformazione è stata il frutto anche di una ridefinizione e di un ripensamento dei ruoli e dell’organizzazione. «Per esempio – ci spiega Baldassarra – pur avendo quattro data center per oltre 2500 metri quadrati complessivi con migliaia di server fisici, i tecnici si recano di rado nella struttura fisica del data center. Quasi mai per le normali operazioni di provisioning dei servizi che ormai vengono effettuate solo a livello software. Analogamente, le differenze di creazione ed esercizio delle risorse di storage o di rete si sono molto “interrelate” così come le figure professionali. Temi come il “capacity planning”, sostanzialmente non esistono più, essendo parte del processo di governo delle infrastrutture che viene eseguito di continuo. Il pay out di queste revisioni e ripensamenti sono l’immediatezza nella disponibilità delle risorse e l’enorme flessibilità di configurazione e riconfigurazione delle stesse che per noi diventano un vero e proprio “valore” della nostra offerta di servizi. Ci aspettiamo che anche nelle aziende “classiche” che preferiscono un approccio “on premise” questi “valori” troveranno il loro spazio, almeno nella parte che continuerà a rimanere gestita nei data center aziendali. Avere una visione dell’IT globalmente “dematerializzata” sarà di grande aiuto nel governo delle infrastrutture nel loro insieme indipendentemente da come sono realmente realizzate».

Separare l’intelligenza dalla forza

La tecnologia permette di fare business in maniera competitiva grazie alla velocità del software. «E se il business vuole una nuova app – afferma Carlo Baffè di SUSE – la vuole entro poche settimane. L’infrastruttura quindi deve essere pronta subito in modo che gli sviluppatori possano lavorare. L’operatore IT ragionerà sempre di più in termini di cosa si possa ulteriormente automatizzare grazie al software più intelligente. E questo è un bel cambio culturale». Per Bruno Camaggi di VM Sistemi, «i vendor dominanti, dovendo seguire tali emergenti standard, vedranno aumentare la concorrenza con conseguente riduzione delle marginalità, ma il cliente finale beneficerà di soluzioni più semplici, più stabili e scalabili nonché di una sensibile riduzione di costi. Separando l’intelligenza dalla forza, l’hardware sottostante può quindi diventare più economico e intercambiabile, mentre in generale il software aumenta la sua efficacia e le sue potenzialità di evoluzione. Sposiamo pienamente questo trend offrendo soluzioni integrate di virtualizzazione, che sfruttano la tecnologia messa a disposizione dal nostro network selezionato di partner (fra cui IBM, VMware, Veeam, Fortinet…), consentendo di aumentare agilità, flessibilità e scalabilità dell’IT, oltre a ridurre notevolmente i costi. Inoltre con i managed services siamo in grado di offrire tutte le competenze necessarie per supportare ambienti ICT eterogenei e complessi, riducendo i rischi e migliorando la continuità di servizio».

Conclusioni

Qualche giorno fa, lessi che è stato scoperto un nuovo stato della materia dove gli elettroni appaiono frammentati. Ciò fu previsto teoricamente molto tempo prima, ma come spesso accade nella fisica – il bosone di Higgs o le onde gravitazionali ne sono un esempio – è stato necessario tempo e nuove tecnologie per riuscire a trovare la prova sperimentale. Il nuovo stato della materia è stato chiamato “liquido di spin quantistico” perché in esso i campi magnetici si comportano in modo disordinato rispetto ai materiali tradizionali. I ricercatori affermano che con il nuovo stato della materia si potrebbe immaginare di costruire i “mattoncini fondamentali” di nuovi computer quantistici, in grado di compiere operazioni finora ritenute impossibili. In tutto ciò, vedo una relazione con i modelli di virtualizzazione applicati nei data center e ora anche nella rete. Anche nel mondo ICT è nato un “nuovo stato della materia” e anche qui “tutto si fa più liquido”, creando i presupposti per un mondo completamente diverso e sempre più affascinante. Meditiamo, gente. Meditiamo.

Leggi anche:  Zyxel lancia il nuovo Router WiFi 6 Armor G5

Networking, storage e data center

La parola chiave è software-defined

Ma quali sono le prospettive, le opportunità e i rischi? «Dal nostro punto di vista, la direzione presa dal mercato, anche in ambito storage, è quella del software-defined – risponde Andrea Sappia, sales consultant manager di Fujitsu Italia. «Fujitsu traduce questo trend nell’offerta di soluzioni basate su Openstack, che permettono elevata scalabilità e sono indirizzate in modo particolare ad ambienti cloud. Più in particolare, la soluzione Fujitsu che risponde a questa esigenza è ETERNUS CD10000, il sistema che, pretestato e configurato nei laboratori con elementi open source, prevedendo al suo interno tutte le componenti storage, i nodi di calcolo standard e il networking necessario, consente una rapida implementazione nei data center, senza alcun rischio. Concettualmente, si tratta di spostare l’attenzione su uno storage condiviso da molteplici utenti o tipologie di utilizzo. Fujitsu per prima sta seguendo questa tendenza: la sua strategia prevede infatti di migrare tutti i propri data center in cloud su tecnologia Openstack. Una chiara scelta di campo verso l’open source».