L’iperconvergenza apre la strada a nuove possibilità. Per avvicinarsi davvero alle esigenze di un business che corre, l’IT deve liberarsi del peso della monoliticità e sposare il modello del cloud ibrido. Piccola guida all’evoluzione del data center

Sostenuta dal vento in poppa alla tendenza verso il software defined everything, l’iperconvergenza sta trasformando gli approcci architetturali e di governo delle grandi infrastrutture di calcolo e storage. E non solo. Le nuove infrastrutture iperconvergenti sono al centro di molte strategie di trasformazione del data center sia in situazioni centrali sia periferiche (branch office, edge) e caratterizzano inoltre una quota significativa di progetti di “privatizzazione” del cloud. Nel 41% dei casi analizzati dagli esperti di IDC, a conferma delle ottime condizioni di salute di questo nuovo mercato, il cloud privato passa per i nuovi apparati iperconvergenti, specialmente dove si punta a un modello di cloud sempre più ibrido. Se la semplicità del self-service è uno dei plus più interessanti per chi investe in soluzioni HCI, l’utenza può approfittare di numerosi vantaggi, ottenendo per esempio un supporto più immediato alle nuove architetture applicative, spesso attraverso la containerizzazione. In più può contare su sofisticate console di monitoraggio della performance e dell’impiego fatto delle risorse convergenti, per calcolare con molta più precisione i relativi ritorni sugli investimenti.

Le infrastrutture iperconvergenti si prestano molto bene alle iniziative dove la prima esigenza è la scalabilità, la possibilità di espandere le proprie risorse in modo molto lineare, semplicemente agendo sul numero dei nodi HCI installati. Infine, l’iperconvergenza si sposa alla pianificazione di infrastrutture ibride, per esempio, consentendo la creazione di isole HCI destinate a specifici carichi di lavoro, o a determinati obiettivi applicativi, inserite in contesti più tradizionali. A fronte del crescente interesse nei confronti di soluzioni HCI, gli analisti di IDC offrono una serie di considerazioni rivolte al potenziale acquirente di queste tecnologie, invitando i decisori aziendali a documentarsi il più possibile su questa nuova opportunità. In “Understanding hyperconverged infrastructure and buying the optimal system” la società di ricerche elenca cinque punti fissi. Primo: al contrario di quanto avviene con le architetture standard convenzionali, esistono tante architetture e varianti HCI e occorre operare opportune scelte strategiche. Secondo: ciascun vendor e ciascun prodotto ha i suoi esclusivi punti di forza e le sue debolezze. Terzo: ogni soluzione HCI di ultima generazione poggia su determinate tecnologie hardware, critiche per una operatività ottimale.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Quarto: nel mondo del software defined everything, il valore di un sistema HCI è soprattutto legato alla suite di funzionalità software offerte o supportate. Quinto: un sistema HCI ottimale diventa parte integrante di qualsiasi strategia IT e business concretamente olistica. «Le soluzioni iperconvergenti sono da sempre viste da IDC come l’elemento cardine su cui fondare il percorso evolutivo dell’infrastruttura del data center, per cogliere i vantaggi di gestione, scalabilità e performance – non solo – in un’ottica di IT tradizionale – quanto soprattutto per mettere le basi per la creazione di un ambiente di cloud privato in grado di interagire con le offerte di cloud pubblico in ottica multicloud e ancor più hybrid cloud» – spiega Sergio Patano, associate research director di IDC Italy.

Sergio Patano, associate research director di IDC Italy

UN’AZIENDA SU DUE

L’attenzione delle aziende verso queste soluzioni è molto alta, tanto che secondo le ultime analisi di IDC, la spesa per tali soluzioni è prevista crescere nel 2020 rispetto al 2019 del 31% e arriverà a sfiorare i 90 milioni di euro. Sul mercato italiano, secondo le ultime survey IDC a disposizione – prosegue Patano – sono meno del 30% le aziende che prevedono di adottare soluzioni iperconvergenti per andare a sostituire l’infrastruttura server o storage esistente». Ma d’altra parte le aziende italiane non puntano sull’iperconvergenza solo per sostituire l’infrastruttura in fase di refresh tecnologico. «Sono infatti oltre il 50% quelle realtà che andranno a investire in sistemi iperconvergenti per potenziare le capacità di calcolo e di archiviazione della propria infrastruttura IT, in aggiunta all’esistente». HCI e cloud sono legati a doppio filo anche nel percorso evolutivo infrastrutturale. In particolare, oltre il 30% delle aziende intervistate dichiara che la propria attitudine è quella di utilizzare i sistemi iperconvergenti per gestire ambienti multicloud. Non solo, le aziende nel 28% dei casi dichiarano che tali sistemi sono fondamentali per lo sviluppo del proprio private cloud per fornire ai propri clienti interni servizi “public-cloud-like” da un ambiente on premise. Infine, completano il quadro del valore percepito dalle realtà italiane, il 18% di aziende che affermano l’importanza critica dei sistemi HCI nello sviluppo e nella realizzazione della propria strategia di hybrid cloud.

Questa tendenza avviene all’interno di un quadro più ampio in cui la priorità delle aziende, per quanto riguarda l’operatività del data center, è nel 71% dei casi la modernizzazione delle proprie infrastrutture di base. «Modernizzazione – specifica Patano – che necessariamente passa da un approccio iper-centralizzato, a tratti monolitico, della concezione dell’IT aziendale, verso una informatica distribuita, in cui l’edge diventa il vero cuore pulsante dell’azienda dove i dati vengono generati, raccolti e analizzati e dove sempre più grazie al continuo sviluppo di soluzioni di intelligenza artificiale e machine learning le decisioni (almeno alcune) verranno prese in modo autonomo e automatizzato». Questo fenomeno di “decentralizzazione funzionale” caratterizzerà molto le future scelte di investimento. Secondo le ultime previsioni di IDC, infatti, dentro a un orizzonte temporale non troppo lungo, da qui al 2023, il 60% dell’infrastruttura risiederà all’edge anziché nei data center tradizionali. E su queste infrastrutture “gireranno” un numero sempre crescente di applicazioni, siano esse mission critical o meno. «Questo comporterà una inevitabile crescita nella complessità di gestione e nella governance di dati, applicazioni e infrastrutture che le aziende puntano di affrontare anche grazie all’implementazione di sistemi iperconvergenti che integrano soluzioni di monitoraggio di ambienti così distribuiti» – conclude Patano.

IL PIONIERE DELLA TRASFORMAZIONE

Per cercare di tracciare, insieme a un quadro introduttivo, l’atteggiamento che oggi i decisori aziendali assumono nei confronti dell’iperconvergenza, Data Manager ha chiesto l’aiuto di Nutanix, un brand relativamente nuovo (ha compiuto i dieci anni di vita a settembre dello scorso anno), salito rapidamente alla ribalta come primo portavoce delle infrastrutture di calcolo distribuito e storage virtualizzate. Dagli analisti di mercato, Nutanix è considerata un leader assoluto delle infrastrutture software defined. Abbiamo parlato con Christian Turcati, technical director Italy, chiedendogli innanzitutto di illustrare in modo più dettagliato l’approccio adottato dalla sua azienda.

Leggi anche:  La trasformazione digitale del Procurement di Club del Sole con JAGGAER
Christian Turcati, technical director Italy di Nutanix

«Nutanix – riconosce Turcati – è fortemente associato all’iperconvergenza. A nostro parere, la metodologia più semplice per introdurre un concetto tanto disruptive consiste nel cercare di renderlo semplice ed è su questa semplicità che facciamo leva». In realtà, prosegue il technical director, Nutanix ha una visione che va al di là del concetto di iperconvergenza in sé. «Vogliamo affiancare i clienti nella loro trasformazione digitale, aggregando public e private cloud ed edge. Il primo passo consigliato è proprio la modernizzazione del data center». Quando i servizi di public cloud sono entrati nella realtà quotidiana delle organizzazioni, imprese e uffici hanno cominciato a toccare con mano concetti interessanti come la flessibilità o la convenienza del pay per use. Una flessibilità che viene nativamente incontro alla prima richiesta fatta dalle aziende ai loro dipartimenti IT: essere sempre più veloci nell’assecondare i servizi erogati con una infrastruttura adatta a quei servizi, non un MIPS di meno non un MIPS di più.

Perché le infrastrutture HCI sono un punto di partenza così naturale? «Semplicemente perché è complicato far parlare tra loro due mondi troppo diversi: cloud e infrastrutture tradizionali» – ribadisce Turcati. Ancora oggi, nonostante l’uso diffuso della virtualizzazione e il crescente uso del software defined, il modello di riferimento del data center è ancora quello del rack, dei singoli server, dell’appliance di storage. «Il trucco – spiega Turcati – è rendere il data center più simile al nuovo paradigma del cloud». Affrancandolo dall’identificazione tra hardware e servizio e adottando invece il binomio hardware come generica risorsa e software come gestore, “automatizzatore” di quella risorsa.

Nutanix è particolarmente titolata ad affrontare questo ulteriore livello di astrazione proprio perché il percorso seguito è stato per molti versi pionieristico. «Prima di Nutanix, l’iperconvergenza non esisteva neppure, Gartner non aveva ancora uno specifico quadrante» – fa notare Turcati. «Nasciamo nel 2009 e tra i primi ci siamo svincolati dal concetto di hardware e software combinati in una appliance a sua volta inserita in un rack, spostandoci verso l’idea di una infrastruttura completamente software defined». Un salto – aggiunge l’esperto di Nutanix – che non avviene per caso, ma rappresenta il punto di arrivo di una precisa storia evolutiva del data center. Il passo intermedio è quell’idea di infrastruttura convergente che sostituisce: il primo paradigma della sala macchine “parcellizzata” dove le singola macchine e le unità di storage lavoravano insieme sotto una sommaria regia di insieme. Una infrastruttura iperconvergente, funzionalmente definita attraverso un software che “alloca” risorse di calcolo e archiviazione in base alle necessità, stravolge però completamente questo concetto di base.

PARTIRE DALLO STANDARD

«I data center con cui oggi abbiamo a che fare sono il risultato di vent’anni di esperienza» – spiega Turcati. «L’HCI ci invita a compiere un salto generazionale, ripartendo quasi da zero». E vedremo dopo che cosa significa questa ripartenza in termini pratici. Il salto compiuto da Nutanix è estremo, “software only” e nasce da un modello “Web scale” dove tutto è distribuito (distributed everything), tutto gestito a livello di software. Un esempio? Nella gestione del dato si parla da decenni di sistemi RAID, che Nutanix gestisce in modo totalmente SD (software defined) e svincolata da controller RAID hardware. «Nutanix ha scelto di sviluppare la propria soluzione totalmente svincolata dall’hardware, per cui le nostre soluzioni possono adottare sistemi di tipo standard, contrariamente ad altri approcci che per risolvere certe sfide utilizzano hardware proprietario». Tuttavia, restano alcuni vincoli da rispettare, almeno quando si cerca di ragionare sull’iperconvergenza in ottica di protezione degli investimenti. In un approccio convenzionale, l’aspetto fondamentale che viene stravolto è che senza iperconvergenza, la parte computazionale, lo storage e il network rappresentano tre livelli separati. Nelle HCI, i tre livelli vengono gestiti in modo integrato dal software, anche se dal punto di vista strettamente hardware in un substrato inferiore continuano a lavorare server collegati con reti convenzionali. Questo vuol dire forse che l’iperconvergenza può essere sovrapposta a qualunque strato hardware? «Dipende» – risponde Turcati. «In linea generale, determinati investimenti si possono proteggere, ma l’HCI introduce nuove sfide e alla base richiede hardware di nuova generazione». In altre parole, se si tratta di installazioni particolarmente recenti, dotate di determinate caratteristiche, forse è possibile pensare di riutilizzarle, ma con sistemi progettati per una classica architettura three-tier, si possono avere limitazioni che impediscono alle soluzioni iperconvergenti di funzionare al massimo delle potenzialità.

Leggi anche:  Capgemini e Microsoft collaborano per trasformare le aziende grazie all’implementazione accelerata dell’AI generativa

In ogni caso, reinvestire può essere conveniente. Sono stati realizzati studi che quantificano il risparmio ottenuto in termini di rack unit e spazi occupati, corrente, condizionamento. Ma quando si parla di “convenienza”, il cartellino del prezzo o il totale in bolletta possono non essere gli unici fattori. «L’aspetto più evidente è che con un hardware troppo specializzato ho a disposizione una serie limitata di funzionalità» – osserva Turcati. «Se svincolo l’aspetto delle funzionalità dall’hardware, il mio potenziale presente e futuro aumenta notevolmente. E’ la differenza delle potenzialità che abbiamo quando per esempio compravamo una fotocamera digitale o un navigatore rispetto a uno smartphone di ultima generazione. Questa è forse la differenza più marcata tra appliance e software defined».

Altra chiave di differenziazione suggerita da Nutanix riguarda il superamento di alcune limitazioni legate per esempio a certe tecnologie di storage. Con il tempo ci si è accorti che la potenza dei dischi interni ai server non era più sufficiente per certe applicazioni e da qui nasce tutto il mercato delle unità “esternalizzate” e delle reti di interconnessioni storage. In questo modo, abbiamo risolto determinati problemi di disponibilità, ma di fatto abbiamo allontanato i dati dalle applicazioni che ora devono attraversare diversi strati hardware e software. Nel disegno della sua soluzione, Nutanix cerca invece di avvicinare il più possibile il dato alla app che lo utilizza. «Non solo, l’approccio software defined aggrega tutto lo spazio disco virtualmente disponibile intorno alle app, e cerca di avvicinarlo il più possibile». Le minori latenze – secondo Turcati – consentono di sfruttare in modo più efficace le tecnologie oggi disponibili, tipicamente le architetture SSD o le famiglie di prodotti basati su NVME, non-volatile memory express, migliorando le prestazioni e i tempi di risposta delle applicazioni.

DATI E APPLICAZIONI

E a proposito di applicazioni, contrariamente all’opinione generale, l’iperconvergenza non sembra avvantaggiare solo specifici carichi di lavoro su altri. Come spesso succede con le tecnologie emergenti, in fase iniziale spesso si impongono determinati casi d’uso. Per l’HCI – ricorda Turcati – uno dei carichi di lavoro più motivanti era il supporto della virtualizzazione del desktop nei progetti di smart working che hanno contraddistinto la storia iniziale della trasformazione digitale. Di fronte a un carico di lavoro di questo tipo, le infrastrutture tradizionali vengono messe sotto stress. Passare da carichi di lavoro generati da singole applicazioni monolitiche a una situazione in cui cento o mille desktop virtuali accedono contemporaneamente ad applicazioni e servizi diversi – fa subito emergere la necessità di interporre, tra le postazioni di lavoro smart e il data center, un substrato hardware molto performante e di conseguenza costoso. Oggi, Nutanix permette di realizzare questa infrastruttura in modo rapido e performante, implementando il VDI in modo veloce – spiega Turcati. Con grande apprezzamento di tutti perché se è vero che l’accesso fluido a un database è spesso considerato critico, avere qualche centinaio di utenti su desktop virtuale che si lamentano per la lentezza del loro lavoro rappresenta un bel grattacapo per l’IT.

Sull’onda dei primi successi ottenuti in quest’ambito, Nutanix ha incoraggiato i suoi clienti a valutare l’uso delle proprie soluzioni in altri ambiti, come la virtualizzazione dei server, il consolidamento dei database. «E abbiamo aiutato le aziende a comprendere il valore dell’iperconvergenza per la virtualizzazione server, il consolidamento DB e le applicazioni di nuova generazione. Soprattutto in fase iniziale abbiamo aggredito le aree applicative del Test&Dev interessati all’aspetto della facilità e della flessibilità». Ma i livelli di accettazione delle infrastrutture HCI sono diventati velocemente più generalizzati. «Non è raro – osserva Turcati – trovare clienti che hanno trasferito le applicazioni di produzione e mission critical sui nostri sistemi inizialmente identificati per il Test&Dev e riutilizzato i sistemi tradizionali per questi ultimi carichi di lavoro. Oggi, si può affermare che non esiste un uso specifico per un’infrastruttura sempre più “multipurpose”. Ormai si lavora su tutti i fronti e l’Italia si rivela molto innovatrice: molte app medicali o di Big Data, per esempio, sono state certificate su richiesta di clienti italiani».

Leggi anche:  Reti intelligenti, l’AI in azione

Il livello di gradimento lo dimostra. Dai feedback che arrivano dai suoi clienti, Nutanix ritiene che la caratteristica più apprezzata è la semplicità. Le soluzioni HCI vengono progettate con in mente i due principi cardine della user experience: la fluidità e l’intuitività. Tutto viene ottimizzato e automatizzato in funzione di questo, per assicurare la massima efficienza possibile. «Il cliente può scegliere la strategia da seguire, pianificando investimenti di lungo termine o diluendo le spese in base alle necessità del momento. Con infrastrutture di tipo più tradizionale questa potenzialità si riduce».

Un terzo motivo è la maggiore libertà di movimento nel tipo di scelte hardware da effettuare. L’iperconvergenza di Nutanix pone l’utente di sistemi software defined in una zona meno vincolata, a metà strada tra la pura appliance e il puro software. La flessibilità non viene intaccata, ma il cliente mantiene tutto il controllo del data center. Nutanix ha realizzato una matrice di selezione dell’offerta hardware esistente per individuare i sistemi compatibili in grado di assicurare la massima performance e permettere di gestire la scelta in proprio o di utilizzare configurazioni pre-selezionate o in modalità OEM. In più non dimentichiamo tutto l’aspetto della sicurezza. «Per avere una soluzione ad ampio spettro di protezione – spiega Turcati – siamo partiti da un rigoroso criterio di sicurezza by design, costruendo un ambiente nativamente sicuro. Nutanix piace molto in ambito militare, perché per esempio se un admin dovesse impostare delle configurazioni potenzialmente “a rischio”, il sistema stesso ripristina automaticamente i livelli minimi di sicurezza».

IL FUTURO È DELLE PERIFERIE

Resta un’ultima considerazione da fare. L’iperconvergenza determina particolari shock culturali in chi la usa? È una scelta che richiede molto coraggio e preparazione? «Il nostro compito è aiutare il cliente nella sua trasformazione, avvicinandolo al business. L’approccio “keep the lights on” non ha più molto senso: dobbiamo trovare il tempo di andare verso modelli nuovi, come la containerizzazione». Davanti all’esortazione di rimuovere, attraverso l’automazione, il carico di lavoro dalle spalle dei responsabili IT in genere comporta due tipi di reazione: c’è chi si innamora da subito delle risorse che questo approccio consente di liberare e altri, magari nelle organizzazioni più grandi e strutturate, che reagiscono irrigidendosi. «Il nostro lavoro è far capire che non si perde nulla, che anzi c’è la possibilità di evolvere, fare nuove esperienze, concludere i progetti che la complessità aveva lasciato in sospeso».

L’iperconvergenza apre la strada a nuove competenze, alla capacità di sfruttare le infrastrutture IT per fare la differenza sul piano del business. È il modo più indicato per avvicinarsi alla visione dell’hybrid cloud, a questo mondo di servizi componibili, non più specializzati o da sviluppare ex novo. La storia dell’informatica come servizio è da sempre caratterizzata da grandi ere. Dal mainframe alle reti di personal computer. Oggi, siamo in una fase in cui i servizi sono sempre più distribuiti ma fisicamente concentrati in grandi data center, che sta però diventando anch’esso distribuito, fluido. Nutanix sta lavorando molto su quello che avviene all’esterno di queste isole, sull’edge computing e sull’IoT, o nei territori dove i dispositivi wearable danno la possibilità di operare in modo radicalmente diverso. Dove tecnologie come il riconoscimento dei volti e l’AI possono prendere il posto delle tradizionali relazioni commerciali, delle decisioni prese da un pilota o da un medico di base. In questi spazi periferici, lontani dal data center, ci sarà un crescente fabbisogno di potenza di calcolo, di capacità di machine learning. Anche per questo motivo l’iperconvergenza smette di essere un dominio esclusivo dei grandi progetti di trasformazione e viene adottata anche da aziende e organizzazioni di medie dimensioni. Se tutti i servizi risiedono nel cloud, la progettualità delle infrastrutture software defined diventa interesse di tutti, a partire dal grande data center che deve rinunciare alla propria monoliticità, fino a una utenza sempre più fluida e granulare.