A tutto storage. Agilità e iperconvergenza

Kyndryl e Dynatrace annunciano un’alleanza globale per migliorare gli insights dei clienti

Grazie all’affermazione di nuovi paradigmi anche in risposta alle nuove esigenze dettate dalla digital transformation, lo storage consolida il suo ruolo centrale nelle strategie IT, con la netta consacrazione del flash storage e l’emergere prepotente del software defined

Tra la definitiva consacrazione dello storage flash, cioè la tecnologia di memorizzazione senza parti in movimento, e la sempre più netta affermazione del paradigma software defined anche nello storage, il panorama di questa importantissima componente dell’IT è in piena trasformazione. Se per il flash, come si vedrà più avanti, i giochi sono per così dire ormai abbondantemente fatti, visto che questa tecnologia è da tempo presente a pieno titolo nel portafoglio prodotti di tutti i vendor, anche di quelli più tradizionali, per il software defined storage, indicato brevemente come SDS, la situazione è ancora in sviluppo, ma con prospettive di tutto rilievo.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

L’ORA DEL SOFTWARE DEFINED

Lo scenario in divenire è riflesso nei dati degli analisti, che rivelano puntualmente questa nuova trasformazione di mercato. Infatti, secondo le previsioni di IDC, nell’arco di tempo che va dal 2017 al 2021, la crescita del mercato del software defined storage supererà in modo significativo quella dello storage di tipo enterprise, grazie anche alla spinta delle infrastrutture iperconvergenti, con un tasso di incremento annuale composto, CAGR, pari al 13,5 per cento, per una spesa totale che nel 2021 si attesterà su oltre 16 miliardi di dollari. Lo storage definito dal software è oggi una delle numerose nuove tecnologie che stanno rapidamente facendo breccia nelle infrastrutture IT sia delle aziende sia dei provider di servizi cloud. La ragione è che lo storage software defined soddisfa le esigenze dei data center di nuova generazione in maniera molto più adeguata rispetto alle soluzioni storage legacy.

MAGGIORE AGILITÀ

È anche per questo, sottolinea ancora IDC, che gli investimenti in storage hanno da tempo iniziato a spostarsi dal tipico design hardware con array a doppio controller verso il software defined, e dall’infrastruttura IT tradizionale di tipo on premises verso gli ambienti cloud, sia pubblici sia privati, basati su infrastrutture Web standard. Anche le soluzioni di storage definito dal software si basano su hardware standard e pronto all’uso che è in grado di offrire tutte le funzionalità chiave di storage nel software. Rispetto alle architetture di storage legacy, le soluzioni definite dal software offrono una maggiore agilità, come per esempio un provisioning dello storage più rapido e semplice, funzionalità autonome di gestione dello storage, che riducono i costi amministrativi, e la possibilità di utilizzare hardware di costo inferiore.

EMERGE L’IPERCONVERGENZA

«In fase di trasformazione digitale, lo storage definito dal software offre tutte le funzionalità necessarie: agilità flessibile per l’IT, amministrazione più semplice e intuitiva, basata sulle caratteristiche di gestione autonoma dello storage e minori costi in conto capitale, derivanti dalla possibilità di utilizzare hardware standard» – fa notare Sergio Patano, senior research & consulting manager di IDC Italia, spiegando che «alla luce del fatto che queste caratteristiche sono sempre più presenti nei requisiti che indicano i criteri di acquisto, la spesa in storage continuerà a spostarsi maggiormente verso il software defined». Non solo: all’interno del mercato del software defined storage gli analisti di IDC notano la spinta verso l’espansione di alcuni sotto-segmenti chiave, dovuta ai requisiti dei data center di prossima generazione.

RAPIDA CRESCITA

Quello delle infrastrutture iperconvergenti è il sotto-segmento a più rapida fase di crescita, con un tasso di crescita annuale composto quinquennale del 26,6 per cento, che corrisponde a una spesa totale di 7,15 miliardi di dollari nel 2021. Nello stesso arco di tempo, l’object storage registrerà invece, sempre secondo i dati IDC, una crescita del 10,3 per cento nel periodo di previsione, mentre lo storage file-based e quello block-based cresceranno rispettivamente del 6,3 e 4,7 per cento. Inoltre, alla luce del fatto che i sistemi iperconvergenti si trovano tipicamente a sostituire i sistemi di storage legacy basati su SAN e NAS, da poco più di un anno e mezzo tutti i principali vendor storage aziendali si sono affacciati in modo concreto su questo nuovo mercato, che è oggi uno dei più effervescenti.

Leggi anche:  Una Data Strategy efficace

L’AFFERMAZIONE DEL FLASH

Anche per quanto riguarda il settore dello storage flash, sempre in base ai dati IDC, le prospettive rimangono più che positive, in quanto le previsioni in termini di unità consegnate, di fatturato e di capacità totale spedita parlano di una solida crescita per tutto il periodo che va dal 2016 al 2021: in termini di unità consegnate, il tasso di crescita annuale composto nell’arco di questi cinque anni dovrebbe attestarsi sul 15,1 per cento, mentre il fatturato dovrebbe raggiungere i 33,6 miliardi di dollari nel 2021, con un CAGR in crescita del 14,8 per cento. Tra i motivi di questa perdurante affermazione, gli analisti di IDC indicano in primo luogo una maggiore disponibilità dei prodotti e il miglioramento delle dinamiche dei prezzi, dovuto anche allo spostamento verso la tecnologia 3D Nand Flash, i cui vincoli di quantità disponibile inizieranno ad allentarsi nel corso di quest’anno, contribuendo a un’ulteriore riduzione dei prezzi nel mercato flash nel suo complesso. A sua volta, la riduzione dei prezzi dei drive a stato solido SSD, ovvero Solid State Drive, come vengono spesso indicati i dispositivi flash, determinerà una loro maggiore adozione nei PC e in altri dispositivi client, con una crescita complessiva stimata da IDC nell’arco dei cinque anni che vanno dal 2016 al 2021 nell’ordine del 15,8 per cento.

FORTE DOMANDA

Nel frattempo, la domanda rimarrà forte anche nell’ambito enterprise, dato che le aziende si rivolgono sempre più ai sistemi ottimizzati per il flash anche per le tradizionali esigenze di storage e per le soluzioni data center. «Il flash rappresenta sempre più una tecnologia storage ampiamente utilizzata in tutti gli ambiti IT, e svolge un ruolo importante nel rendere possibile la trasformazione digitale, che è a sua volta un fenomeno che continuerà a spingere ulteriormente l’adozione di storage flash» – prosegue Sergio Patano. Lo storage flash sta anche prendendo sempre più piede non solo nell’ambito dei client e nel mercato enterprise, ma anche in altri ambiti applicativi, come quello dell’Internet of Things, dove l’elevata affidabilità, l’estrema flessibilità – a livello sia di fattore di forma sia di capacità – e la robustezza operativa in ambienti difficili si stanno rivelando molto utili.

FATTORI INTRINSECI

In sostanza, se il successo del flash è dovuto a molti fattori intrinseci al tipo di tecnologia, non va comunque trascurato il fatto che i vantaggi tipici dello storage flash assumono una valenza particolare alla luce della grande trasformazione in atto da tempo nell’IT, determinando una grande evoluzione anche nello storage,  che è chiamato a svolgere compiti ancora più rilevanti, per affrontare la crescita esponenziale dei volumi di dati da archiviare e soprattutto da gestire. Queste nuove esigenze di gestione dei dati archiviati nascono anche sulla base delle spinte normative, come è per esempio il caso del GDPR, il nuovo regolamento europeo sulla privacy, che come noto diventa operativo proprio in questo mese di maggio 2018, e che impone tra l’altro che le aziende riescano a gestire e proteggere i dati personali e sappiano dove questi risiedono, dimostrando di averne un controllo totale.

LE SPINTE NORMATIVE

Come si fa notare da molte parti, rispondere in maniera efficace a quanto previsto dal regolamento GDPR, o affrontare possibili incidenti di sicurezza, diventa molto difficile se i sistemi IT presenti in azienda richiedono tempi misurati in giorni per effettuare il backup, l’indicizzazione e il ripristino dei dati. Il punto è che per arrivare a controllare efficacemente e soprattutto proteggere il patrimonio dei dati, diventa sempre più necessario investire in reti più veloci e in funzioni di data discovery e di indicizzazione performanti. È anche il caso di puntare su tool e su piattaforme necessarie per migliorare la visibilità e le prestazioni complessive dei sistemi. Non a caso, gli analisti di IDC hanno previsto che il 34 per cento delle aziende europee aumenterà la spesa destinata allo storage on premise agevolando così la strada verso la compliance al GDPR, investendo 3,37 miliardi di dollari nel 2018 a livello di Europa occidentale.

Leggi anche:  OpenAI lancia nuove funzionalità di ChatGPT Plus

IL CLOUD NON STA A GUARDARE

Ma vi è anche un altro risvolto dovuto alle nuove normative: i requisiti sempre più stringenti sul controllo dei dati tenderanno a incrementare ulteriormente l’attrattiva verso il cloud ibrido, alla luce del fatto che un numero sempre maggiore di aziende cerca di realizzare un compromesso tra le esigenze delle persone dell’IT e i costi vantaggiosi promessi delle piattaforme cloud pubbliche rispetto a quelli del modello on-premise. In effetti, molti osservano che il cambio di paradigma dalla virtualizzazione verso le soluzioni native del cloud e dei container è dovuto a una maggiore attenzione verso la comunicazione tra cloud pubblico e cloud privato, e soprattutto alla migrazione dei dati. In questo scenario, le tecnologie in grado di integrare potenza e sicurezza in architetture multi-tenant, nell’ottica di questa nuova mobilità del dato, sono destinate ad avere la leadership sul mercato, imponendosi sempre più all’attenzione. Tutto questo perché spostare e allocare i dati costituirà sempre più un requisito essenziale del cloud, alla luce del fatto che le aziende prendono in considerazione la collocazione effettiva dei dati da una prospettiva sia di business sia di tipo legislativo, come ben sanno le aziende che si trovano a operare nell’Unione europea, che ha leggi molto chiare sull’ubicazione dei dati. Trasferire il patrimonio informativo in data center presenti in ogni regione diventerà un’operazione sempre più comune, specialmente attraverso il collegamento tra sistemi storage ad alta capacità e sistemi di elaborazione in locale, per applicazioni mission-critical o di particolare importanza.

PERFORMANCE IN PRIMO PIANO

Quindi, la necessità di disporre, anche alla luce della trasformazione digitale in atto, di sistemi storage a elevata capacità e performance superiori è ormai un dato di fatto. Non a caso, anche la società di analisi e ricerche Gartner, nel report Critical capabilities for Solid-State Arrays osserva che il mercato degli array flash “continua la sua crescita, con nuovi prodotti con performance sempre maggiori e funzionalità ancora più estese: anche la stessa capacità di archiviazione continua a espandersi grazie al miglioramento della progettazione e della densità degli array realizzati dai vendor, e questa maggiore capacità consente un abbassamento dei prezzi di accesso, con un corrispondente incremento degli use case possibili, ovvero degli ambiti nei quali le soluzioni storage flash diventano indicati”. Il report di Gartner elenca in dettaglio sia i casi d’uso sia le funzionalità per le quali gli array storage flash sono maggiormente indicati.

CINQUE CASI DI RILIEVO

Tra i casi d’uso menzionati da Gartner, al primo posto si indica l’online transaction processing, l’OLTP, che è un campo tipicamente connesso a molte delle applicazioni business critical, con risvolti importanti anche in tema di sistemi di gestione dei data base, i DBMS; in secondo luogo, gli analisti di Gartner menzionano la virtualizzazione dei server, in particolare per le applicazioni critiche che vengono eseguite sui server enterprise e sui carichi di lavoro di back office, molto spesso demandati proprio agli ambienti server virtualizzati; al terzo posto si parla della VDI, la virtual desktop infrastructure, la cui adozione prosegue con successo, che consiste nella virtualizzazione di sistemi operativi desktop, messi a disposizione tramite server centralizzati: in questi casi, lo storage è indispensabile per assicurare la disponibilità di tali ambienti sia agli utenti sia alle applicazioni che devono accedervi; al quarto punto dell’elenco si situa l’HPC, high performance computing, all’interno del quale è intrinsecamente necessario configurare cluster server e storage a elevate prestazioni, per supportare processi e applicazioni estremamente critiche, come per esempio l’analisi dei dati all’interno dei reparti ricerca & sviluppo; infine, al quinto posto, di certo non per ordine di importanza come è in realtà vero per tutti i casi d’uso qui considerati, si parla di analytics: in questo ambito lo storage rappresenta l’infrastruttura critica per mettere i dati a disposizione dei tool di analisi, e deve quindi garantire la massima disponibilità del dato.

LE FUNZIONALITÀ ATTESE

Sempre nel report “Critical capabilities for Solid-State Arrays” di Gartner vengono esaminate anche le sette funzionalità chiave che sono richieste allo storage flash. Innanzitutto si parla di “ecosistema”, riferendosi alla capacità delle piattaforme storage di supportare differenti protocolli di comunicazione e sistemi operativi diversificati, oltre a una adeguata quantità di applicazioni, API e Hypervisor realizzati da diversi vendor. È poi importante la “gestibilità”, ovvero la presenza di caratteristiche di gestione, monitoring, reporting e programmazione, oltre che di automazione che semplificano le procedure tipiche come il provisioning, la distribuzione e il controllo dei dati, e accelerano le operazioni di chi gestisce le piattaforme e gli ambienti storage. Si parla poi di “multitenancy e sicurezza”, facendo riferimento alla capacità del sistema storage di supportare differenti carichi di lavoro, fornendo agli utenti funzionalità di accesso e controllo oltre che di configurazione dinamica dei sistemi. Al quarto posto, si menzionano in maniera generica le “performance”, ma è ovvio che ci si riferisce a tutti i tipi di prestazioni, in termini di IOPS, cioè l’Input/Output al secondo, di ampiezza e capacità di banda di connessione e infine di tempi di risposta dei sistemi storage. Il gruppo “reliability, availability e serviceability” fa invece riferimento all’affidabilità, alla disponibilità e alla facilità di manutenzione della piattaforma storage, dove vengono premiati i sistemi in grado di prevenire i downtime oppure capaci di allocare dinamicamente le risorse nel caso vi siano componenti che presentano problemi, allo scopo di poter intervenire senza che vi siano conseguenze negative per utenti, applicazioni e processi. “Scalabilità” è ovviamente la possibilità della piattaforma di crescere in termini di capacità, performance e connettività, e di farlo in base al variare delle esigenze di business. Infine, si parla di “efficienza”, intendendo non il semplice costo, ma la capacità della piattaforma di supportare in maniera efficiente tecnologie e funzionalità quali la compressione dei dati, la deduplica, il thin provisioning e un utilizzo ottimale delle risorse.

Leggi anche:  Coop Alleanza 3.0 sceglie Google Cloud per migliorare l’efficienza e ridurre il proprio impatto ambientale

IL DATA CENTER ALL FLASH È QUI

Visto che gli array all flash di oggi, proposti ormai non più solo da vendor per così dire pionieristici o giovani come per esempio Pure Storage oppure Infinidat, ma anche da fornitori più consolidati come Hewlett Packard Enterprise, IBM, Dell EMC e NetApp, tanto per fare qualche nome, sono in grado di esprimere tutte le funzionalità necessarie alle esigenze di business dettate dalla trasformazione digitale, il passo verso il data center “tutto-flash” è quindi meno lontano di quanto si sarebbe potuto ipotizzare solo pochissimi anni fa. Se già oggi la tecnologia flash è imperativa in applicazioni quali per esempio la virtualizzazione server, le infrastrutture di virtual desktop e gli analytics, che sono tutti casi d’uso che prevedono altissimi livelli di performance dei sistemi storage, gli ulteriori percorsi della trasformazione digitale, con il prevalere di modelli di business sempre più digitalizzati, renderanno imprescindibili le caratteristiche tipiche dello storage “solid state”.

VERSO NUOVI PARADIGMI

In ogni caso, allo storage di nuova generazione sembrano destinati ulteriori successi, anche grazie alla crescita di paradigmi come l’intelligenza artificiale e l’apprendimento automatico, che presuppongono uno storage ancora più performante. Se è vero che disporre di un ambiente data center scalabile e ad alte prestazioni è un requisito di base per ogni business, è anche vero che la crescente presenza del cloud nelle scelte tecnologiche delle aziende comporta ancora più requisiti per lo storage, soprattutto in termini di prestazioni e scalabilità. In sostanza, il flash storage nell’era del cloud, soprattutto ibrido, deve essere in grado di gestire i dati a velocità ancora più elevate, minimizzando i rischi che una latenza alta o altri colli di bottiglia nella gestione dei dati possano avere riflessi negativi sul business. Perché il valore dei dati si può ampliare anche rendendo possibile accedervi ancora più rapidamente e soprattutto in maniera affidabile. Grazie al nuovo storage, si potranno realizzare nuove applicazioni in grado di moltiplicare il valore di business dai dati e trarre vantaggio dall’intelligenza artificiale e perché no anche dall’apprendimento automatico o machine learning che dir si voglia.