Storage. Nuove frontiere

In tempi neanche troppo lontani era concepito come componente “periferica” dell’IT, ma oggi lo storage svolge un ruolo fondamentale nell’infrastruttura di data center, a pari dignità con server e networking, grazie anche ai nuovi paradigmi quali il cloud, il flash e il software defined

 

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Il mutamento in atto da tempo nell’ICT non risparmia neppure una delle sue componenti chiave, anzi uno dei pilastri essenziali del data center: lo storage. Il cambiamento è dovuto anche alle grandi trasformazioni indotte dai nuovi paradigmi: se da un lato la virtualizzazione server ha acquisito da tempo una maturità tale da permettere all’IT di essere, oltre che più reattivo, anche proattivo verso le crescenti esigenze del business aziendale, dall’altro lato l’attenzione si è spostata sulla componente storage dei data center, che è chiamata a nuovi impegnativi compiti, ai quali non è estraneo anche il far fronte alla crescita esponenziale dei volumi di dati da archiviare ma soprattutto gestire, in risposta all’affermarsi dei noti fenomeni quali per esempio la proliferazione di device mobili capaci di generare sempre nuovi contenuti; le crescenti esigenze dovute alla compliance, con il corollario di necessità di back up e di archiviazione sicura; e infine lo sviluppo delle attività di business analytics e big data, solo per nominare i fenomeni più evidenti.

 

Performance e flessibilità

L’incremento della complessità infrastrutturale rende sempre più indispensabili maggiori capacità di archiviazione e soprattutto un incremento delle performance. Gli ambienti storage quindi non solo sono chiamati ad avere maggiori capacità, ma devono in primis essere ancora più performanti e reattivi. La partita oggi si gioca nelle soluzioni storage incentrate sulla gestione del “dato”, focalizzandosi sugli ambienti che privilegiano le prestazioni. È anche per questo che, diversamente dal passato, si parla sempre meno delle tecnologie utilizzate per archiviare i dati: l’attenzione è puntata sulle soluzioni che migliorano la velocità di accesso ai dati e la loro gestione, che deve essere sempre più flessibile. Ecco quindi che i compiti assegnati allo storage sono sempre più diversificati, con una conseguente trasformazione delle soluzioni, che vedono sistemi sempre più integrati e scalabili che favoriscono al massimo l’efficienza e riducono al minimo i tempi di progettazione, gestione e manutenzione dell’intera funzione di storage. È anche per questo che quello dello storage è oggi uno dei settori tecnologici più dinamici e ricchi di innovazione. E, tra i nuovi paradigmi che stanno guidando l’attuale cambiamento nel mondo della memorizzazione e della gestione dei dati, ne spiccano in particolare tre: il cloud storage, il software defined storage e infine il flash storage.

Uno sguardo al mercato

Ma prima di analizzare da vicino le nuove tendenze tecnologiche, vale la pena soffermarsi sui più recenti dati di mercato, che mostrano come lo storage tradizionale su disco abbia ancora molte frecce al proprio arco. Le rilevazioni compiute da Gartner su quello che la società di analisi qualifica come il settore ECB, cioè external controlled based disk storage, mostrano infatti che l’ultimo trimestre 2013 ha fatto segnare un aumento del 5 per cento rispetto allo stesso periodo dell’anno precedente, per un totale a livello mondiale nel trimestre di 6,3 miliardi di dollari. Il fatturato globale dei vendor di storage esterno su disco per l’intero anno 2013 ha superato i 22 miliardi di dollari (per l’esattezza 22,5), con un lieve aumento, pari all’1,4 per cento, rispetto al totale dell’anno precedente. Gartner non manca di sottolineare come questo andamento rispecchi il perdurare del momento economico delicato nelle aree di America del Nord, Europa e Giappone. Nel contempo, lo “scatto” fatto registrare nel quarto trimestre, con il suo 5 per cento di crescita, lascia ben sperare per il 2014. Di certo, alcuni vendor risultano meglio posizionati di altri, sia per leadership, che vede ai primi tre posti rispettivamente EMC, IBM e NetApp, sia per dati di crescita, che hanno visto premiare in particolare HP, la cui offerta 3Par StoreServ e StoreOnce ha messo a segno nel quarto trimestre 2013 uno strabiliante incremento del 25,3 per cento rispetto allo stesso periodo dell’anno precedente.

Cloud storage sugli scudi

Ma a fotografare le tendenze ci pensa IDC, che registra in primo luogo un andamento in crescita per il mercato dello storage su cloud, quello che vede i dati sempre più conservati su sistemi virtuali nella “nuvola”, con notevoli vantaggi soprattutto in termini di riduzione dei costi e di maggiore flessibilità. «A livello mondiale, si stima che la spesa totale per system storage, software e servizi IT forniti da parte dei Public Service Provider registrerà un tasso composto annuo di crescita, il CAGR, del 16 per cento nel periodo 2013-2017, passando da 7,4 miliardi di dollari a 12,7 miliardi di dollari» – spiega a Data Manager, Sergio Patano, IT research & consulting manager di IDC Italia (www.idcitalia.com). Analoghe prospettive di crescita riguardano anche, sempre secondo IDC, lo storage nei cloud privati, la cui spesa avrà un CAGR pari al 24% circa, passando dai sei miliardi di dollari del 2013 ai 15 miliardi di dollari del 2017. Tra i fattori all’origine di questa crescita, prevista per i prossimi anni, la società di ricerca individua in particolare «i carichi di lavoro legati al fenomeno dei big data, che saranno tra i principali contributori allo sviluppo delle infrastrutture cloud, e i fornitori di contenuti a valore aggiunto, che saranno responsabili del consumo di almeno un terzo di tutta la nuova capacità storage consegnata» – sottolinea Patano.

Leggi anche:  Apple, niente pulsanti touch sul prossimo iPhone

L’ora del BYOC

Insomma, lo storage nel cloud pare destinato a un futuro luminoso, forse anche per effetto di un altro fenomeno che ha preso piede da tempo: il BYOC, cioè “bring your own cloud”. Anche se va detto che qualcuno comincia a definirlo “bring your own confusion”, il BYOC, analogamente al BYOD, è un effetto della crescente consumerizzazione dell’IT, e vede utilizzare anche per i dati aziendali gli spazi storage nati originariamente per uso personale, come per esempio iCloud di Apple, OneDrive (l’ex SkyDrive di casa Microsoft ribattezzato recentemente su istanza del colosso dei media Sky), Google Drive e Dropbox. Non sono pochi ad apprezzare la possibilità di avere accesso a dati e applicazioni con qualunque device e ovunque ci si trovi, così come viene lodato il fatto che spesso i sistemi di cloud storage effettuano il backup dei dati senza che debbano essere adottati interventi specifici. Ma va anche considerato un altro aspetto tutt’altro che secondario: il costo gratuito oppure quasi simbolico di questi servizi, divenuti ancora più vantaggiosi a metà marzo di quest’anno grazie al robusto calo dei prezzi adottato da alcuni fornitori. E anche se è ancora presto per parlare di una nuova “guerra dei prezzi”, è un fatto che il taglio dei costi sta investendo pesantemente le versioni “premium” dei principali cloud storage. Per fare un esempio, le nuove tariffe di Google Drive sono oggi ancora più aggressive: nell’ordine di meno di dieci dollari al mese per un Terabyte di spazio. Il colosso di Mountain View ha motivato questi ribassi citando i miglioramenti apportati di recente alle proprie infrastrutture, adottati per rendere i dati ospitati di Google Drive ancora più sicuri e accessibili da ogni device, ma il risultato è che già con l’account di base, gratuito, si possono memorizzare 15 GB.

Lo storage online

È anche in considerazione di questi costi che oggi alcune aziende incoraggiano, o almeno non impediscono, l’uso dei servizi cloud online, guardando proprio alla riduzione della spesa IT complessiva, e forse chiudendo un occhio sugli aspetti meno positivi dell’utilizzo dello storage online. In tema di sicurezza, va infatti osservato che per un’azienda può essere difficile pensare di poter controllare i servizi di cloud storage, a causa della natura intrinseca di servizi forniti da un terzo ma gestiti di fatto dal dipendente tramite userID e password del servizio. Non solo: come già accade per il BYOD, diventa opaca la distinzione tra i dati e le applicazioni personali e quelli aziendali. Se per esempio i dati professionali si trovano sul cloud personale, potrebbero esservi problemi in caso di dati confidenziali consultati su un device non monitorato, come il tablet sul divano di casa che viene spesso utilizzato da più persone. Una possibile soluzione a questi potenziali problemi può essere l’adozione delle versioni enterprise delle soluzioni di cloud storage, visto che oggi quasi tutti i servizi consumer, da Dropbox a OneDrive, offrono versioni business che consentono alla funzione IT in azienda di gestire centralmente gli account dei dipendenti, eliminando anche le eventuali dispute su chi sia il vero proprietario dei dati aziendali nel cloud. Ma, per tornare al cloud storage in senso più stretto, cioè a quello non di stampo consumer, va osservato che il suo crescente successo è dato anche da quello che è il vero vantaggio per le aziende, cioè il poter disporre di capacità di storage nel cloud da utilizzare on demand, riducendo la necessità di acquisti di ulteriori risorse oppure di effettuare tali acquisti in base a previsioni di utilizzo più rispondenti alle esigenze di lungo periodo. Anche perché la tradizionale prassi di affrontare la crescita delle esigenze di storage ricorrendo a continui acquisti di nuovo hardware è ormai da dimenticare, vista la tendenza generalizzata al restringimento dei budget. Ma soprattutto, se è vero che la crescita dei dati è ormai nell’ordine del 50% anno su anno, è anche vero che per la maggior parte si tratta di dati non strutturati, che assumono un aspetto critico per il business solo in limitate realtà aziendali, il che, in linea generale, permette di gestire queste crescenti masse di dati con un accurato tiering dei dispositivi di archiviazione presenti in azienda oppure nel cloud.

Leggi anche:  Elmec 3D, analisi sull’utilizzo della stampa 3D in Italia

Largo al Software Defined Storage

Un’altra grande tendenza che sta mutando il volto dello storage è quella del software defined storage (SDS), una delle componenti fondamentali che vanno a realizzare il software defined data center (SDDC), paradigma recente che aspira a trasformare il data center in un vero e proprio fornitore di servizi integrati, governato da policy e processi specifici. Nella definizione di IDC, il software defined storage è «uno stack di software che può essere installato su qualunque commodity (per esempio hardware di tipo x86, hypervisor, o il cloud stesso, nube), come anche su qualunque hardware off-the-shelf, e utilizzato per offrire una suite completa di servizi e di federazione di storage, per consentire la mobilità dei dati tra queste risorse» – spiega Sergio Patano di IDC. Secondo la stessa società di ricerca, il software defined storage diventerà «lentamente ma sicuramente una parte dominante di ogni data center sia come componente di un software defined data center sia semplicemente come un mezzo per archiviare i dati in modo più efficiente e conveniente rispetto alle soluzioni tradizionali».

Unico pool di risorse

È un fatto che la tendenza al “software defined” stia investendo numerosi ambiti dell’IT, come per esempio anche quello del networking, in ragione delle potenzialità offerte dall’avere sistemi in grado di organizzare le proprie risorse via software, che rende più facile interagire con le applicazioni per eseguirne le richieste e trarre il massimo dai potenziali di consolidamento offerti dalla virtualizzazione. Non a caso, è sempre IDC a prevedere che il mercato del software defined storage assurgerà a meccanismo de facto per la progettazione, il delivery e l’utilizzo di dati. Più in dettaglio, «il mercato del file-based e dell’object-based storage raggiungerà un valore di 34 miliardi di dollari nel 2016, e più di due terzi di questo mercato saranno da ricondurre alle piattaforme di software defined storage» – sottolinea Patano. «Anche perché gli end user prenderanno sempre più in considerazione il software defined storage come soluzione per l’archiviazione dei dati, in particolar modo quando il volume di dati diventerà sempre più grande. Questo comporterà anche una notevole evoluzione all’interno del data center del futuro, che diventerà sempre più un’infrastruttura di tipo service based, nella quale le risorse hardware e software saranno fornite all’end user da una varietà di location, locali o remote, senza modificare minimamente l’interfaccia di dialogo dai dispositivi di accesso».

Dati al centro

È però necessario, per fruire al massimo di questa evoluzione tecnologica, che le aziende abbandonino completamente la concezione “a silos”, tuttora presente, delle proprie risorse infrastrutturali, cioè server, storage e networking, e invece considerino tali risorse come un unico pool e prestino attenzione solo alla qualità e al livello del servizio. In questo scenario, il software defined storage gioca un ruolo essenziale, per la sua peculiare capacità di garantire l’allocazione ottimale delle risorse necessarie a supportare dinamicamente i processi e le funzioni di business. Oggi, infatti, il valore dei sistemi storage risiede sempre più nella loro capacità di trasformare la gestione dei dati da una condizione di archiviazione “semplice” a un più ampio stato di risorsa disponibile in modo intelligente e dinamico a fianco del business. Ponendo i dati al centro dell’attenzione, il software defined storage va a costruire sopra l’infrastruttura storage, fisica o virtualizzata che sia, uno strato capace di gestire i dati indipendentemente dalle componenti sottostanti: in altre parole, l’infrastruttura hardware rimane il repository fisico di elezione dei dati e può prevedere sistemi eterogenei di qualunque vendor, senza che vi siano riflessi di sorta sulla capacità di rendere i dati accessibili e disponibili dinamicamente, in quanto lo strato software si occupa di gestire l’hardware in maniera intelligente e del tutto trasparente.

Leggi anche:  Canon serie imagePRESS V: più di 2.300 unità vendute nella regione EMEA

A tutto flash storage

La necessità di incrementare le performance, soprattutto nell’analisi di grandi quantità di dati, ha portato anche alla crescente affermazione dello storage flash, detto anche SSD, solid state disk, per sottolineare il fatto che si tratta di “dischi”, termine improprio in quanto non vi è più alcuna parte in movimento come accade con i tradizionali dischi meccanici, costituiti da chip. Da più parti si sottolinea il fermento che investe gli array all-flash, cioè i disk array interamente formati da elementi a stato solido costituiti da memorie flash, anche se c’è ancora una prevalenza degli ibridi formati da flash e disco meccanico tradizionale. «Il flash di per sé dovrebbe diventare mainstream, ma probabilmente senza abbandonare la forma ibrida» – spiega Sergio Patano di IDC. «Le ragioni sono molteplici: le prestazioni del flash sono sicuramente superiori al disco tradizionale, ma anche i costi del flash sono superiori, e ormai molti vendor stanno cominciando a rendere gli ibridi molto performanti grazie alle tecnologie di tiering».

Performance ai vertici

Si tratta comunque di una tecnologia “calda”, anche perché mentre la tecnologia dei dischi magnetici è ormai consolidata da anni e non presenta all’orizzonte sensibili incrementi nelle prestazioni e neppure riduzioni di prezzo, la tecnologia flash è invece in piena fase di sviluppo, in termini sia di costi sia soprattutto di performance. Oggi, un disco magnetico alle massime prestazioni permette di effettuare circa 200 IOPS, cioè operazioni di input/output, ovvero scrittura e lettura, al secondo, mentre su un disco flash se ne possono eseguire migliaia. In media, un unico disco SSD può sostenere il carico di lavoro in termini di IOPS di più di trenta dischi tradizionali, ognuno dei quali – non si dimentichi – può costituire una potenziale fonte di guasti. Se poi si considera che i dischi flash sono intrinsecamente più affidabili, vista l’assenza di meccanismi in movimento, se ne ricava un altro dei vantaggi di questa tecnologia: la manutenzione ridotta. Non solo: se si analizza il costo per IOPS, i costi diventano vantaggiosi a favore degli SSD, con un costo per operazione eseguibile che è circa di sette volte inferiore.

Senza dimenticare che anche i costi sono in discesa: «Entro tre anni il costo assoluto delle memorie flash sarà pari a quello dei dischi magnetici tradizionali, e già oggi un contributo importante in questo senso viene dall’adozione delle nuove celle multi-level di classe enterprise, le cosiddette eMLC, che uniscono in un certo senso i vantaggi di costo delle MLC, Multi Level Cell, con le prestazioni delle SLC, Single Level Cell, permettendo di ridurre notevolmente il costo al GB degli SSD» – spiega a Data Manager, Roberto Salucci, membro del comitato italiano di SNIA, la Storage Networking Industry Association, che costituisce l’organismo internazionale più autorevole nel campo dello storage e che ha tra l’altro intrapreso da tempo un’iniziativa specifica dedicata allo storage flash, la SSSI, Solid State Storage Initiative.

Verso nuove frontiere

Infine, nell’analizzare le potenzialità della tecnologia flash, va anche sottolineato il minore consumo di energia e di spazio occupato, ma soprattutto è da evidenziare la capacità di gestire notevoli quantità di dati in tempi brevissimi, rendendo possibili applicazioni prima di difficile realizzazione. Per esempio, grazie alle prestazioni garantite dai sistemi storage flash, oggi si possono analizzare le enormi quantità di informazioni necessarie a nuove applicazioni di business come quelle degli analytics e dei big data. Perché le velocità di accesso garantite dagli SSD sono in grado di superare notevolmente quelle tipiche dei database tradizionali, e diventano irrinunciabili per supportare le nuove applicazioni o per eseguire analisi in tempo reale per estrarre valore tangibile di business dalle informazioni presenti in azienda, anche da quelle – e sono ormai la maggioranza – di tipo non tradizionale, cioè i dati non strutturati. Quindi, in sintesi, non solo vantaggi economici ma anche e soprattutto prestazionali, per raggiungere e superare sempre nuove frontiere di business.