L’evoluzione dello storage nell’era dei dati esplosivi

flash-storage

Come si sta evolvendo lo storage in un’epoca caratterizzata da una vera e propria esplosione dei dati? E quali sono le priorità per CIO e IT manager? Da componente periferica dell’IT, lo storage svolge un ruolo sempre più centrale nell’architettura di data center, grazie allo sviluppo dei nuovi paradigmi cloud, flash e software defined

Da diversi anni lo sentiamo ripetere come un mantra: i dati crescono a velocità esponenziale, a ritmi impensabili solo poco tempo fa. È un dato di fatto confermato dalle statistiche dei principali istituti di ricerca: per il resto, basta leggere gli studi demografici e applicare qualche estrapolazione non troppo ardita. Secondo le stime riviste dell’ONU, nel 2020 la popolazione mondiale complessiva dovrebbe superare la quota attuale di 7,5 miliardi (www.worldometers.info) avviandosi verso i 9,7 previsti per il 2050. Secondo i dati del Cisco Mobile Visual Networking Index 2016, nel 2021 ci saranno più telefonini che conti in banca. Lo stesso studio, prevede che tra cinque anni il volume di traffico sulla rete mobile globale sarà sette volte più intenso di oggi: una vera e propria esplosione. I sistemi per memorizzare questi dati e trarne informazioni utili si sono evoluti senza soluzione di continuità negli ultimi 50 anni, passando da dischi enormi e pesantissimi, con capacità al massimo di poche decine di MB (che oggi fanno sorridere, ma che ai tempi erano quanto di più avanzato si potesse immaginare), a piccoli chip in grado di registrare interi database in pochissimo spazio.

Questa situazione genera due esigenze: da una parte, incrementare lo spazio fisico, obiettivo che però ormai si scontra con i limiti stessi della fisica dei materiali. Dall’altra, occorre ideare nuovi sistemi di gestione che garantiscano la possibilità di lavorare con quantità di dati di straordinarie dimensioni: i cosiddetti Big Data, soprattutto nella prospettiva dell’IoT. Per questo, sempre più importanti si sono rivelate le soluzioni software, in grado di immagazzinare, recuperare quando necessario e gestire il più rapidamente possibile moli di dati fino a pochi anni fa solo difficilmente immaginabili e che oggi invece fanno parte della vita quotidiana. Accade così, per esempio, che esistano sistemi intelligenti in grado di riconoscere, mediante telecamere poste all’ingresso per esempio dei grandi magazzini, i clienti che ritornano con maggiore frequenza o che si fanno vedere raramente. Il metodo consiste nel confrontare ad altissima velocità le caratteristiche del viso con un archivio di foto memorizzate nei sistemi informatici del centro commerciale. Se l’utente riconosciuto è un cliente affezionato, il sistema conosce le sue principali abitudini d’acquisto ed è in grado di proporre offerte dedicate personalmente a quel cliente, come ad esempio uno sconto particolare al reparto uomo sulle camicie cui la persona è particolarmente interessata. Anche nel caso in cui il cliente sia un visitatore occasionale, sarà possibile solleticarne l’interesse attraverso, diciamo, un invito a un cocktail al bar dell’ultimo piano, offerto dalla direzione e via dicendo. L’importanza di riuscire a raccogliere e analizzare rapidissimamente i dati principali di chi visita un negozio diventa quindi un “atout non banale per garantire il successo delle attività commerciali e la soddisfazione dei clienti, fedeli o occasionali.

IL MERCATO STORAGE SECONDO IDC

Abbiamo chiesto a IDC di darci un quadro della situazione del mercato storage dal loro punto di vista: ci ha risposto Sergio Patano, senior research & consulting manager di IDC Italia. «La continua crescita dei dati e la necessità di una loro analisi costante e in tempo reale sta caratterizzando i trend evolutivi del mercato dello storage di classe enterprise degli ultimi anni». Un’evoluzione che spinge le aziende a cambiare le proprie strategie. «Le aziende – continua Patano – stanno sempre più allontanando le proprie preferenze da sistemi storage tradizionali e proprietari, a favore delle nuove tecnologie, che offrono maggiori livelli di flessibilità e un numero più elevato di funzionalità, che vanno oltre la semplice capacità di archiviazione». A sottolineare questa tendenza, spiega Patano, vi è la crescita e diffusione di soluzioni Software-Defined Storage, di sistemi convergenti e iperconvergenti e la sempre maggiore diffusione di servizi di storage basati sul cloud. «Ciò che spinge CIO e IT manager verso questa tipologia di soluzione è la ricerca di una crescente flessibilità dei sistemi, accompagnata da una riduzione della loro complessità, che li aiuti a strutturare ambienti storage in grado di supportare le proprie linee di business a essere competitive in un mercato che evolve e cambia direzione e orientamento a velocità sempre più elevate». Nascono da queste considerazioni alcune delle più recenti soluzioni che si sono affacciate negli ultimi anni sul mercato dello storage e che tratteremo in maggior dettaglio nel prosieguo. In generale, comunque, si può notare una sempre più importante affermazione dei dispositivi di archiviazione dati basati su tecnologie Flash, a discapito dei più tradizionali e tuttora diffusissimi dischi magnetici, che però mantengono la leadership. «In questo contesto – continua Patano – è facile comprendere come il segmento degli All Flash Array (AFA) continui a essere quello che presenta il più alto tasso di crescita degli ultimi anni, mantenendo tale trend anche per il futuro».

Leggi anche:  Le soluzioni ThinkSmart di Lenovo migliorano la collaborazione a distanza

Secondo IDC, in Italia, a fronte delle previsioni di un mercato storage sostanzialmente in contrazione dal 2015 al 2020 (il tasso di crescita composto del periodo è pari a – 0,9%), il segmento AFA è previsto crescere a un tasso medio annuo del 25%, arrivando a circa 100 milioni di euro nel 2020, cioè un valore equivalente al 20% di tutto il fatturato sviluppato dal mercato storage italiano. A cosa si può ascrivere questo successo così rapido? «Ci sono molteplici fattori dietro questo fenomeno, tra cui i più importanti risultano essere una maggior consapevolezza da parte delle aziende delle capacità e delle potenzialità dei sistemi All-flash» – spiega Patano. «A questo, oltre a un calo del prezzo dei supporti Flash Media, si aggiunge anche il fatto che essi vengono ora utilizzati anche per workload general purpose». Quindi, l’utilizzo delle tecnologie Flash è ormai ampiamente diffuso in tutti gli ambiti, e non più relegato ad applicazioni particolari. I motivi saranno più evidenti quando affronteremo le principali differenze e i vantaggi legati all’utilizzo di tecnologie magnetiche tradizionali e delle nuove e sempre più diffuse tecnologie Flash. Vanno considerati poi alcuni altri aspetti, legati all’evoluzione della gestione dei dati e delle informazioni in corso. Infatti, aggiunge Patano: «La crescita esponenziale dei dati, le infrastrutture dei data center eterogenee e complesse, le strategie multicloud, i silos frammentati per il back-up, le applicazioni analitiche e le problematiche di rispetto della compliance stanno mettendo davvero sotto pressione le aziende, compromettendo performance, efficienza e costi». Le ricerche realizzate da IDC evidenziano come la sfida principale per CIO e IT manager sia di ottimizzare i tempi di “workload”, passando da ore a minuti. Seguono la necessità di migliorare le performance delle operazioni di back-up e la riduzione della complessità dell’infrastruttura storage.

C’è un altro segmento di mercato che IDC prevede in forte crescita, a fianco di quello appena visto degli AFA: «Si tratta delle soluzioni Software-Defined Storage (SDS)» – prosegue Patano. «Ci sarà una forte influenza delle soluzioni SDS implementate su piattaforme server-based, anche se le SDS sono ancora in una fase di maturazione, soprattutto se paragonate allo storage condiviso tradizionale». Tuttavia, il tasso di aggiornamento, molto aggressivo, cui si assiste all’interno del mercato SDS suggerisce che la situazione cambierà molto presto. «Perciò – conclude Patano – i vendor che non stanno già offrendo attivamente una soluzione SDS per competere in quest’area o quelli che non stanno espandendo le funzioni delle loro soluzioni SDS corrono il rischio, a lungo termine, di essere emarginati in questo mercato, che è in rapidissima evoluzione».

TECNOLOGIE A CONFRONTO

STORAGE MAGNETICO, FLASH E SDS

Quando l’evoluzione tecnologica è in una fase di particolare sviluppo, come è successo e continua ad accadere nel mercato ICT, essere in una posizione di responsabilità all’interno di un’azienda o di una grande organizzazione comporta rischi e opportunità speciali. In particolare, il rischio più grande è quello di rallentare o addirittura bloccare gli investimenti per paura di sbagliare, perdendo così rapidamente in competitività rispetto a concorrenti più lungimiranti. Nel mercato dello storage stiamo vivendo proprio una fase di evoluzione di questo tipo, accelerata dalla crescita continua e velocissima dei dati, che costringe i vendor a studiare e sviluppare sempre nuove tecnologie, in grado di rispondere adeguatamente alle richieste dei clienti. Si deve a questo fatto la nascita e la rapida affermazione di sistemi di storage quali i dischi magnetici (evoluzione dei nastri), con materiali sempre più performanti, fino a racchiudere in uno spazio limitatissimo (3,5 pollici o meno) la capacità di memorizzazione prima riservata a interi dischi di dimensioni e peso importanti. La tecnologia di storage a dischi magnetici è basata, com’è ormai ben noto, sulla registrazione di una traccia magnetica, mediante speciali testine, su una superficie metallica opportuna (di solito basata su leghe di cobalto) rifinita a specchio. Le superfici dei dischi sono suddivise in singole aree magnetizzabili, che raggiungono un’area utile di circa 25 x 200 nm (nanometri, cioè miliardesimi di metro), corrispondenti a una densità di memorizzazione di 15,5 Gbit/cm2. La controindicazione di questa tecnologia è quella ben nota e sottolineata soprattutto da chi propugna i nuovi sistemi a stato solido: per garantire una velocità di trasferimento dei dati sufficiente a coprire le necessità dei moderni elaboratori e reti di computer, il disco di un sistema magnetico deve girare vorticosamente, a velocità che superano i 7.000 rpm (cioè giri al minuto). Questo pone ovviamente limiti alla durata e all’affidabilità dei dischi fissi, che però sono superate, anche se non completamente, dal fatto che si tratta di tecnologie consolidate e ben note.

Leggi anche:  I PC Dell salvano gli elefanti in via di estinzione in Sudafrica

Ecco così sorgere le nuove unità Solid-State Drive (SSD) o dischi a stato solido, basate su circuiti integrati in cui array di transistor memorizzano i bit e byte di dati sotto forma di cariche elettriche. Il modo in cui viene realizzato il processo di scrittura dei dati sugli SSD, però, danneggia a lungo termine il materiale che li compone, rendendo la vita utile di questi dispositivi finita, cioè limitando il numero di scritture che possono essere eseguite sul singolo flash drive. La tecnologia che consente il funzionamento degli SSD è stata sviluppata da Toshiba, e alla base ha gate NAND (almeno nella maggior parte dei casi) e a volte NOR, a seconda degli utilizzi (NAND permette l’indirizzamento dei singoli bit, mentre NOR lavora per blocchi o pagine). Finora il costo dello storage SSD è stato notevolmente più elevato di quello tradizionale basato su dischi magnetici, ma il trend va verso una riduzione dei costi necessari per implementare questa categoria di dispositivi di storage, per cui, se la velocità di accesso e l’affidabilità guidano le decisioni di CIO e MIS, la scelta cade inevitabilmente sugli SSD, al limite utilizzandoli in soluzioni integrate con i sistemi di archiviazione più tradizionali basati su dischi e nastri magnetici.

L’ultima frontiera dello storage è oggi il Software-Defined Storage cui abbiamo già accennato in precedenza. Si tratta di aggiungere un layer, uno strato di software allo storage fisico, un sistema già noto per quanto riguarda i sistemi informativi, dove viene chiamato virtualizzazione. Questo strato, denominato “strato di astrazione” (abstraction layer), provvede alla gestione e al “provisioning”, ovvero la “fornitura” dei servizi di storage ai vari utenti interni, in base a policy predefinite. A volte l’SDS viene implementato attraverso l’utilizzo di appliance dedicate, sulla base di SAN (Storage Area Network). Va notato che, poiché spostare dati è sicuramente più costoso e lento rispetto all’elaborazione e ai servizi (problema che viene spesso indicato dalla “data gravity”, cioè “pesantezza dei dati”), gli approcci basati sul raggruppamento (pooling) dei sistemi di storage portano in molti casi alla conclusione che sia meglio lasciare i dati dove si trovano, creando un layer di “mappatura” delle varie risorse di storage che attraversi i vari array già presenti. Secondo la definizione data da SNIA (Storage Networking Industry Association), SDS è: “storage virtualizzato con un’interfaccia per la gestione dei servizi” (service management interface).

SCELTE PONDERATE, IL RUOLO DEL CLOUD

Fare il punto in un dedalo di scelte così complesso non è facile, soprattutto se, come in questo periodo, i budget sono limitati e le risorse a disposizione sempre più scarse. Proviamo però a dare un senso compiuto ai ragionamenti che si possono fare sull’organizzazione ottimale di un’infrastruttura di storage che sia in grado di soddisfare non solo le esigenze immediate, ma anche quelle perlomeno di medio periodo. Prima di tutto, ci dobbiamo porre una domanda fondamentale: è meglio scegliere soluzioni on-premises oppure utilizzare spazio di storage nel cloud? La domanda non è per nulla banale e le risposte possono essere molteplici, in base al tipo di azienda in cui operiamo, all’utilizzo che intendiamo fare dei dati e alle evoluzioni attese, del business e dell’infrastruttura. Partiamo dal tipo di azienda: evidentemente, la discussione cambia drasticamente taglio se si parla di una grande azienda o di una PMI. Nel primo caso, entrano in gioco considerazioni di scala importanti, come il numero di utenti attivi mediamente in un determinato momento della giornata, piuttosto che la velocità di accesso ai dati, cioè la larghezza di banda necessaria ai vari reparti dell’azienda. Se il lavoro è molto ripetitivo e si svolge su una quantità di dati ben strutturati, chiaramente la gestione diventa molto più semplice, anche se le moli di dati sono comunque importanti (per esempio aree aziendali quali magazzino o contabilità). Diverso è il caso di uffici che hanno a che fare con strumenti di business intelligence e con necessità di analisi ed elaborazione di enormi quantità di dati, per fini statistici o di mercato (amministrazione, marketing, vendite). Il cloud, con la sua caratteristica di poter mettere a disposizione spazi di storage enormi ma con latenza non preventivabile (il che si traduce in possibili ritardi quando, per esempio, occorrono dati ed elaborazioni importanti in breve tempo), si presta molto bene per il primo tipo di storage e meno bene per il secondo. Se la scelta è fatta oculatamente, i benefici in termini di efficienza e di economicità di gestione si dovrebbero notare rapidamente. Nel caso delle PMI, invece, il discorso diventa più complesso, perché, anche se le moli di dati da archiviare ed elaborare sono sicuramente inferiori, la velocità è una componente essenziale della vita competitiva di un’impresa media o piccola. Si tratterà quindi di valutare con attenzione, se si opta per il cloud, il fornitore, l’accessibilità alle risorse offerte e il tipo di contratto più adeguato alle proprie esigenze.

Leggi anche:  L’innovazione tecnologica Canon a supporto del business di EuroMilano

CONCLUSIONI

Lo storage rappresenta ancora una delle aree più delicate e strategiche dell’IT aziendale, e questo è sicuramente un ruolo che continuerà a svolgere anche in seguito, in qualsiasi settore di mercato si operi e qualsiasi sia la dimensione e la distribuzione geografica della nostra azienda. Lo sviluppo delle tecnologie, comunque, continua a correre in parallelo e, anzi, spesso supera le esigenze degli utilizzatori e degli amministratori dei sistemi informativi. Se ci è consentito fare un’affermazione a valle di quanto visto sin qui, possiamo dire che sicuramente i sistemi di storage di oggi sono molto più semplici da utilizzare e da gestire rispetto a quelli di qualche anno fa. Questo li rende molto più a portata degli utenti non tecnici ma, d’altra parte, può generare il rischio che vengano fatte scelte non attentamente ponderate da persone non sufficientemente preparate ad affrontare le tecnologie e i loro vantaggi o svantaggi. Comunque anche qui, come in altri settori del mercato ICT, sembra che l’offerta si vada avvicinando sempre di più a quelle che sono le reali esigenze degli utenti.


L’imperativo per CIO e IT manager

Non fare scelte sbagliate

Quali sono oggi le esigenze di chi deve decidere gli investimenti per acquistare uno storage che deve supportare la crescita esplosiva dei dati dei prossimi cinque anni? BCLOUD aiuta le aziende a gestire il continuo aumento dei dati. Ciò che impedisce la crescita del business aziendale deriva da scelte infrastrutturali basate su tecnologie obsolete e dalla mancanza di comunicazione fra le strutture che gestiscono le applicazioni business e la parte IT. Virtualizzare le tecnologie come server, storage, networking e applicazioni è stato l’obbligo di ogni IT manager per ridurre i costi di esercizio. La risposta immediata ed economica viene indirizzata dalle architetture di Object Storage S3 e la soluzione che proponiamo è quella di Cloudian. Il Software-Defined Storage (SDS) permette di essere creativi nella scelta delle applicazioni di backup, di archiviazione e di NAS replacement che sono a corollario a S3. BCLOUD è al centro dell’offerta di questa infrastruttura innovativa per i clienti in modo da rispondere in modo efficace alla crescita delle informazioni che arricchiscono le aziende.