Tenere sotto controllo l’alluvione di dati attraverso l’auto-tiering indipendente dal dispositivo

di George Teixeira, CEO e Presidente di DataCore Software

Un recente report realizzato dalla società di ricerche IDC ha rivelato che la quantità di dati presenti nel mondo tende più che a raddoppiare ogni due anni. Per le imprese, all’orizzonte si profila una crisi: i costi e la complessità sono aumentati di più rispetto al tasso di crescita e al numero dei dischi fissi e delle batterie necessari a sostenere la crescita dei dati e la capacità di memorizzazione (legge di Kryder). Inoltre, la virtualizzazione dei carichi di lavoro più impegnativi e delle applicazioni fondamentali per l’azienda rendono prestazioni maggiori ed elevata disponibilità dei veri e propri “must have”, che però si ottengono solo a fronte di costi molto più alti.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Alla fine, le imprese non possono più contare semplicemente sul concetto di “sostituire l’hardware per risolvere il problema” come strategia a lungo termine. Questo approccio non riduce la complessità, e infatti è già diventato una soluzione dai costi proibitivi.

Eppure, proprio mentre i responsabili IT correvano in preda al panico alla ricerca di un mezzo per contrastare l’imminente alluvione di dati, è emerso un nuovo progresso nello stato dell’arte: il tiering (ovvero la gestione a livelli) automatico e intelligente dello storage su disco. Questa funzionalità, che è un recente sviluppo del software per la virtualizzazione dello storage, offre un livello di intelligenza che consente alle imprese di garantire che i dati più importanti vengano memorizzati sulle risorse dalle prestazioni più elevate, e che quelli non fondamentali vengano spostati su dischi dai costi più contenuti.

I benefici che derivano da questo approccio sono molti, ma il più importante per le imprese è quello di disporre di un componente critico che le aiuta a tenere sotto controllo questa alluvione di dati.

La sfida emergente

Molte aziende di analisi, comprese Gartner e IDC, hanno evidenziato come il thin provisioning e l’auto-tiering siano le due principali tecnologie in grado di portare a risparmi di costi nell’ambito dello storage. Mentre il thin provisioning è oggi ampiamente utilizzato, l’auto-tiering dovrebbe conquistarsi velocemente ampi spazi. In tempi recenti si è registrata anche la tendenza verso prestazioni maggiori e l’utilizzo di dischi a stato solido (SSD). Il costo elevato di queste unità, però, ha spinto i responsabili IT a cercare il modo di minimizzare le nuove spese e di sfruttare al massimo, sia in termini quantitativi che prestazionali, gli investimenti in storage già realizzati, aumentando quindi il ROI (ritorno sugli investimenti).

Ovviamente, se l’impresa potesse utilizzerebbe la tecnologia di storage più capace e più veloce per fare qualunque cosa. I costi elevati, però, rendono impraticabile questa via e spiegano perché le organizzazioni stiano abbracciando l’auto-tiering. Le sfide cruciali che impongono questo approccio sono le seguenti:

• Si spende troppo per uno storage dai costi elevati che viene sfruttato poco

• Colli di bottiglia nell’I/O per i carichi di lavoro più sensibili al fattore tempo causati da risorse veloci e costose che devono gestire anche richieste che avrebbero priorità più bassa

Leggi anche:  Il settore manifatturiero nel 2024. Cosa aspettarsi?

• Mancanza di scelta nel realizzare un’infrastruttura di storage flessibile comprendente più livelli di storage opportunamente abbinati ai carichi di lavoro

• Integrazione degli SSD a costi abbordabili nell’infrastruttura esistente

• Permettere agli investimenti in storage già realizzati di ottenere i benefici dell’auto-tiering, lavorando in un mondo virtuale dinamico in cui i carichi di lavoro non siano più dedicati, ma invece aggregati e in costante cambiamento, cosa che richiede automazione invece che assegnazioni manuali

Controllare i rubinetti per sbloccare i prezzi

Ovviamente, a spingere l’auto-tiering è l’aspetto economico e uno dei principali vantaggi è che permette ai clienti (così come ai partner rivenditori) di ottenere prezzi da “mercato aperto” a qualunque livello: SSD, Serial Advanced Technology Attachment (SATA), Serial Attached SCSI (SAS) e persino i dischi base SATA privi di marchio. È importate ricordare che l’attuale approccio all’auto-tiering proposto dai fornitori di sistemi a disco e legato a specifici dispositivi impone ai clienti di acquistare esclusivamente il loro storage all’interno della loro offerta e al loro livello di prezzo. Ciò consente a questi fornitori di imporre a ogni livello un prezzo controllato e immodificabile.

Se volete una riprova, chiedete al fornitore se vi è possibile inserire nella loro batteria di storage o in un loro sottosistema a disco prodotti di un’altra marca e osservatene la reazione.

Una vera ottimizzazione dei costi permette alle imprese di utilizzare gli asset di storage di elevato livello e i nuovi investimenti in costosi SSD per le applicazioni che hanno bisogno di prestazioni elevate, impiegando la capacità dei dispositivi esistenti o comunque a basso costo per quelle meno importanti. Abbinare agli SSD funzioni di caching di alto livello usando della RAM, con un software per la virtualizzazione dello storage che sovrintende tutto il sistema, riduce ulteriormente la quantità di SSD necessari. Soprattutto, questo approccio intercetta e alleggerisce il traffico di scrittura al livello più alto, prima che abbia un impatto sullo storage, estendendo quindi la vita utile degli SSD: riducendo in modo significativo il carico di traffico di scrittura, infatti, si abbassa la probabilità di guasto delle unità a stato solido.

Per ottimizzare le prestazioni e minimizzare i costi, l’auto-tiering permette agli amministratori IT di creare profili di storage definibili dall’utente. Una volta impostati, questi profili controllano i rubinetti, rendendo automatica l’ottimizzazione di costi e prestazioni allocando il traffico al livello più appropriato. In pratica, gli “hot spot” che generano la maggior parte del traffico utilizzano i livelli più pregiati e veloci (SSD, batterie di alto livello, storage SAS), mentre le aree che meno frequentemente generano traffico vengono retrocesse su storage con prestazioni inferiori e di costo più basso (per esempio dischi SATA di marca e/o dischi SATA entry level privi di marchio).

L’auto-tiering non è automatico

Nonostante la grande promessa fatta dall’auto-tiering, è importante notare che non tutte le soluzioni di storage che offrono questa funzionalità sono uguali. Quanti sono i livelli supportati? Quali sono i marchi che possono essere inseriti in ciascun livello? I prodotti devono essere tutti dello stesso fornitore o possono essere di marchi diversi? Lo storage esistente può entrare a far parte del pool di storage gestito con l’auto-tiering? Quella dello storage è stata l’area più sottovalutata nei progetti di virtualizzazione, e il risultato è che molte imprese che si sono imbarcate in questa avventura hanno capito troppo tardi le numerose insidie che possono portare all’aumento dei costi e a un punto morto.

Leggi anche:  Pubblicare musica su Spotify: la guida passo passo a Distrokid

Tenendo a mente questo aspetto, i responsabili IT dovrebbero intuire che anche i benefici dell’auto-tiering non sono automatici: il fattore critico è la selezione della soluzione più adatta. Al contrario dei tradizionali approcci integrati nell’hardware, che confinano la gestione a livelli nei cassetti più costosi all’interno di una specifica enclosure o sistema di storage, un software che agisce a livello infrastrutturale è in grado di gestire sistemi di storage diversi e potenzialmente di qualsiasi fornitore. Questa maggiore possibilità di scelta offre alle imprese l’opportunità di fare acquisti al miglior valore per ciascun livello da fornitori in concorrenza tra loro, evitando di eliminare quanto già acquistato in passato. Va quindi sottolineato come un approccio dell’auto-tiering indipendente dai dispositivi metta nelle mani dell’impresa molta più forza contrattuale quando arriva il momento di acquistare nuovi dischi.

Per esempio, i livelli possono essere composti da dischi SATA ad alta capacità e prezzo contenuto di un fornitore, da sistemi a disco SAS di fascia media di un altro marchio e da un nuovo gruppo di schede SSD ad alta velocità di una terza azienda. Un efficace software di auto-tiering gestirà questi rack indipendenti come un particolare pool virtuale gestito da un’unica interfaccia di amministrazione, ovviamente lavorando come se tutti i livelli fossero composti da prodotti di un singolo marchio. In ogni caso, questo approccio consente di ragionare su prezzi da “mercato aperto” e di evitare all’impresa di rimanere vincolata a uno specifico fornitore.

L’intercambiabilità dell’hardware e gli hypervisor storage

Prendiamo in considerazione un altro aspetto: mentre l’auto-tiering permette di raggiungere un nuovo livello di ottimizzazione in termini di sfruttamento dei dispositivi, gli hypervisor storage fanno fare a questo concetto un ulteriore passo avanti. I responsabili IT conoscono i risparmi e la flessibilità offerti oggi dagli hypervisor server (come VMware vSphere e Microsoft Hyper-V), che sono il risultato diretto della loro capacità di rendere l’hardware liberamente intercambiabile. In modo analogo, per ottenere nei sistemi di archiviazione un uguale livello di “intercambiabilità hardware” è necessario un hypervisor storage, che allo stesso tempo metta in salvo l’operatività IT dai costanti cambiamenti e dall’evoluzione delle caratteristiche hardware dei sottostanti sistemi a disco. Questo risultato può essere raggiunto dividendo in livelli omogenei i servizi di storage più costosi sui dispositivi disponibili, rendendo così l’hardware assolutamente intercambiabile.

Concettualmente, l’hypervisor storage si colloca tra gli host e i dischi, portando a uno sfruttamento più efficace e flessibile degli investimenti in storage esistente e futuro rispetto a quando i dispositivi erano impiegati in modo autonomo. Per raggiungere l’intercambiabilità, il software deve essere eseguito sia sui server fisici sia su quelli virtuali. Un vero hypervisor storage deve essere portatile su tutte le piattaforme e dovrebbe garantire l’aggiornamento, l’espansione e la sostituzione senza difficoltà e senza interruzioni nei servizi di tutti i dispositivi di storage. In questi casi, la migrazione dei dati dovrebbe avvenire in modo invisibile in background e senza la necessità di programmare degli sgraditi periodi di fermo macchina.

Leggi anche:  Zoom Workplace, il lavoro in team reimmaginato dall’IA

La libertà di scelta e l’indipendenza dall’hardware sono comunque imperativi. Gli hypervisor server dei principali fornitori hanno cambiato le regole del gioco nella scelta e nello sfruttamento delle piattaforme di elaborazione, rendendo le loro offerte flessibili e intercambiabili. Come ha fatto recentemente notare Mark Peters, Senior Analyst di Enterprise Strategy Group, “un hypervisor storage porta analoghi vantaggi all’infrastruttura di storage sfruttando il pieno potenziale della forza collettiva dei dispositivi esistenti, spesso aggiungendovi funzionalità ulteriori, senza fare affidamento su improbabili accordi di cooperazione tra i fornitori di storage.”

Tenere l’alluvione sotto controllo

L’auto-tiering consente alle imprese di incrementare il ritorno sull’investimento sia nelle risorse di storage di alto livello sia in quelle entry level, permettendo di effettuare acquisti sul “mercato aperto” senza essere vincolate alle politiche di prezzo dei fornitori. Le risorse di livello più elevato vengono così sfruttate per quello che possono offrire – alte prestazioni ed elevata disponibilità – senza coinvolgerle in attività che possono essere svolte senza problemi da risorse di storage meno costose. L’auto-tiering permette anche alle imprese di ridurre i costi hardware dilazionando i nuovi investimenti, mettendole in grado di massimizzare gli investimenti in storage già effettuati, e quindi il relativo ritorno, sfruttando meglio i sistemi di storage di livello più basso invece di investire in costosi dispositivi di livello più elevato o addirittura in SSD.

Utilizzando software per la virtualizzazione dello storage, le imprese hanno registrato importanti risparmi sui costi. Oggi, grazie alla capacità di automatizzare e ottimizzare dinamicamente la capacità di storage attraverso i livelli, si possono raggiungere risparmi fino all’80 per cento e oltre, risultato di un sistema capace di adattarsi da solo alle condizioni di lavoro e dai costi estremamente competitivi.

Sì, i dati a livello planetario stanno crescendo a passi da gigante, e secondo statistiche fornite da IDC le imprese alla fine saranno responsabili dell’85 per cento di questa crescita. Si tratta di un grosso fardello, ma bisogna portarlo avanti.

Per fortuna, una soluzione per controllare l’alluvione oggi è disponibile!

George Teixeira è CEO e Presidente di DataCore Software. La piattaforma software-as infrastructure dell’azienda risolve il grande problema dello stallo nei progetti di virtualizzazione, eliminando le barriere legate allo storage che rendono la virtualizzazione troppo difficile e troppo costosa.