Storage, un ruolo strategico nell’It

storage
In un periodo ancora segnato dagli esiti di una crisi economica che ha coinvolto aree e segmenti di mercato più disparati e che ha inciso pesantemente sui budget e sugli investimenti in Information technology, lo storage continua a mantenere una sua dignità e un ruolo fondamentale, anche in virtù dell’importanza che riveste nell’ottimizzazione dei processi

Annus horribilis 2009: io c’ero. Sarà questo il commento che potremo fare ai nostri nipoti quando racconteremo che cos’è una crisi economica e come colpisce la vita di tutti i giorni di individui e aziende? Forse verranno fatti paralleli, come avviene già oggi, con la famigerata crisi del 1929, oppure con il crac borsistico degli anni 80. In ogni caso, sarebbe interessante essere in grado, già oggi, di conoscere le modalità e le vie da percorrere per uscire da questa situazione di budget in caduta libera e investimenti bloccati. La tecnologia It sicuramente ci può venire incontro, se non altro proponendo alcune interessanti strade per recuperare efficienza ed efficacia delle nostre infrastrutture. In questo ambito, un ruolo di sicura preminenza spetta a una tecnologia che ci accompagna sempre più da presso nella nostra scalata, a volte forsennata, a spazi di archiviazione sempre più sterminati: lo storage. Ovviamente cambia in modo drammatico il punto di vista, perché oggi sotto i riflettori non sono più le prestazioni da Gran Premio o le capacità sempre più gigantesche di dispositivi di memorizzazione ogni giorno più piccoli, ma piuttosto le efficienze, le ottimizzazioni e la possibilità di sfruttare in modo ancora più incisivo le risorse già presenti in azienda.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

L’esplosione dei dati da oggi al 2020

Secondo un recentissimo studio di IDC (www.idc.com) commissionato da EMC (http://italy.emc.com), una delle società di riferimento nel mercato storage, tra oggi e l’anno 2020 la quantità di informazioni digitali create e riprodotte in tutto il mondo raggiungerà un valore vicino ai 35 trilioni di gigabyte (zettabytes, cioè migliaia di miliardi di miliardi di byte) mentre tutti i principali tipi di media, dalla Tv alla voce, alla radio, alla stampa completano l’evoluzione da analogico a digitale. Questa situazione dimostra come i problemi che i Cio hanno dovuto affrontare fino a oggi in termini di spazio di storage e di gestione dello stesso impallidiranno rispetto a quelli di un futuro non molto lontano. Si parla di un incremento di un fattore 44 tra i volumi delle informazioni attuali e quelle del 2020. Questo “universo digitale”, come lo definisce e studia IDC dal 2007, comprende tutte le informazioni create e replicate nel corso di un anno: nonostante la recessione globale, nel 2009 c’è stata una crescita del 62%, che ha portato l’universo digitale a raggiungere quota 800mila petabyte (milioni di gigabyte). «Praticamente – spiega John F. Gantz, chief research officer e senior vice president di IDC – è la capienza che si otterrebbe impilando Dvd uno sull’altro fino ad arrivare sulla Luna e ritorno. Quest’anno il digital universe crescerà altrettanto velocemente, fino a raggiungere gli 1,2 milioni di petabyte, o 1,2 zettabyte». Un numero, fa notare Gantz, cui finora non avevamo mai avuto realmente bisogno di ricorrere. «Continuando con le metafore, nel 2020 la nostra pila di Dvd arriverà a metà strada tra la Terra e Marte». Un altro numero per dare ancora una sfaccettatura all’universo delle informazioni digitali del futuro: occorre un quintilione, numero «quasi incommensurabile», per descrivere la quantità di “contenitori di informazioni” (pacchetti, file, immagini, record, segnali) che, sempre secondo IDC, lo riempiranno nel 2020; più esattamente, si prevedono 25 quintilioni (cioè 25 seguito da 18 zeri, equivalente a 25 miliardi di miliardi) di contenitori. «Questi “contenitori”, che possiamo anche identificare con i file – continua Gantz -, sono gli oggetti che in realtà vengono gestiti, protetti e memorizzati nel digital universe. Al contrario, a causa del proliferare dei sistemi embedded nelle smart grid, smart city, intelligent bulding e così via, le dimensioni medie dei file dell’universo digitale si stanno riducendo. «Possiamo quindi dire che il numero di oggetti che devono essere gestiti sta crescendo a velocità doppia rispetto al numero totale di gigabyte da gestire – commenta ancora Gantz -. Auguri di buona fortuna a tutti i Cio!», anche perché, sempre secondo IDC, il numero di questi ultimi crescerà molto più lentamente nello stesso periodo di tempo.

Elementi di un’evoluzione

«Possiamo pensare alla crescita del digital universe come a uno tsunami perpetuo», aggiunge Gantz. Per far fronte a questa evoluzione così rapida, IDC consiglia di gestire le informazioni in modi nuovi. «Innanzi tutto, occorre una nuova classe di strumenti di ricerca e discovery dei dati, dal momento che la maggior parte dei dati all’interno dell’universo digitale sono non-strutturati (come per esempio immagini, registrazioni vocali, video). Perciò, sarà necessario studiare nuovi sistemi per aggiungere strutture ai dati non-strutturati, per guardare dentro i contenitori di informazioni e riconoscere i contenuti, come avviene con un viso in una registrazione video di sicurezza. È per questo che la categoria che cresce più velocemente all’interno del digital universe è costituita dai metadati, cioè dati che riguardano altri dati». Un altro punto essenziale nell’evoluzione dell’Information management è quello relativo alla rilevanza delle informazioni, cioè a quali informazioni è necessario tenere e come si devono conservare. «Occorreranno nuove soluzioni per lo storage delle informazioni, ma soprattutto saranno necessari nuovi modi per gestire le informazioni – prosegue Gantz -. Sarà necessario classificarle in base all’importanza che rivestono, sapere quando si devono cancellare e prevedere a quali informazioni dovremo accedere nel più breve tempo possibile». In altre parole, diventa sempre più indispensabile dotarsi di un corretto sistema di gestione in chiave Ilm, Information lifecycle management. «Ancora, dovremo tenere conto di quali regole occorrerà rispettare (compliance), sia dettami imposti dalla legge, sia dal particolare settore di mercato in cui si opera: il mercato della compliance nel 2009 da solo ha cubato circa 46 miliardi di dollari». Infine, un altro problema non trascurabile, quello della sicurezza. «Se le informazioni nel digital universe crescono al ritmo di circa il 50% all’anno, il sottoinsieme di quelle che occorre proteggere ha un tasso di incremento almeno doppio. La quantità di dati non protetti, ma che comunque sono considerati sensibili per il business cresce anche più velocemente di così». In sintesi quindi, per prepararsi adeguatamente all’evoluzione dell’universo digitale occorre, secondo IDC: prevedere nuovi strumenti di ricerca; studiare nuovi sistemi per aggiungere strutture ai dati non strutturati; implementare nuove tecniche di storage e di Information management; prevedere nuovi tool di compliance e, infine, migliorare la security delle informazioni. «L’ultimo dato che merita una riflessione è questo – conclude Gantz -: mentre la quantità di informazioni nel digital universe crescerà di un fattore 44 da qui al 2020 e il numero di contenitori, o file, aumenterà nello stesso periodo di un fattore 67, il numero di professionisti It in tutto il mondo crescerà solo di un fattore 1,4». Fatti i debiti confronti, non resta che unirsi a Gantz nell’augurare buona fortuna ai Cio.

LE TECNOLOGIE DI STORAGE: UN PANORAMA VASTISSIMO

Lo storage ha fatto realmente passi da gigante, e non è il caso di ripercorrere ancora una volta la storia dell’evoluzione di questa tecnologia: basti dire che, senza la possibilità di memorizzare i dati su supporti non volatili, l’Information technology come oggi la conosciamo non avrebbe potuto mai realizzarsi. Capire però appieno quello che attualmente offre il mercato e come utilizzarlo al meglio in chiave di efficienza dell’infrastruttura It della propria organizzazione sembra un esercizio assolutamente utile, dato che, come abbiamo visto, la crescita spaventosa della quantità di informazioni da gestire nei prossimi 10 anni rende le scelte in questo settore una questione di vita o di morte per la produttività aziendale. Del resto, la crisi economica di questi ultimi anni ha costretto molte organizzazioni a rivedere le proprie infrastrutture, i propri processi interni ed esterni e le policy di gestione delle informazioni: il tutto con un solo obiettivo in mente, efficienza. Do more with less, fai di più con meno risorse: sembra essere questo il motto che contraddistingue l’It di questo scorcio di inizio millennio. Ma allora ricorrere al giusto mix tecnologia/soluzioni/risorse significa anche godere di un vantaggio competitivo che può diventare essenziale nel momento in cui consente di dirottare gli investimenti sulle aree di business veramente strategiche per l’azienda. Cominciamo quindi a fare un po’ di chiarezza, partendo dal tipo di storage cui si fa riferimento nel decidere come impiegare il proprio budget.

Leggi anche:  Intelligenza artificiale: il mercato in Lombardia raggiunge quasi 192 milioni di euro nel 2023

Storage diretto o in rete

La prima scelta che si fa in una infrastruttura It quando si decide quale tipo di storage adottare è se convenga rivolgersi a soluzioni collegate direttamente a un server, chiamate Das (Direct-attached storage) o piuttosto a soluzioni basate su un collegamento in rete, ancora una volta diretto, con un server dedicato, Nas (Network-attached storage) o attraverso una rete condivisa di soluzioni di storage, la San (Storage area network). Tutti e tre i sistemi hanno vantaggi e svantaggi che vanno soppesati opportunamente per ottimizzare le proprie scelte, come si può verificare in una apposita guida compilata da HP (www.hp.com/it). Nel caso del Das, per esempio, nonostante il costo iniziale contenuto e la facilità di implementazione, nonché la possibilità di gestirlo in modo semplice dal sistema operativo del server cui è collagato il disco, esistono diversi svantaggi. Innanzi tutto, non è possibile condividere lo storage tra più server, con un incremento immediato dei costi nel momento in cui occorre aumentare la capacità di storage a disposizione. Quindi, Das è la soluzione da scegliere solo quando la propria infrastruttura non comprende la necessità di connettere diversi server allo stesso sistema di storage, e nel caso in cui il vero problema è costituito dai costi iniziali, mentre non si hanno prospettive di crescita nell’immediato futuro. La soluzione intermedia rappresentata da sistemi Das condivisi supera alcuni di questi problemi, ma resta limitata nell’eventualità, come probabile, occorra crescere in capacità di storage.

Passando a considerare la scelta dell’architettura Nas, va detto che il vantaggio principale è costituito dal costo limitato e dalla semplicità di implementazione e gestione. Inoltre, Nas opera bene in ambienti dove sono presenti più server con diverse tipologie di sistemi operativi (Windows, Linux, MacOS), ma ha due svantaggi che possono diventare importanti in un’impresa di dimensioni medio/grandi: aggiunge traffico alla Lan aziendale e rappresenta un potenziale collo di bottiglia e un possibile punto di interruzione sul server dedicato (Single point of failure). È assolutamente da evitare se si vuole aggiungere capacità di storage a un application server, come per un database o un sistema di e-mail.

San, Storage area network

Si ricorre a queste reti locali dedicate allo storage quando il traffico dati è notevole e quindi occorre farlo transitare su di una rete separata da quella principale dell’infrastruttura It. Tipicamente le reti San consistono di sistemi di storage condivisi (tipicamente array di dischi), una soluzione software che serve a configurare l’ambiente condiviso e componenti di sicurezza che proteggano il traffico dati nella San. Le connessioni attive tra sistemi di storage e server in una San sono basate su link ad altissima velocità, come Fibre Channel, iScsi o Sas (Serial-attached Scsi). I vantaggi offerti da una rete San risiedono nel fatto che molti server possono condividere un pool unico di sistemi di storage, rendendo più efficiente l’impiego di risorse e abbassando di conseguenza il Tco (Total cost of ownership). Inoltre, una San è facilmente scalabile in base alle esigenze degli utilizzatori, ha un’affidabilità notevole e rende più facile ed efficace la gestione delle risorse di storage. D’altra parte, è più complessa da implementare e attivare di una semplice Lan (Local area network); deve essere gestita da personale esperto con buone conoscenze degli aspetti di configurazione e gestione dello storage; ha un costo mediamente più elevato di altre soluzioni.

HP è in grado di fornire soluzioni in tutti gli ambiti appena visti, come la famiglia di soluzioni Das StorageWorks D2000 Disc Enclosure (D2600 e D2700) o X1400 Network Storage System per Nas e le soluzioni San P4000, costruite su un’architettura di storage clustering. Lo stesso vale per gli altri fornitori leader di mercato, come IBM (www-03.ibm.com/systems/it/storage/), da System Storage Ds3200, pensato per le Pmi, alla nuova famiglia Ds8000 Turbo, in grado di offrire capacità di storage fino a 1024 Terabyte su interfaccia Fc. Ancora, le soluzioni di NetApp, (www.netapp.com/it/products/storage-systems/) come i sistemi della famiglia Fas (da Fas 2000 a Fas 6000, con capacità fino a circa 1,2 Tb e connettibilità da modalità Das a San), o, ancora, la già ricordata EMC che propone sistemi per tutte le esigenze, da Celerra a Clariion, da Connectrix a Symmetrix. In particolare, data la recente acquisizione, fa parte del Gruppo EMC anche Iomega, specializzata nelle appliance di storage di fascia medio-bassa, che ha lanciato le appliance StorCenter ix2-200 e StorCenter ix4-200d, basate sulle tecnologie di storage enterprise di EMC, che consentono di utilizzare dischi fino a una capacità di 8 Tb con funzioni di trasferimento rapido dei dati da appliance ad appliance mediante un tasto e offrono accesso iScsi. Fondate sul software EMC LifeLine, le appliance presentano un’interfaccia grafica di facile comprensione e utilizzo, che garantisce che i dati siano accessibili, sicuri e protetti in qualsiasi luogo e in qualsiasi momento. Gli utilizzatori delle due appliance hanno la possibilità di sostituire i dischi da soli. Hitachi Data Systems (HDS – www.hds.com/it/) offre famiglie complete di soluzioni che vanno dalle Pmi, come Simple Modular Storage 100, che dispone di funzioni di protezione di classe enterprise su un sistema di costo contenuto, fino a Hitachi Universal Storage Platform V, combinata con Brocade Dcx Backbone per le implementazioni nelle grandi aziende. Gateway (www.gateway.com), oggi parte del Gruppo Acer, ha di recente annunciato il rinnovo della partnership di vecchia data, ereditata da Acer, con Hitachi, lanciando il nuovo sistema di storage Gs2040, dedicato alle Pmi e proposto con il doppio marchio Hitachi/Gateway. Questo sistema offre elevate prestazioni e scalabilità nel backup e nella protezione dei dati, con un’affidabilità elevata e che può operare con Microsoft Exchange Server, VMware, database e altre applicazioni di business. Hitachi/Gateway Gs2040 consente di utilizzare dischi fino a 120 Tb, con prestazioni fino a 400mila Iops e una connettività elevata, con 512 porte virtuali. Fujitsu Technology Solutions (http://ts.fujitsu.com) fornisce la serie Eternus Dx di sistemi a disco come Dx 60/Dx 80 in grado di connettersi con protocollo iScsi, Fibre Channel e Sas.

La scelta di quale soluzione adottare per l’infrastruttura storage della propria azienda dipende da molti fattori, primo tra tutti la dimensione della rete, segue a ruota il numero di server collegati e il numero dei client attivi, la quantità e la tipologia delle informazioni da memorizzare, la latenza delle stesse, cioè quanto tempo può passare tra la richiesta di un’informazione al server e la sua disponibilità online e via dicendo. Inoltre, anche la finalità primaria cui si dedica lo storage va tenuta in debita considerazione: se il backup e restore dei dati restano priorità assolute, in organizzazioni di dimensioni medio-grandi o molto grandi, soprattutto se i dati da gestire sono molto delicati, come nel caso delle istituzioni bancarie, bisogna implementare necessariamente soluzioni di disaster recovery con server e San dislocati anche a centinaia di chilometri di distanza gli uni dagli altri in modo da prevenire pericoli come terremoti e inondazioni.

C’è ancora spazio per i nastri?

Questa domanda, anche se apparentemente oziosa, ha invece un’immediata risposta positiva, soprattutto dove si pensi l’infrastruttura di storage in termini di Ilm. Infatti, la logica Ilm vuole che i dati seguano un percorso piuttosto articolato durante la loro vita, principalmente condizionato da due fattori: 1) l’importanza del dato e quindi la necessità di poterne disporre in tempi molto brevi; 2) il costo (Tco) delle singole soluzioni di storage utilizzate. In altri termini, si tende a spostare i dati meno importanti (come per esempio gli archivi storici di documenti come vecchie bolle o vecchie fatture) su dispositivi meno costosi e più lenti. Invece, i dati più importanti e che occorre avere sempre sotto mano (per esempio la situazione di giacenza delle merci a magazzino) vengono memorizzati su supporti più veloci e costosi. I primi sono tipicamente nastri magnetici, in uso nel mondo It da oltre 50 anni, che hanno un costo minimo e possono essere immagazzinati per un tempo molto lungo (superiore ai 30 anni) senza sostanziale degrado delle informazioni contenute. I secondi sono i sistemi a disco, oggi estremamente veloci e con una densità tale che in supporti di diametro pari a una moneta da 50 centesimi di euro trovano comodamente posto centinaia di gigabyte di dati. Tra i produttori di sistemi di storage a nastro troviamo quasi tutti i grandi protagonisti del mercato Ict, dalla già citata HP (con sistemi come StorageWorks Ultrium 1760) o IBM (ancora dalla SystemStorage 3200 alla Ts3500 Tape Library, in grado di gestire fino a 45 Pb con cartucce di capacità estesa IBM 3592). Così come Fujitsu Technology Solutions con la gamma Eternus Lt di Tape Library Lto offre una famiglia completa di soluzioni fino a 76,8 Tb di capacità.

Leggi anche:  Cloudera rafforza la sua presenza nel Sud Europa con nuovi uffici a Milano, Madrid e Parigi

Il ruolo del software di gestione e dell’Ecm

Naturalmente, il ruolo dell’hardware nelle soluzioni di storage è essenziale; tuttavia non può essere disgiunto dal software, che rende realmente intelligente e sicura la soluzione complessiva per la gestione e la memorizzazione delle informazioni. In particolare, in questo momento storico di crisi economica, il software è quello che fa la differenza, nel senso che consente di gestire numerose piattaforme distribuite, con la possibilità di utilizzare anche storage già disponibile nell’organizzazione, ma che viene sottoutilizzato, spostando i dati da un sistema all’altro secondo la logica dell’Ilm. Tutti i maggiori vendor oggi attivi sul mercato storage propongono soluzioni dedicate alla gestione e al controllo: da HP (che offre per esempio StorageWorks Storage Mirroring per la replicazione a livello di blocchi di dati tra due server distanti) a IBM (Tivoli Storage Manager), a NetApp (System Manager e Operations Manager), a Hitachi (Storage Command Suite, HiCommand Storage Management Suite e Data Retention Utility, che protegge i dati da cancellazioni inattese), a EMC (Ionix ControlCenter). A questi si aggiunge anche CommVault (www.commvault.com/offices/it/) con Simpana per il backup, la deduplicazione, l’archiviazione, la replica, la ricerca e lo Storage resource management. Per quanto riguarda Symantec (www.symantec.com/it/it/) invece, le soluzioni che può mettere in campo per la gestione ottimizzata delle risorse di storage e di backup sono in costante evoluzione e seguono alcuni criteri guida, come quello di adottare l’archiviazione attiva per conservare le informazioni a lungo termine e utilizzare i backup come piattaforma di disaster recovery a breve termine. Il tutto affidandosi a soluzioni che, come NetBackup 7, Backup Exec o Veritas Storage Foundation, sono in grado di gestire ambienti eterogenei di qualsiasi estensione e con qualsiasi piattaforma (Backup Exec è ottimizzato per le Pmi) e storage virtualizzato con piattaforme VMware o Microsoft Hyper-V.

Infine, occorre considerare l’apporto fondamentale dato dalle soluzioni di Ecm (Enterprise content management), come IBM FileNet, EMC Documentum e altre, che consentono di ottimizzare lo scambio, la condivisione e la gestione di informazioni non strutturate attraverso numerose piattaforme e repository fisici e virtuali.

Consolidamento per ottimizzare

Stiamo ancora vivendo in pieno le conseguenze di una crisi economica da cui forse oggi cominciamo timidamente a uscire, come dimostrano i primi indicatori macroeconomici. Tuttavia, gli investimenti e le strategie It in ogni campo, compreso naturalmente quello dello storage, risentono ancora dei budget limitati e delle necessarie ottimizzazioni di risorse e strumenti retaggio di questa situazione. Per questo, si sono affermate e stanno riscuotendo un successo sempre maggiore le tecnologie dedicate a ottimizzare le infrastrutture già implementate dalle organizzazioni, senza la necessità di far crescere piattaforme hardware costose o comunque che dovrebbero essere integrate in infrastrutture eterogenee complesse, con la necessità di forti investimenti in hardware e sistemi di connettività ad alte prestazioni. Come il cosiddetto consolidamento, che, applicato alle soluzioni storage, si trasforma in una gestione ottimizzata e oculata dell’esistente, attraverso software e servizi dedicati, come quelli che è in grado di fornire Terasystem (www.terasystem.it), azienda specializzata nella consulenza infrastrutturale, nella sicurezza e nel Content management, che si ripropone di entrare nel novero delle prime 5 aziende italiane in questi settori nei prossimi 5 anni, anche attraverso la proposta di soluzioni software sviluppate al proprio interno e quindi interamente “made in Italy”. Anche realtà più piccole, ma specializzate come Maticmind (www.maticmind.it) rendono disponibili ai propri clienti servizi e soluzioni ottimizzate nell’ambito dei data center, garantiti da partnership eccellenti con fornitori del calibro di Cisco, EMC e VMware; così come In20 (www.in20.com) che, avendo stretti rapporti con NetApp, HDS e anche EMC e VMware, è in grado di portare soluzioni di consolidamento e salvataggio dati, proponendo sistemi Nas e San, tape automation e virtual storage.

LA VIRTUALIZZAZIONE E LA DEDUPLICA

Una considerazione a parte merita sicuramente la “virtualizzazione”, intesa quale tecnologia che consente di gestire come insiemi unici omogenei server o sistemi di storage fisicamente distinti e addirittura distanti gli uni dagli altri. In altri termini, astrarre lo storage dal suo “contenitore” fisico. Nel caso dei server, per esempio, grazie alla virtualizzazione è possibile creare più macchine virtuali, appunto, all’interno di un unico server fisico, con immediati vantaggi in termini di gestione di applicazioni distinte eseguite in multithreading, in quanto è possibile dedicare un server virtuale diverso a ogni applicazione. Questo significa che, per esempio, mentre un server virtuale gestisce l’archiviazione di dati all’interno di un database relazionale, un altro si dedica alla gestione di un sistema di e-mail, mentre un terzo gestisce informazioni non strutturate in un sistema di repository. Lo stesso genere di considerazioni si può fare sui sistemi di storage: in altri termini, è possibile suddividere un unico sistema di storage fisico in più sottosistemi virtuali, anche qui ottimizzando ogni server a un task specifico, come la gestione delle esigenze di un determinato gruppo di utenti, generato in virtuale anche se fisicamente opera per esempio in uffici molto distanti gli uni dagli altri (come avviene nel caso di un’azienda diffusa su molte sedi, talvolta multinazionali, in cui la casa madre viene integrata virtualmente con le filiali sparse sul territorio). È chiaro quali sono i vantaggi offerti dai sistemi di virtualizzazione: 1) ottimizzazione delle risorse, in quanto realmente condivise tra numerosi utenti e quindi sfruttabili in modo completo (le partizioni possono essere cambiate in modo dinamico); 2) scalabilità massima, poiché si cambiano le attribuzioni di risorse virtuali, senza installare nuove soluzioni fisiche; 3) contenimento dei costi di gestione e manutenzione. Questo aspetto sembra banale ma è uno degli elementi su cui si focalizzano gli It manager nella ricerca dell’efficienza delle infrastrutture che gestiscono: infatti, ridurre il numero di unità (hardware) significa occupare meno spazio negli uffici, consumare meno energia elettrica, produrre meno calore nell’ambiente con riduzione della necessità di condizionare gli uffici e via dicendo.

Un aspetto non considerato nella trattazione precedente, ma importante ai fini dell’ottimizzazione di un’infrastruttura di storage è quello della deduplicazione dei dati. Riconoscere la presenza di dati ridondanti e, appunto, duplicati in una rete di gestione delle informazioni è essenziale per due motivi: da una parte, l’ottimizzazione dello spazio di storage a disposizione degli utenti, dall’altra l’efficienza delle soluzioni di recupero e gestione dei dati. Questa è un’altra delle aree applicative che trovano un seguito sempre più importante nell’It mondiale. Sia nel campo dell’offerta di soluzioni software sia in quello dei servizi It, la deduplicazione viene posta al centro dell’offerta di molti vendor e attori del mercato.

Un po’ di dati

Per comprendere come si sta muovendo il mercato della virtualizzazione in ambito storage, possiamo esaminare in modo quasi parallelo quello delle tecnologie di virtualizzazione applicate al mercato dei server: infatti, i due mercati sono in rapporto quasi biunivoco di corrispondenza e, comunque, come vedremo, gli attori principali di uno sono gli stessi che offrono soluzioni di virtualizzazione anche nell’altro. Esaminando allora il mercato dal punto di vista dei server, ci accorgiamo che, nonostante la situazione macroeconomica certamente non favorevole, la virtualizzazione rappresenta un reale fattore di crescita. Infatti, stando ad IDC, il 18,2% di tutti i nuovi server spediti nel quarto trimestre del 2009 erano “virtualizzati”, con una crescita del 15,2% rispetto al quarto trimestre del 2008. In termini numerici, questo significa che per la prima volta nel 2009 sono state vendute 352.533 unità in più del 2008, secondo quella che la società di analisi definisce la mentalità del “prima di tutto virtualizzare” esibita da clienti che cominciano a vedere la luce in fondo al tunnel della recessione. Conteggiando il totale venduto sull’anno 2009 di server virtualizzati, tuttavia, si scopre una diminuzione pari al 5% e un ulteriore calo della spesa da parte degli utenti finali in server virtualizzati del 2% anno su anno nel quarto trimestre e del 14% su tutto il 2009, con un valore di 15,2 miliardi di dollari. Il fatturato proveniente da software di virtualizzazione è calato del 10% a livello mondiale anno su anno nel 2009, fino a raggiungere i 447 milioni di dollari, principalmente a causa di pressioni competitive, mentre le nuove licenze sono cresciute del 13% nell’ultimo anno e del 21% trimestre su trimestre alla fine del 2009, ma sono diminuite del 7% per l’intero 2009. La proposizione di questi dati offre uno spaccato piuttosto chiaro del mercato della virtualizzazione, visto che i protagonisti sono i medesimi dal punto di vista dei vendor di soluzioni It. Per capirlo meglio, basta esaminare i risultati di mercato evidenziati da IDC ottenuti dai principali fornitori di piattaforme di virtualizzazione, a partire da VMware (www.vmware.com/it/) che si colloca al primo e al secondo posto, con il software Esx, in prima posizione, con una crescita delle licenze vendute dal quarto trimestre 2009 rispetto allo stesso periodo del 2008 pari al 19%, e VMware Server in seconda, nonostante un calo del 9% anno su anno. Dal canto suo Microsoft (www.microsoft.com/it/it/) con il suo sistema Hyper-V continua a crescere, guadagnando il terzo posto assoluto in termini di quota di mercato con un incremento del 215%, mentre Virtual Server 2005, al quarto posto, diminuisce in termini di licenze vendute del 29%. Infine Citrix (www.citrix.it) cresce con il suo XenServer del 290% anno su anno, grazie a una politica molto aggressiva di promozione, ma sul secondo trimestre del 2009 mostra “solo” un più modesto +25%.

Leggi anche:  Fastweb, firmato l’accordo sullo smartworking che rende strutturale il nuovo modello di organizzazione del lavoro

Gli attori della virtualizzazione nel settore storage

Tra i vendor che abbiamo già esaminato nelle righe precedenti, quasi tutti offrono soluzioni di virtualizzazione dedicate al mondo dello storage. In particolare, per esempio, HP propone la piattaforma StorageWorks San Virtualization Services Platform (Svsp), con lo scopo di aiutare i clienti ad aumentare l’efficienza, semplificare la gestione e diminuire il Tco dello storage. La soluzione HP offre uno storage pooling gestito in modo centralizzato e il provisioning di volumi virtuali su risorse di storage sia HP che di altri fornitori, consentendo di ottenere un’elevata scalabilità, alte prestazioni e alta disponibilità di tutte le risorse San, riducendo nel contempo i costi di gestione e migliorando l’utilizzo degli asset nella rete. NetApp propone invece la propria soluzione SnapManager per Virtual Infrastructure, da utilizzare insieme a VMware vCenter, che automatizza e semplifica la gestione delle operazioni di backup e ripristino dei dati. Chi amministra gli ambienti virtuali VMware ha così a disposizione un tool di facile impiego per realizzare backup in coerenza con le macchine virtuali generate e può ripristinare rapidamente archivi, macchine virtuali, file Vdmk e altri in una macchina virtuale ospite. Sempre NetApp rende inoltre disponibile, all’interno della sua soluzione di gestione dello storage per ambienti Windows, una funzione di consolidamento delle applicazioni e dei dati su un numero più basso di server e di sistemi di storage, utilizzando tecnologie di virtualizzazione come Microsoft Hyper-V, VMware Esx o Citrix XenServer e ottenendo così un aumento dell’utilizzo delle risorse e una riduzione dei costi relativi anche del 50%. NetApp elimina la necessità di utilizzare file server separati, sistemi Das inefficienti o piccole San eterogenee, riducendo così la quantità di storage necessaria e aumentando il tasso di utilizzo delle risorse disponibili. In questo modo, la gestione viene semplificata e, visto che i dati sono tutti in un unico posto, è migliorata anche la data protection. IBM offre invece il proprio software di storage virtualization Tivoli Storage Management, che permette di semplificare l’infrastruttura storage ottimizzando l’utilizzo delle risorse e consentendo al business di adattarsi in modo veloce e dinamico al variare delle condizioni di mercato. L’obiettivo è quello di arrivare a implementare un On Demand operating environment, cioè un ambiente operativo flessibile e pronto a erogare in ogni momento i servizi richiesti dal business dell’azienda cliente. EMC, per parte sua, ha introdotto un’intera classe di soluzioni di virtualizzazione dello storage, battezzata Vplex, una piattaforma costituita da hardware e software, che può essere implementata in data farm basate su array di EMC, Hitachi, IBM e altri fornitori. Com’è possibile federare i server in un sistema virtualizzato, così Vplex consente di federare i dispositivi di storage per creare reali sistemi virtuali. Per l’utente è come se i dati che gli vengono presentati fossero generati a livello locale. Vplex applica i dettami della virtualizzazione It dei server al mondo dello storage, rendendolo completamente indipendente dai device sottesi, basandosi sulla tecnologia Fast (Fully automated storage tiering), che consente di avere l’informazione/il dato nel posto giusto al momento giusto. Hitachi Data Systems propone una soluzione basata sul software Hitachi Dynamic Provisioning, che dovrebbe garantire maggiore efficienza ai processi di disaster recovery. Infatti, Dynamic Provisioning supporta oggi la replica locale e remota dei volumi thin provisioned. Ciò significa che, utilizzando in modo congiunto Dynamic Provisioning con i software Hitachi Truecopy e Universal Replicator, si può effettuare una replica sincrona e asincrona dei dati senza duplicare la porzione di volume allocata, ma non utilizzata, garantendo così maggiore efficienza, flessibilità e sicurezza ai processi di disaster recovery e preservando l’integrità dei dati. EMC offre, tra le altre, la soluzione Block Storage Virtualization, che ottimizza le operazioni di storage e l’infrastruttura critica mediante tecnologie e servizi di virtualizzazione a blocchi, che consentono di spostare le informazioni sul livello di storage più appropriato, mantenendo tutte le applicazioni online e senza interrompere in alcun modo le attività in corso. Implementando questa soluzione, EMC offre vantaggi misurabili in un notevole risparmio operativo e la garanzia di mobilità e integrità dei dati. L’architettura di virtualizzazione dei percorsi, infine, consente di migliorare le prestazioni dello storage, riducendo i costi ricorrenti. Il Gruppo Terasystem dispone di competenze approfondite offerte da consulenti certificati ai massimi livelli sulle tecnologie di virtualizzazione VMware, potendo così realizzare infrastrutture efficienti che, com’è caratteristica di queste soluzioni, riducono il numero di macchine fisiche e di conseguenza i relativi consumi. Le specifiche metodologie GlassHouse adottate da Terasystem permettono di supportare le imprese clienti nel realizzare infrastrutture virtualizzate con il massimo rendimento. In particolare, per la virtualizzazione dello storage, il Gruppo Terasystem propone una soluzione realizzata all’interno e certificata dai maggiori vendor di settore, che consente di virtualizzare sistemi eterogenei, comprendendo anche ambienti proprietari. Dal canto suo, Maticmind è in grado di offrire servizi di virtualizzazione che rendono possibile trasformare i data center in infrastrutture di cloud computing semplificate e quindi di più immediata gestione. CommVault propone, attraverso il proprio software Simpana, uno strumento che consente di controllare in modo semplice tutti gli aspetti della gestione dei dati in un ambiente virtualizzato su piattaforme Microsoft Hyper-V e VMware, comprendendo la data protection, l’archiviazione, la replicazione e il reporting, in un tutt’uno integrato, ottenendo una soluzione completa di virtualizzazione gestita da una singola console.

Conclusioni

L’ambito dello storage comunque è stato, è e continuerà a restare uno dei campi di battaglia più importanti per la crescita dell’Information technology a livello globale. Del resto, i budget necessari per le infrastrutture storage sono di solito tra i più cospicui di tutta la dotazione dei Cio. Ma non è solo un aspetto finanziario a giocare in questo caso: come abbiamo visto, le soluzioni messe in campo dai principali vendor (e lo storage è un campo in cui giocano veramente tutti) sono veri e propri strumenti di efficienza per tutta l’organizzazione aziendale. Servizi finanziari, marketing, produzione, vendite, assistenza ai clienti: ormai non c’è più settore di un’azienda che non sia fortemente legato alle soluzioni Ict e, in particolare, allo storage. Occorre registrare i dati relativi alle transazioni, spesso per motivi legali e obbligati da apposite normative, sempre per poter riuscire a tenere sotto controllo l’andamento del proprio business e capire dove ci possono essere spazi di miglioramento per raggiungere nuovi obiettivi di crescita. Inoltre, bisogna disporre delle informazioni necessarie a prendere decisioni solide, che possano ancora una volta far crescere il business e non affossarlo: dati di Borsa, tassi di cambio, andamento dei prezzi. Tutte informazioni che per molti operatori sono vitali e che possono significare il successo di un’azienda oppure condannarla al fallimento. Se poi aggiungiamo a questo quadro gli aspetti più intimi, legati alla vita quotidiana di ognuno di noi, come l’Anagrafe, i certificati, la situazione dei conti correnti, gli eventuali investimenti e i pagamenti effettuati, ecco che l’importanza di un efficiente e efficace sistema di storage risulta ancora più evidente. Se poi se ne riescono a controllare in modo efficace anche i costi di esercizio e a farlo evolvere con le ristrettezze imposte da budget sempre più magri, allora l’obiettivo si può dire veramente raggiunto.