Anche lo storage ha un’anima


Non tutte le componenti dell’infrastruttura IT delle organizzazioni si sono sviluppate nello stesso modo o seguendo gli stessi percorsi evolutivi. Lo storage merita uno spazio e un’attenzione tutte sue

 

Analizzando la storia dell’informatica degli ultimi trent’anni, quelli che hanno visto, per intenderci, i mainframe cedere lentamente, ma inesorabilmente, terreno prima ai mini, poi ai microcomputer e infine alle reti di Pc, ci possiamo rendere conto di come ogni parte dell’infrastruttura IT si sia sviluppata secondo percorsi evolutivi piuttosto diversi. Infatti, anche se il denominatore comune è sempre stato costituito da due fattori, velocità di elaborazione delle informazioni e ingombri, cui se n’è aggiunta una terza, l’assorbimento energetico e la produzione di calore durante il funzionamento (che davano ai data center, allora identificati come “centri di calcolo” quell’aspetto da caveau bancario o sala operatoria a causa della necessità di tenere i computer in ambienti climatizzati), non tutti gli elementi hanno seguito le stesse vie. La riduzione delle dimensioni e l’esasperazione delle performance ha infatti, per esempio, portato nuovi problemi per quanto riguarda il raffreddamento delle componenti elettroniche ad alta integrazione (come i microprocessori). Così sono nati i computer raffreddati a liquido e i dissipatori applicati sui singoli componenti. Così si è sviluppata tutta una nuova categoria di sistemi di ventilazione controllati da sistemi digitali, con ventole e ventoline che ronzano tuttora (anche se magari più lentamente e meno rumorosamente) nelle orecchie degli utilizzatori. Ma c’è un settore molto specifico e molto particolare dove la tecnologia ha fatto importanti passi in avanti nella miniaturizzazione, ma anche nelle soluzioni di gestione, hardware e software: sì, siete sulla strada giusta, stiamo proprio parlando dello storage.

Il telaio dell’infrastruttura IT

Non è esagerato affermare che lo storage è il telaio, la struttura portante di un sistema ben progettato di elaborazione delle informazioni. Non ha infatti alcun senso, è evidente, essere in grado di processare quantità impressionanti di dati se poi non le si possono memorizzare in modo affidabile e sicuro e, perché no, anche efficiente. Quindi, sin da quando i dischi erano soltanto floppy in celluloide ricoperta di ossido magnetico, l’importanza dei sistemi di storage è sempre stata essenziale. Per questo, anche in termini di investimenti, lo storage ha sempre assorbito molte risorse alle aziende e alle organizzazioni, sia in termini finanziari che di impegno del personale. L’evoluzione è dunque avvenuta lungo i binari dell’efficienza e dell’economia di gestione, ovvero il controllo del Tco (Total cost of ownership), garantendo però velocità di trasferimento dei dati e capacità di memorizzazione sempre maggiori. Infatti, il quadro è stato poi ulteriormente complicato dal nascere e dal diffondersi rapidissimo delle applicazioni digitali in ambiti prima riservati alle soluzioni totalmente analogiche, come la musica, le registrazioni audio, le videoriprese, la fotografia e i sistemi di messaggistica elettronica, dalle e-mail agli applicativi di Instant messaging. Questa particolare famiglia di dati, che non possono essere incasellati in record ordinati, cioè in database, prendono, com’è ben noto, il nome di “dati non strutturati” e i software che li gestiscono appartengono alla famiglia delle cosiddette soluzioni Ecm, o Enterprise content management. Perciò, l’era dei grandi e ingombranti dischi e delle unità nastro centralizzati con interfaccia canale dell’era dei mainframe ha lasciato dapprima il posto ai dischi più piccoli e decentrati, alle cartucce nastro Dat (Digital audio tape), che ancora vengono utilizzate in molti ambiti, ai sistemi basati su memorie ottiche (come i Cd e i Dvd) e, infine, ai dispositivi a stato solido, come le memorie flash. I criteri utilizzati per scegliere il sistema di memorizzazione dei dati più adatto alle particolari esigenze degli utenti che lo devono implementare seguono considerazioni di carattere energetico, di efficienza e ambientale. Partendo dall’ultima, possiamo dire che il Green computing è ormai una tendenza consolidata e una scelta non più opzionale per gli IT manager e, in generale, per i decisori di un’azienda. Questo implica diversi ordini di scelte: dispositivi a basso consumo, prodotti a partire da materiali facilmente riciclabili e, preferibilmente, riutilizzabili che producano comunque un livello molto basso di rifiuti e emissioni inquinanti nell’ambiente. Le considerazioni legate all’assorbimento energetico sono a questo punto un’immediata conseguenza delle scelte fatte con un occhio all’ambiente e l’altro ai costi di esercizio. Infatti, le tecnologie “verdi” sono anche molto attente ai consumi e i dispositivi progettati con queste finalità sono molto efficienti e ottimizzati sia in termini di ingombro fisico che di consumo. Ridurre i consumi, tra l’altro, ha anche un’importante ricaduta: come per le Cpu di cui abbiamo parlato in precedenza, anche per i dischi esiste il problema della dissipazione del calore. In particolare, più parti in movimento esistono in un apparato, maggiore sarà l’attrito e quindi la produzione di calore, con la conseguente necessità di opportuni sistemi di raffreddamento. Questo è uno dei punti a favore degli Ssd, Solid-state drive, i dischi a stato solido utilizzati per esempio nelle famose chiavette Usb. Gli Ssd non contengono parti in movimento ma sono tuttora (fonte: Snia, Storage networking industry association) più cari degli hard disk tradizionali in termini di costo per unità di spazio di storage. Inoltre, hanno l’ulteriore limitazione del numero massimo non infinito di operazioni di scrittura che accettano (più o meno 100mila) e della lentezza nelle operazioni di scrittura dei dati. La loro diffusione si sta tuttavia ampliando ed esistono già modelli destinati a un impiego di livello enterprise, dove le moli di dati sono notevoli e la disponibilità delle informazioni dev’essere garantita.

Anche in termini architetturali le scelte oggi disponibili sul mercato sono le più varie e, soprattutto, le più flessibili. Trascurando la modalità Das (Direct-attached storage), che comunque continua a essere in auge, lo storage in rete (Nas, Network-attached storage) e, soprattutto, le reti San (Storage area network) sono sempre più diffuse e impiegate in numerose situazioni, soprattutto a causa della loro estrema flessibilità e del crescere della diffusione di soluzioni di storage condiviso con modalità IaaS (Infrastructure-as-a-Service) o Cloud. Questa parte dell’evoluzione dello storage merita una particolare attenzione e un capitolo dedicato, che tratteremo nel seguito. Qui ora vorremmo analizzare un altro argomento, che interessa da vicino i vendor di sistemi e soluzioni di storage, ma anche gli utilizzatori e chi investe in quest’area, poiché dall’andamento del mercato dipendono gli investimenti tecnologici e quindi, in ultima analisi, il futuro delle diverse tecnologie impiegate per memorizzare e, soprattutto, gestire i dati, nonché dal livello di supporto che sarà disponibile, in quanto soluzioni basate su tecnologie ormai obsolete rischiano di non poter essere rimesse in condizioni di operare in modo normale quando si guastano durante il funzionamento ordinario, quando supportano magari l’operatività quotidiana di una grande azienda.

Un mercato in rapida ripresa

Un segnale di ottimismo in una situazione di mercato piuttosto deprimente come l’attuale ci voleva. Così, ecco arrivare i dati relativi alle vendite dei principali vendor del settore storage nel terzo trimestre 2010, che ci fanno ben sperare anche per il 2011 e gli anni a venire. Partiamo dal quadro tracciato da Gartner (www.gartner.com), che valuta complessivamente per il mercato dello storage su dischi Ecb (External controller-based) 4,6 miliardi di dollari a livello mondiale nel terzo trimestre 2010, con una crescita del 16% rispetto ai poco meno di 4 miliardi di dollari del terzo trimestre 2009. L’aspetto più interessante è rappresentato dal fatto che, nonostante il 2009 abbia rappresentato un anno negativo, con un calo del mercato Ecb rispetto al 2008, il 2010 mostra una crescita anche nei confronti del 2008, che vale +8,4% considerando il terzo quarter ’08 (quando il fatturato del settore aveva raggiunto complessivamente i 4,3 miliardi di dollari). Dati ancora più confortanti si possono leggere se si prendono in considerazione le valutazioni di IDC (www.idc.com), che fissano in circa 5,2 miliardi di dollari il valore del mercato definito dello storage su dischi esterni (External disk storage) nel terzo trimestre 2010, con una crescita del 19% rispetto allo stesso periodo del 2009. Considerando invece l’intero mercato dei sistemi di storage su disco, IDC ne stima in circa 7 miliardi di dollari il fatturato del terzo trimestre 2010, per una crescita pari al 18,5% rispetto al medesimo periodo del 2009. In termini di capacità complessiva spedita dalle fabbriche, si parla di 4.299 petabyte (cioè circa 4,3 miliardi di miliardi di byte), per una crescita rispetto al terzo quarter 2009 del 65,2%. Nel dettaglio, sempre secondo IDC, sono cresciuti gli investimenti (sia dei vendor che degli utenti finali) nelle tecnologie iScsi San e Nas, in misura pari rispettivamente al 41,4% e al 49,8% anno su anno, mentre anche le Fc San (Storage area network basate su connessioni Fiber channel ad altissime prestazioni) hanno mostrato segni di crescita.

Leggi anche:  Denodo DataFest 2021: l’importanza del Logical Data Fabric
 

I dati geografici e le performance dei maggiori vendor – Il mercato mondiale dello storage non si è comportato ovunque nello stesso modo: alcune aree geografiche, in particolare la regione Emea, nel mezzo di una crisi economica epocale, non ha mostrato, secondo Gartner, particolari segni di ripresa, mentre le altre maggiori regioni del mondo hanno sperimentato una crescita a doppia cifra. Nel dettaglio, per esempio, il mercato storage dell’America Latina è cresciuto del 43,4%, la regione Apac (Asia-Pacifico) del 22,2%, il Giappone ha raggiunto il +18% e il Nord America ha visto un incremento del 17,2%. Interessante è invece dare un’occhiata a come sono cambiate le posizioni di forza dei principali vendor in campo, con una sostanziale tenuta di EMC (http://italy.emc.com) che mantiene la leadership mondiale nei sistemi di storage esterni basati su disco (dati IDC), con il 26,1% di quota di mercato, seguita da IBM (www.ibm.com/it/it/) con il 12,9% e da NetApp (www.netapp.com/it/) con l’11,6% e HP (www.hp.com/it/it/), che, con l’11,1%, si attesta al quarto posto, seguita da Dell (www.dell.it), con una share pari al 9,1%. Con valori diversi in termini di quantificazione delle quote di mercato, ma con posizioni sostanzialmente identiche è la classifica stilata da Gartner, che vede ancora una volta EMC al comando del mercato Ecb (28,6%) con Dell (8,4%) a chiudere la classifica dei primi cinque vendor. Molto interessante, in termini di cambiamento, è l’analisi che Gartner fa della crescita di alcuni vendor importanti, come Hitachi Data Systems (www.hds.com/it/), al sesto posto con l’8,3% di quota di mercato, e Fujitsu (http://it.fujitsu.com), che ha una quota piuttosto bassa (2,7%) ma che ha ottenuto una crescita del fatturato nel periodo vicina al 60% (+56,6%, fonte: Gartner).

Se invece esaminiamo il mercato dei sistemi open di storage a disco in rete (cioè Nas unito a San Open/ iScsi), monitorato da IDC, scopriamo che complessivamente ha mostrato una crescita del 26,4% fino a raggiungere i 4,3 miliardi di dollari, con EMC che ne mantiene la leadership (30% di share) e NetApp che segue con il 14%. Il segmento dei sistemi Nas, invece, sempre secondo IDC, ha mostrato una crescita pari al 49,8% anno/anno, con EMC ancora una volta in testa (46,6%) e NetApp sempre secondo (28,9%). Infine è in brillante crescita anche il segmento delle iScsi San (+41,4%), che vede Dell in posizione di leadership con il 33,8% di quota, seguito da EMC e HP con rispettivamente il 13,8% e il 13,7% di share. HP ed EMC sono invece in testa per quanto riguarda il mercato complessivo dello storage su disco, con una share rispettiva del 19,5% e del 19,4%.

Da questi dati è possibile trarre alcuni spunti di riflessione, anche se ovviamente parziali e non definitivi. Cominciamo dalle crescite geografiche: qui è abbastanza ovvio notare che gli investimenti più importanti vengono effettuati dai Paesi dove la crescita economica è maggiore, dove la “fame” di spazio di memorizzazione è sempre più elevata e dove ancora il consolidamento e l’ottimizzazione sono concetti di là da venire. Per esempio il gruppo di nazioni del cosiddetto Bric, cioè Brasile, India e Cina, che, soprattutto per quest’ultima, ormai assurta a seconda potenza economica mondiale (posizione raggiunta scalzando il Giappone), ha prospettive di crescita molto importanti per i prossimi anni. L’aumento del tasso di industrializzazione e dei volumi di produzione destinati a soddisfare le esigenze del resto del mondo fanno sì che i Paesi Bric continueranno nel loro trend di crescita e, di conseguenza, di produzione e necessità di gestione di dati ancora per parecchio tempo. Una situazione piuttosto diversa da quella che sta vivendo, per esempio, l’Europa, dove la crisi economica ha tagliato i budget di molte aziende, soprattutto quelle medio-piccole, costringendo gli IT manager a fare di più con meno, cioè a utilizzare in modo sempre più efficace ed efficiente le risorse già disponibili. Ecco allora le soluzioni che permettono di incrementare le risorse di storage se non fisicamente, in modo virtuale. I sistemi possono essere diversi: sistemi di gestione più attenti, che amministrano in modo più oculato le risorse, comprimendo i dati dove possibile e spostando le informazioni tra risorse di storage anche remote in base alle necessità di averle disponibili in tempi più o meno brevi e alle esigenze di aggiornamento nel tempo. In altri termini, l’approccio Ilm, Information lifecycle management, che consente di gestire le informazioni spostandole su dispositivi di storage più lenti e meno costosi man mano che diventano più “da archivio”, cioè meno aggiornate ma comunque indispensabili per le analisi storiche del business, per esempio.

Un altro punto che risalta immediatamente da una semplice verifica è che a crescere di più sono quelle tecnologie che, basate soprattutto su sistemi open, quindi non vincolati a un singolo vendor, sfruttano al meglio le risorse già esistenti in azienda, come per esempio le reti basate su protocollo IP, cioè intranet ed extranet. Come per la telefonia, anche per la trasmissione dei dati le reti IP sono la risposta più flessibile e meno costosa (si veda nel seguito il capitolo dedicato). È possibile infatti selezionare e organizzare rapidamente, secondo le proprie esigenze specifiche, risorse di storage situate anche in punti piuttosto remoti dall’utilizzatore (sia questo una persona fisica, una struttura interna all’azienda o una semplice applicazione), mostrandole ai sistemi di gestione come un sistema unico distribuito. Quindi, si tratta di un approccio di tipo Cloud computing, che comprende anche la possibilità di appoggiarsi su fornitori esterni, in modalità SaaS (Software-as-a-Service) o IaaS (Infrastructure-as-a-Service). Tutte le risorse situate nel Cloud sono utilizzabili in modo flessibile e più o meno aggregato, a seconda delle esigenze. Il paragone che qualche vendor propone è quello dell’energia elettrica, erogata ovunque serva e pagata a consumo. Comunque una strategia piuttosto interessante per sfruttare al meglio le risorse di storage, che spesso in azienda sono assolutamente sottoutilizzate, a causa dell’acquisto di unità in numero superiore alle reali esigenze, grazie ai prezzi che in questi anni sono scesi sempre più velocemente.

Leggi anche:  Università Cattolica: oltre la Didattica a Distanza grazie a JAGGAER

 

Anche il software cresce – Un altro segmento importante del mercato storage su cui è il caso di riflettere con attenzione è quello del software. In effetti, come già osservato più volte da diverse parti, in un periodo di standardizzazione e livellamento delle offerte di sistemi di storage da parte dei maggiori vendor, il software resta un punto importante di differenziazione e un asset nelle strategie di posizionamento competitivo. Secondo i dati resi noti da IDC e riferiti al terzo trimestre del 2010, il comparto del software dedicato allo storage ha, nel suo complesso, raggiunto un valore di 3,1 miliardi di dollari, con una crescita dell’8,7% sul terzo trimestre del 2009 e del 6,3% sul secondo trimestre del 2010. I vendor più forti sul settore software sono EMC e NetApp, con una crescita a livello mondiale anno su anno nel 2010 del 13,9% e del 19,8% rispettivamente. Volendo analizzare l’andamento sui singoli segmenti, si può notare, come sottolinea IDC, che la crescita maggiore dal terzo trimestre 2009 allo stesso periodo del 2010 è stata del 10,7% per quanto riguarda il software per data protection e recovery, del 12% per l’archiving e del 37,3% per l’infrastruttura di storage in sé. Gli attori principali del mercato software sono gli stessi che si contendono anche la fetta dei sistemi, server e dispositivi di storage. Come per esempio EMC, che, dal punto di vista delle quote di mercato, domina il settore software con uno share del 24,4%, seguita da Symantec (16,5%), da IBM (13,4%) e da NetApp (8,4%, fonte: IDC).

 

Storage su IP: alcuni fatti

Sono veramente molti gli attori di mercato, sia utenti finali che vendor o system integrator, che scelgono oggi di implementare soluzioni basate su infrastrutture IP. Le ragioni sono diverse, e tra queste, per esempio, la necessità dei dipartimenti IT di mantenere e, anzi, migliorare i livelli di qualità del servizio fornito internamente alle diverse aree aziendali piuttosto che ai clienti esterni se si tratta di un provider. Un compito molto gravoso, se lo si associa alle numerose e importanti limitazioni del budget disponibile e alla riduzione costante delle risorse umane dedicate, sia in termini numerici che qualitativi, cosa che riduce anche il tempo a disposizione per operazioni di respiro un po’ più ampio, che non siano quindi quelle di normale routine, come la manutenzione. Scegliendo un’architettura di storage basata sul protocollo IP e, in particolare, le reti IP San (Storage area network), si ottiene il vantaggio di poter implementare sistemi di storage che utilizzano connessioni iScsi (Internet Small computer system interface), un’interfaccia che assomma, secondo quanto riporta l’associazione Snia (Storage networking industry association, www.snia.org), le caratteristiche di disponibilità, possibilità di recupero e facilità di gestione dei dati proprie delle applicazioni dedicate al business, ma con la semplicità d’uso dei sistemi Windows. Possiamo inoltre aggiungere che IP costituisce una tecnologia ormai ubiquitaria, legata alle reti Ethernet, diffuse in tutte le aziende e ormai anche a livello domestico. Anche i vendor attivi in quest’area sono moltissimi, con una conseguente riduzione dei costi medi e quindi un aumento delle economie di scala, realizzabili anche grazie alle dimensioni del mercato stesso. Si aggiunga la possibilità di ammortizzare i costi delle IP San su un numero di porte molto maggiore rispetto a quelle delle reti San su Fibre Channel (connessioni a fibra ottica). Ancora, lo storage su IP consente di accedere a molti livelli di sicurezza, gestendo la trasmissione dei dati con protocolli di security IP e crittografia, oltre a meccanismi in grado di risolvere problemi di congestione, effettuando un rerouting dinamico senza impattare troppo sul traffico di rete e altre utilità che permettono di rendere più sicuro lo spostamento dei file da e per le unità di storage. Quanto alle capacità, secondo la stessa Snia, lo storage IP ha già oggi la possibilità di soddisfare esigenze di reti 10 GbE (Gigabit Ethernet a 10 Gbit/sec) che, nel prossimo futuro, arriveranno alle reti 100 GbE (Gigabit Ethernet a 100 Gbit/sec). I dispositivi di storage IP sono poi caratterizzati dalla capacità di supportare diverse piattaforme operative nello stesso sistema, mentre l’architettura distribuita consente di avere maggiori garanzie sull’integrità dei dati, sostituendo all’approccio “copie multiple di un singolo dato per diversi singoli file system” quello più moderno: “una sola copia dei dati per molti file system”, che ha il doppio vantaggio, spiega Snia, di ridurre la capacità di storage necessaria e di rendere disponibile a tutti i server un’immagine consistente dei dati. Anche per le grandi aziende, come accennavamo, l’IP storage si rivela una scelta vincente, per esempio per collegare tra loro diverse San basate su Fibre Channel, consentendo un migliore controllo del Tco (Total cost of ownership) per i progetti di espansione dello storage corrente, indipendentemente dalla distanza coperta, dal momento che si utilizzano reti IP già esistenti. Da ultimo, l’IP storage permette di realizzare processi di backup delle informazioni più efficienti, grazie al fatto che il volume dei dati da copiare risulta ridotto, con una conseguente riduzione del tempo necessario per l’esecuzione dell’operazione di backup vera e propria. Inoltre, lo storage su IP offre notevole flessibilità nel backup, grazie alla grande varietà di strumenti e servizi di copiatura dei dati già incorporati all’interno del dispositivo, che perciò non richiedono alcuna interazione con altri server. Infine, l’IP storage consente di gestire capacità di storage maggiori rispetto ad altre tipologie di storage. Per questi motivi, per esempio, le IP San sono state adottate da aziende di tutte le dimensioni, dalle più grandi (per suddividere reti di storage estese in sottogruppi più facilmente gestibili) alle medie e alle piccole imprese.

 

Risorse nel Cloud e virtualizzazione

L’ultima tendenza nel mercato IT, che ha contagiato ovviamente anche il settore storage, è il cosiddetto Cloud computing. Il fatto di definirla tendenza e non tecnologia a sé stante è legato al concetto stesso di Cloud che, in un certo senso, ricombina in un contesto leggermente diverso tecnologie già note e consolidate, come per esempio l’erogazione delle applicazioni software in modalità SaaS. Comunque, parafrasando ancora una volta la definizione di Snia, possiamo stabilire che Cloud è “l’erogazione di storage virtualizzato on-demand”, cioè in base alle effettive necessità. Avere risorse disponibili “nella nuvola” invece che in modo diretto dovrebbe significare che posso accedervi in modo semplice e immediato, senza preoccuparmi di questioni di connettività o dei servizi che operano sulla rete che garantisce, appunto, la connettività alle risorse di storage. Questo può essere un altro modo di vedere il Cloud: una nuvola di risorse indistinte per l’utente, ma pronte a offrire i servizi desiderati quando sono necessari, con una semplice “richiesta”. Un’altra questione fondamentale che tocca la disponibilità dello storage nel Cloud è il fatto che i client possono essere di qualsiasi tipo: quindi, oltre al classico computer, per esempio, server o Pc che sia, si aggiungono gli smartphone, i terminali collegati in Wi-Fi, i notebook, i Tablet Pc e via dicendo. Molte possibilità di fruizione da ovunque, in una connessione Any-to-Any, da chiunque verso chiunque. Infine, meritano sicuramente un accenno le tecnologie di virtualizzazione dello storage. La loro nascita e l’attuale sviluppo è dovuto a svariati fattori, ma principalmente alla difficoltà di gestire in un unico gruppo di sistemi di storage moltissimi server diversi, sia fisici che, a loro volta, virtuali; differenti sistemi operativi e switch di rete; sistemi e protocolli diversi di storage e, da ultimi, le console di gestione e le risorse umane necessarie, sia dal punto di vista numerico che di competenze richieste. Va aggiunta poi la possibilità, resa necessaria dalle applicazioni di e-commerce, di accedere ai dati 24 x 7 x 365, cioè in tutti i giorni di tutto l’anno e a qualsiasi ora, senza subire downtime. Perché implementare la virtualizzazione delle risorse di storage, dunque? Per diversi motivi, spiega Snia: innanzi tutto, l’apertura, che consente di offrire accesso a nuovi server, reti e tecnologie di storage; una riduzione significativa del downtime; migliore utilizzo delle risorse di storage, con immediati benefici sia dal punto di vista dello spazio occupato da storage ridondante, sia da quello delle necessità di alimentazione, raffreddamento e gestione. Si aggiungono a queste caratteristiche la possibilità di fruire di risorse on-demand, quindi utilizzabili su richiesta, e di poter migliorare le prestazioni attraverso tecniche di load balancing o load spreading, cioè condivisione tra più sistemi del carico di lavoro di elaborazione e via dicendo.

Leggi anche:  Microsoft svela (non proprio ufficialmente) Office 2021

 

Lo storage ha veramente un’anima?

Dalle considerazioni riportate più sopra può apparire, in modo assolutamente involontario, che esistano poche cose spersonalizzate come un dispositivo o un’architettura di storage, il cui unico scopo è fare da contenitore, da silo delle informazioni che ogni azienda o organizzazione ha la necessità di recuperare, elaborare o archiviare nelle sue normali attività quotidiane. Nulla di più lontano dalla realtà: un buon sistema di storage, progettato e implementato nel modo corretto, è una specie di creatura viva dell’azienda, svolgendo insieme le funzioni di cervello e di sistema nervoso, l’organo che rende disponibili e fa fluire nel modo e nel tempo giusto le informazioni per recapitarle a chi deve poi prendere decisioni di business, per consentirgli di farlo nel modo più sicuro e documentato. In un momento come questo, quando le risorse finanziarie delle aziende sono preziose e in cui gran parte delle risorse di storage sono sottoutilizzate, occorre dotarsi degli strumenti più adeguati per mettersi in grado di gestire nel dettaglio i principali processi di business, salvaguardando i dati e consentendone un rapido recupero in caso di problemi o imprevisti. Inoltre, come abbiamo visto, il sistema nervoso storage compie anche un’importante missione di ottimizzazione, sia dei dati che dei flussi da e verso l’azienda, riducendo in modo assolutamente diretto l’onere che grava sulle spalle dei responsabili quando si tratta di recuperare informazioni in tempi brevi, tanto per fare un esempio nell’imminenza di una riunione del Consiglio di amministrazione di un’azienda, che deve dare un quadro strategico di crescita alle operazioni e che perciò ha necessità di dati corretti e tempestivi. La Business Intelligence e le tecnologie di Datawarehousing sono assolutamente altri importanti driver delle esigenze in costante crescita di risorse di elaborazione e di memorizzazione dei dati. Non abbiamo accennato ancora, e occorre farlo con la massima enfasi, al ruolo delle tecnologie di storage in ambiti quali quello finanziario, cioè principalmente banche e assicurazioni, dove flussi di denaro, pagamenti, transazioni finanziarie di ogni tipo viaggiano quotidianamente in quantità vertiginose su reti che possono essere poco sicure, al di là dell’intervento di hacker, per la semplice possibilità di perdita dei dati stessi per guasti inattesi. Anche in questo caso è lo storage a venirci in aiuto, con le soluzioni di disaster recovery e di backup evoluto, che memorizzano solo i dati che servono, risparmiando spazio disco e rendendo disponibile tutto un ambiente operativo in pochi minuti. Possiamo concludere dicendo che la chiave di volta dello storage nel Terzo Millennio è questa: raggiungere la massima efficienza ed efficacia, ottimizzando le risorse esistenti e aggiungendone solo quando strettamente indispensabile, dove e quando è necessario. Oggi siamo in una fase in cui le tecnologie esistenti sono assolutamente in grado di rispondere alle sfide in corso, anche se qualche volta in affanno. Domani non si sa: se vale ancora la legge di Moore, lo storage dovrà ancora mostrare quanto può essere flessibile e adattabile un sistema di infrastruttura importante come questo. Video, audio, fotografie digitali aggiungeranno ancora più carne al fuoco del grande arrosto che sarà l’ICT del futuro, con i telefoni cellulari che diventano sempre meno telefoni e sempre più client completi, con funzioni paragonabili a quelle di un Pc. Aumentano i dispositivi, fissi e mobili (soprattutto a vantaggio di questi ultimi), crescono le applicazioni e la mole di dati che i sistemi del futuro dovranno gestire. Non solo: aumentano anche le dimensioni dei singoli file, come dimostra la rapida obsolescenza di supporti che ormai rappresentavano un asset comune della vita quotidiana, come i floppy disk di una volta e come i Cd-Rom oggi. Cosa ci riserverà il futuro da questo punto di vista è impossibile prevederlo con una dose sufficiente di certezza: se la storia è magistra vitae, come dicevano i latini, continuerà ancora per un bel po’ il trend attuale di continua crescita delle esigenze e continua rincorsa di sistemi e soluzioni di gestione dello storage. Sempre ricordando che non si tratta solo di hardware, software, servizi e soluzioni, ma di una vera e propria struttura vivente, una sorta di Gaia dell’Information & Communication Technology. L’apparato circolatorio, il sistema nervoso e il cuore pulsante dell’ICT: tutto questo è storage, e anche lo storage ha un’anima, che va coltivata e rispettata. Per ottenere efficienza delle aziende e un utilizzo ottimale delle risorse, nell’ottica di un ecosistema sempre più sostenibile e a misura d’uomo.