Le 10 priorità top storage e IT nel 2010

Nel solco di una consuetudine ormai consolidata, a inizio anno i leader di mercato analizzano le tendenze del settore nel quale operano. Per quanto riguarda lo storage, Hitachi Data Systems, l’unico fornitore di Services Oriented Storage Solutions e società del gruppo Hitachi, ha individuato le dieci priorità di investimento che caratterizzeranno l’anno appena iniziato.

Infatti, nonostante il rallentamento dell’economia, il tasso di crescita delle esigenze di storage non diminuirà nel 2010. Ogni investimento deve quindi essere massimizzato: invece di continuare ad aggiungere ulteriori sistemi storage, le spese in conto capitale e quelle operative devono essere utilizzate al meglio per avere sempre la massima efficacia in termini di sostenibilità e di ritorno sugli investimenti.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

“Per il 2010, – ha affermato Dario Pardi, Vice President South & Benelux di Hitachi Data Systems – la partita dello storage si giocherà sul terreno dell’ottimizzazione delle risorse esistenti, della riduzione dei consumi, del contenimento dei costi, della sicurezza e del rispetto dell’ambiente, prestando sempre più attenzione ai nuovi paradigmi come il cloud storage o alle nuove tecnologie come i dischi SSD”.

Ma ecco in dettaglio i dieci elementi che Hitachi Data Systems invita a tenere d’occhio quest’anno.

Virtualizzazione dei Data Center:
La virtualizzazione è il fattore abilitante fondamentale dei data center dinamici di domani, in quanto comporta molti vantaggi. Però, pone anche nuove sfide: per esempio, il consumo complessivo di energia sarà sicuramente più basso ma anche molto variabile. Ci saranno meno server, ma ciascuno di essi avrà un ruolo più importante e avrà maggiori esigenze di risorse storage rispetto a prima. Le applicazioni potranno essere riassegnate dinamicamente e le infrastrutture di supporto devono essere in grado di fare lo stesso. Lo spazio occupato dal data center sarà minore, ma l’efficienza complessiva potrebbe non essere ancora ottimale. La buona notizia è che ci sono modi pratici e convenienti per affrontare queste sfide e migliorare l’efficienza dei data center.

Cloud Storage:
se il cloud computing è spesso usato come metafora per Internet, il cloud storage serve a mascherare la complessità delle infrastrutture IT e consente l’accesso alle capacità di storage sulla base di un servizio di tipo “pay as you grow”, cioè con costi correlati alle capacità di volta in volta necessarie. Nel 2010 il cloud continuerà a crescere in popolarità, con una continua attenzione, da parte dei vendor di cloud privati e dei fornitori di servizi cloud pubblici, verso l’elasticità, l’affidabilità, la multi-tenancy e la sicurezza. La virtualizzazione dello storage e la possibilità di scalare in modo dinamico costituiranno i driver fondamentali per l’adozione di cloud storage.

Leggi anche:  Lenovo group: i risultati del terzo trimestre 2023/24

Tiered Storage Automatizzato: l’adozione dello storage tiered sta diventando sempre più interessante e l’aggiunta di sistemi automatizzati di gestione dello storage su più livelli elimina la necessità di avere personale dedicato allo spostamento e alla copia di dati, minimizza il costo dei dischi più performanti, sfrutta lo storage a basso costo per i dati inattivi e le copie e ottimizza l’uso di storage Tier 1 a elevate prestazioni. 
Molte organizzazioni IT si stanno affacciando all’automazione della gestione dello storage tiered basata su policy per ottenere maggiore efficienza economica pur mantenendo i livelli di servizio necessari per il business. Combinando la gestione automatizzata dello storage tiered con la virtualizzazione dello storage e il thin provisioning dinamico, si potranno avere maggiori riduzioni dei costi in conto capitale e di quelli operativi.

Servizi: Gestire un’infrastruttura storage richiede personale a tempo pieno. Una volta, il pool di risorse interne gestiva anche le funzioni di routine, ma ormai non è più così. Nelle organizzazioni IT di oggi, il provisioning di nuove applicazioni oppure i report sulle performance delle SAN vengono amministrati a distanza tramite servizi gestiti da remoto. La domanda per questo tipo di servizi è in crescita e si prevedono nuove offerte da adottare come alternativa efficace ed economica alla gestione storage completa, 24 ore su 24 e 7 giorni su 7, nelle realtà in cui mancano risorse adeguate in termini di skill oppure vi siano vincoli al numero di dipendenti.

IT Sostenibile: le practice imposte dall’IT sostenibile offrono notevoli opportunità per creare valore e vantaggi competitivi. Nel 2010 si avrà una maggiore razionalizzazione dei progetti IT di tipo green. Inoltre, i manager dei data center inizieranno a prestare più attenzione ai consumi di energia. Con un’analisi più attenta dei costi energetici, un numero maggiore di manager IT dovranno garantire procedure adeguate per documentare i consumi di energia. A livello tecnico, questo si tradurrà in maggiore attenzione alla virtualizzazione di server, storage e data center, oltre che al cloud.

Sicurezza:
i manager IT devono trovare un equilibrio tra la minimizzazione dei rischi per la sicurezza e la realizzazione delle infrastrutture più performanti in termini di throughput, disponibilità, scalabilità, costi e complessità. Ogni organizzazione deve prendere le giuste decisioni in base alla propria situazione specifica (per esempio, le infrastrutture utilizzate, i requisiti legali e normativi) e l’importanza dei propri dati. I responsabili IT che pianificano gli investimenti in storage o l’uso di servizi di terze parti dovranno tener conto nel 2010 di priorità fondamentali quali la riservatezza, la privacy e la sicurezza dei dati.

Leggi anche:  Retelit sigla un accordo per l’acquisizione di BT Enìa

Convergenza Ethernet nel data center: Il settore si sta muovendo verso un modello dinamico di infrastrutture di rete che preveda un utilizzo sempre più intensivo dei server, sui quali vengono eseguite numerose macchine virtuali (VM) per ciascuna unità e che si serva di collegamenti ad ampia larghezza di banda per comunicare con storage e reti virtuali. Questa tecnologia ha il potenziale per:

• ridurre le spese in conto capitale più basso grazie a un maggiore utilizzo di server, storage e rete e grazie a fabric convergenti (che comportano minori cablaggi e il consolidamento di HBA e schede di rete)

• ridurre le spese operative grazie a una maggiore utilizzazione degli immobili che ospitano il data center

• ridurre i consumi di energia.

Performance migliori con drive Flash o unità SSD: I drive basati su memoria flash sono considerati proibitivi in termini di costo rispetto ai tradizionali hard disk, ma offrono notevoli vantaggi in termini di prestazioni – in particolare per la loro latenza molto bassa e l’Input/Output rapidissimo – e hanno anche il beneficio aggiuntivo di consumare molto meno in termini di energia. Si prevede di avere sempre più tecnologie basate su flash integrate nelle soluzioni, via via che la consapevolezza dei clienti e la domanda potenziale crescono.

Crescita continua delle piattaforme di Content Archiving: IDC stima che i contenuti costituiranno l’area dei dati a più rapida crescita, con un tasso di incremento composto annuale del 121%. In aggiunta ai contenuti, una percentuale fino al 60-80% dei dati strutturati e non presenti nei data center è costituita da dati stabili che potrebbero tranquillamente essere spostati in un archivio di contenuti per ridurre l’insieme dei dati di lavoro che vanno gestiti su base quotidiana. Ma se i contenuti costituiscono il tipo di dati a più rapida crescita, sono anche i più facili da gestire grazie alla loro natura statica: una volta inseriti in una piattaforma di Content Archiving ,si possono indicizzare in modo da poterne effettuare direttamente l’accesso, la compressione, la deduplica e la memorizzazione su dischi a basso costo di grande capacità, oltre alla crittografia per garantire la privacy. Per questi motivi, una piattaforma di Content Archiving deve essere in grado di scalare fino a decine di Petabyte e di supportare molteplici formati . Si prevede una crescita notevole della domanda di piattaforme di Content Archiving che soddisfino questi requisiti.

Leggi anche:  ADP ed Edenred Italia insieme per un'amministrazione del personale sempre più integrata

Crescente adozione del provisioning dinamico (thin): Lo strumento che da solo permette la maggiore riduzione dei costi operativi è il provisioning dinamico, detto anche thin provisioning, che può:

• Eliminare gli sprechi derivanti dallo spazio su disco allocato ma inutilizzato

• Ridurre i costi dello spostamento e della copia di grossi volumi di dischi, eliminando lo spazio inutilizzato

• Recuperare fino al 40% o più di capacità nei grossi volumi di dischi esistenti

• Ridurre i tempi del provisioning storage da ore a minuti

• Facilitare lo striping su larga scala per incrementare le prestazioni grazie alla diffusione delle operazioni di Input/Output (I/O) su più dischi.

Tenuto conto di tutti questi vantaggi, si prevede che la tecnologia di provisioning dinamico (thin) sia tra le principali priorità di investimento per i clienti con funzionalità quali zero page reclaim, riequilibrio dinamico dei pool di storage all’aggiunta di capacità, supporto storage multi-vendor e, infine, crescita generale delle performance.