Il Fujitsu Business Centric Datacenter

Nel moderno mercato iper-concorrenziale, il dato rappresenta un asset fondamentale per qualsiasi azienda: garantirne l’integrità e la disponibilità a diversi livelli è un task fondamentale dei CIO, nonostante si debba operare in perimetri di costante ridimensionamento dei budget IT.

Infatti informazioni fondamentali per il business aziendale, come la conoscenza dei profili di acquisto di clienti e prospect, sono custoditi e gestiti attraverso i sistemi target storage aziendali, per cui lo storage può essere considerato come il repository di asset strategici per l’azienda.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Diverse sono le criticità che i sistemi informativi si trovano ad affrontare per garantire elevati livelli di servizio legati allo storage:

• la virtualizzazione, quindi una crescente richiesta di storage interconnesso;
• la crescita dei workload, con conseguente necessità di soluzioni storage sempre più capienti, performanti ed in grado di garantire maggiori risorse in linea per un vasto spettro di applicazioni;
• il back up, il recovery e l’archiving, infatti solo la razionalizzazione di questi processi permette di mantenere sotto controllo i costi ed aumentare le performance;
• il consumo energetico, infatti i sistemi storage gravano per il 40% sull’intero consumo energetico del data center.

Superare queste criticità significa definire una corretta strategia di tiering dello storage basata sulle necessità delle applicazioni e non vincolata dai limiti strutturali e sviluppare una strategia di lungo periodo per la data protection per automatizzare, standardizzare e consolidare i processi di back up e archiviazione.

In questo contesto si sviluppa il “Fujitsu Business Centric Storage”, ovvero una proposizione tecnologica finalizzata ad allineare le risorse storage alle necessità applicative, a sostenere politiche di gestione automatizzata, di consolidamento dei sistemi target e di riduzione della complessità infrastrutturale dei Datacenter. Le linee Eternus DX per il Data Management ed Eternus CS per la Data Protection rappresentano le soluzioni alla base di questa proposizione in grado di aiutare i professionisti dello storage nel difficile compito di supportare il core business aziendale attraverso la leva tecnologica.

Leggi anche:  Canon, l’era della convergenza: il futuro della stampa e del converting passa da qui

Per vincere le sfide di back up e archiving

Il dato, oggi più che mai, rappresenta un asset fondamentale per ogni tipologia di azienda, indipendentemente dalla dimensione o dal settore di appartenenza. La data integrity e la data availability costituiscono quindi elementi su cui i CIO pongono particolare attenzione, nonostante di anno in anno i budget IT vengano ridimensionati. In questo contesto molteplici sono le sfide da affrontare, a partire dall’innalzamento dei livelli di workload che ha messo in luce tutti i limiti delle risorse storage e di networking attualmente a disposizione nelle aziende. Gli IT manager sono oggi consapevoli che per vincere queste sfide sia necessario introdurre nuovi elementi e target tecnologici: gli standard attuali non sono più in grado di garantire livelli di SLA che siano al passo con le crescenti esigenze del business aziendale.

Detto ciò è interessante notare come molti analisti rilevino due tendenze per certi versi in disaccordo tra loro: da un lato la componente di spesa storage generale rappresenta ancora oggi una voce molto importante nei processi di acquisto IT di ogni azienda, dall’altro lato molte aziende non hanno strategie consolidate e quindi non investono in soluzioni specifiche in tema archiving, molti clienti utilizzano semplicemente soluzioni tape based, altri disk based.

Se l’obiettivo è mantenere la spesa sotto controllo senza che questo danneggi i livelli di performance e capacità richiesti dal business, allora risulta necessario spingersi oltre anche in tema di data protection, ovvero verso una maggiore razionalizzazione dei processi di back up e archiving, attraverso ad esempio una sola piattaforma che unifichi tutti o quasi i sistemi target storage adottati (cloud storage compreso).

Leggi anche:  Epson presenta la più recente evoluzione della stampa inkjet con tecnologia a freddo Heat-Free

Fujitsu, grazie ad una lunga esperienza nella data protection iniziata decine di anni fa negli ambienti mainframe, ha sviluppato una strategia di lungo periodo sia per il back up che per l’archiving. Questa consiste in un approccio univoco per tutti le necessità legate al back up, al recovery e all’archiving, indipendentemente che l’ambiente server di riferimento sia costituito da soluzioni mainframe, Unix o x86. In questo modo è possibile gestire avanzate funzionalità di disaster recovery e long term retention per tutta l’infrastruttura servita.

Inoltre la strategia Fujitsu è orientata a fornire un approccio alla data protection basato sull’automazione dei task storage, allo scopo di ottenere i livelli di SLA definiti dal business e non dai limiti tecnologici dell’infrastruttura esistente: la gestione integrata di dischi, nastri e della tecnologia di deduplica, la migrazione automatica dei dati tra i sistemi target storage, sono solo alcuni degli elementi caratterizzanti questo ambiente infrastrutturale Fujitsu. In questo contesto gli specialisti dello storage, ad esempio, possono definire gli SLA dei processi di back up che meglio soddisfano le esigenze applicative e supportano i relativi workload, in maniera tale che le risorse siano allocate efficientemente a supporto del business aziendale.

Questa visione viene declinata in un portfolio caratterizzato da tre linee di prodotto:

  • Eternus CS8000, la unified data protection appliance per rispondere alle esigenze dei Datacenter di medie e grandi aziende;
  • Eternus CS800, la data protection appliance ideale per le piccole e medie imprese e/o filiali;
  • Eternus CS200c, la soluzione completa che integra hardware e software facilitando la realizzazione di ambienti di back up nelle piccole e medie imprese.

 

 

 

Leggi anche:  Google annuncia Axion, la sua prima CPU Arm per data center