Data center. Tutte le componenti critiche

Nessun compromesso sul piano delle prestazioni. La quadratura del cerchio tra flessibilità, agilità e semplicità passa per una sempre più incisiva trasformazione dei data center, in cui il software gioca un ruolo sempre più primario con l’emergere dei paradigmi software defined data center (SDDC) e software defined network(Sdn)

di Luca de Piano

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

 

Data Center, tutte le componenti criticheEfficienza, produttività e riduzione dei costi. Sono questi i classici driver che hanno spinto la trasformazione dei data center nel corso degli ultimi anni. Una trasformazione, favorita anche dalla virtualizzazione e dalla disponibilità di tecnologie sempre più sofisticate e performanti per quanto riguarda le componenti chiave del data center, come storage, server, networking, sistemi di alimentazione e di condizionamento. Ma ci sono altri fattori che spingono verso il cambiamento: in particolare, gli analisti (tra cui Gartner, IDC e Politecnico di Milano, citati nella ricerca di dicembre 2012 “L’evoluzione dei data center verso il cloud”, condotta per Intel e Fujitsu) sono concordi nell’affermare che i data center tradizionali hanno una serie di limiti: in ordine allo spazio fisico, oltre il 50% delle grandi imprese si troverà in difficoltà a garantire lo spazio fisico richiesto nei data center entro il 2013, mentre per alimentazione e raffreddamento, più della metà dei data center esistenti non è in grado di ospitare nuovi impianti ad alta densità a causa di limiti alla rete dati, alimentazione elettrica o condizionamento; il 90% dei CIO stima una crescita nel 2013 del budget per lo storage, elemento che risulta essere sempre più critico per la crescita del data center; infine, per il networking, l’infrastruttura di comunicazione dovrà essere rivista e adeguata affinché non diventi un collo di bottiglia.

Complessità crescente

Se l’innovazione tecnologica continua a perseguire obiettivi di razionalizzazione di tutte le risorse che rappresentano le fondamenta del data center, lo sviluppo di nuovi paradigmi ne aumenta di converso la complessità. Di fatto, la virtualizzazione, il cloud e soprattutto il mobile computing – fenomeno che si sovrappone al Byod (cioè l’utilizzo di smartphone e tablet personali per funzioni legate al lavoro) – rendono sempre più complessi i data center.

È interessante al riguardo la ricerca “State of the data center survey” (condotta nel 2012 per Symantec) dalla quale è emerso che quasi l’80% delle aziende interpellate, per un totale di quasi duemila e 500 professionisti IT di 34 Paesi, abbia riportato una crescente complessità nel proprio data center. Secondo l’indagine, tale complessità ha un impatto su tutte le aree del computing, in particolare su sicurezza e infrastrutture, così come su disaster recovery, storage e compliance. Per quanto riguarda i fattori alla base della complessità, il 60% degli intervistati ha riferito di avere a che fare con un numero crescente di applicazioni catalogabile a loro parere come business-critical. Altri importanti fattori di complessità del data center sono la crescita di trend IT come il mobile computing (citato dal 44% degli intervistati), la virtualizzazione dei server (43%), e il cloud (41%). Ma non solo: l’indagine di Symantec ha rivelato che gli effetti della crescente complessità del data center sono di vasta portata, in primo luogo in ordine all’aumento dei costi, con quasi la metà delle aziende che lo cita come uno degli effetti della complessità. Altre aree di impatto includono la riduzione dell’agilità (39%), i tempi più lunghi per la migrazione (39%) e il provisioning (38%) dello storage, le violazioni della sicurezza (35%), e i downtime (35%).

Le misure per mitigare la complessità sono quindi all’ordine del giorno, con l’obiettivo di gestire in maniera intelligente le risorse, contenere i costi operativi e controllare la crescita delle informazioni. Perché la trasformazione del data center ha queste stesse finalità, e anche altre, come la realizzazione di infrastrutture che possano supportare sempre al meglio le crescenti esigenze di business. I concetti più declinati a questo riguardo sono quelli relativi all’agilità e alla flessibilità, che portano con sé – per fare un esempio – la capacità di mettere le aziende nella condizione di ottimizzare il time to market di nuovi servizi e applicazioni, capitalizzando sul provisioning dinamico che si può realizzare in un ambiente virtualizzato, reso possibile dai data center di nuova generazione.

Segnali incoraggianti

Alcune conferme sugli effetti positivi per il business derivanti dalla trasformazione dei data center emergono dal “Next generation data center index”, l’indagine numerica di Oracle, arrivata alla sua terza edizione e condotta a fine 2012 dalla società di ricerche britannica Quocirca, che ha intervistato circa mille CIO di altrettante aziende, assegnando un valore da 0 a 10 a ogni risposta. L’indice studiato da Oracle tasta il polso su quanto – oggi – i data center sono in grado o meno di offrire le performance attese su tre parametri principali: flessibilità, cioè quanto il data center si dimostra dinamico nel seguire le esigenze di business; sostenibilità, intesa in particolare come efficienza energetica, e infine supporto. Complessivamente – a livello di intera ricerca – è emersa nettamente un’inversione di tendenza che vede le imprese riportare in casa la gestione dei dati: rispetto all’edizione precedente, che risaliva a fine 2011, la percentuale di aziende che utilizza solamente risorse interne per i propri dati è passata dal 45% al 66%, mentre le società dotate di un unico data center al proprio interno sono oggi il 41% contro il 26% di un anno prima.

Leggi anche:  Google, segnalati problemi con lo schermo del Fold

Ottimizzazione generale

Ma dalla trasformazione del data center deve discendere anche l’ottimizzazione generale dell’IT: vincere questa sfida costituisce il vero salto di qualità, per permettere all’informatica aziendale nuovi traguardi in termini di efficienza e produttività, risparmi e riduzione dei costi. I vantaggi possono davvero essere notevoli: per fare un solo esempio, la razionalizzazione dei server può avere «un ruolo fondamentale nella trasformazione della pubblica amministrazione italiana, a partire da una riduzione di molti sprechi e duplicazioni nel modo in cui si gestiscono le, già di per sé scarse, risorse informatiche» – hanno sostenuto recentemente i responsabili dell’Osservatorio Cloud & ICT as a service del Politecnico di Milano. «Basti pensare alla situazione attuale dei data center delle amministrazioni locali e centrali – avvertono  i docenti del Politecnico di Milano – che vedono, oggi, la presenza di più di quattromila data center con hardware disomogeneo, utilizzato solo per una frazione della potenzialità disponibile e con il ricorso a tecniche di virtualizzazione per appena il 25%. Già con la sola adozione di tecniche di virtualizzazione delle macchine fisiche e la creazione di data center aggregati, si potrebbe arrivare in cinque anni a un risparmio stimato pari a 5,6 miliardi di euro. Il consolidamento dell’infrastruttura hardware, tuttavia, potrebbe essere soltanto l’inizio del percorso di trasformazione dell’attuale modello di erogazione dei servizi Ict della Pa verso una trasformazione in grado di assicurare risparmi che, sebbene significativi, rappresentano soltanto la punta dell’iceberg dei benefici possibili».

Nuovi paradigmi

Tutti gli attori dell’ICT – soprattutto quelli sempre in prima linea nel delineare il futuro dei data center – sono perfettamente consapevoli dei cambiamenti. E la novità più recente è che accanto ai pilastri di base costituiti dall’infrastruttura di rete e dall’hardware – inteso come server e storage – assume un ruolo sempre più rilevante la componente software. Gli esempi di trasformazione in atto non mancano: si va dall’unificazione delle componenti server e storage, attraverso un fabric convergente in grado di assicurare una ottimizzazione del network, alla rivisitazione della logica one server-one application, tramite la distribuzione dinamica dei carichi di lavoro su insiemi di CPU virtualizzate. E poi ancora si ha un crescente utilizzo di processori ad alta efficienza energetica in grado di assicurare riduzioni tangibili della potenza di alimentazione necessaria, obiettivo perseguito anche con sistemi di condizionamento e raffreddamento intelligenti, in grado di minimizzare i consumi energetici. Ma non solo: si affacciano prepotentemente alla ribalta concetti come quello del “software defined data center” (Sddc) e dell’omologo “software defined network” (Sdn): si tratta di nuove architetture infrastrutturali in grado di portare i data center a ulteriori livelli di efficienza.

L’ora del data center definito dal software

Secondo Forrester (“The software defined data center is the future of infrastructure architecture” di Richard Fichera – Forrester Research, novembre 2012), il Sddc emergerà nel corso del 2013 come categoria di prodotto a sé stante nell’offerta di molti vendor. Ma come identificarlo con esattezza? Forrester ne parla formalmente come di “un livello di astrazione integrato che definisce un data center completo attraverso layer software che presentano le risorse del data center come un pool di risorse fisiche e virtuali, permettendo di comporle in servizi arbitrariamente definiti dagli utenti». In questo senso, buona parte dei componenti del Sddc sono quelli noti, come macchine virtuali, storage virtualizzato, strumenti di composizione dei servizi e portali di self-service, ma la componente di gestione della rete sarà quella che rappresenterà il cambiamento più sostanziale. Per fare alcuni esempi, i nuovi sistemi integrati che vedono server, storage e risorse di networking riuniti in un’unica macchina automatizzata vanno nella direzione del Sddc, anche se – secondo Forrester – ancora non ne realizzano compiutamente il concetto. Anche i pionieri della virtualizzazione stanno estendendo i vantaggi dell’hardware virtuale a tutte le aree del data center: network, sicurezza, storage e gestione.

Leggi anche:  Canon presenta "Make It BIG”: nuove tecnologie e applicazioni per ispirare i professionisti della grafica di grande formato

Risorse virtuali e fisiche

Senza entrare troppo nel dettaglio, è bene però riassumere quella che è l’architettura generale del software defined data center (come identificato nell’analisi di Forrester), che comprende numerosi layer funzionali basati sulle capacità di virtualizzazione, mentre i servizi, cioè i carichi di lavoro implementati nel data center, sono contenuti in un catalogo e possono essere forniti sia in modo programmato, sia tramite un portale basato sui diversi ruoli aziendali. Questi servizi sono formati da risorse fisiche e virtuali, come server, storage e networking. Per quanto riguarda i server, oggi le macchine virtuali costituiscono un elemento davvero maturo e possono formare il nucleo centrale delle risorse di computing, anche se non tutte queste risorse sono incapsulate come macchine virtuali. Per questo, sottolinea Forrester, nel Sddc devono esserci risorse fisiche dotate di soluzioni di virtualizzazione tramite software in modo da permetterne la gestione in pool. Anche le risorse storage entrano nel Sddc sotto forma di pool di oggetti storage virtuali, che comprende unità logiche, dischi virtuali e sistemi specifici per determinate applicazioni. I servizi storage come il thin provisioning, il backup, la deduplica, gli snapshot e altro, possono essere applicati sia agli oggetti-storage virtuali sia alle risorse fisiche. Infine, sempre secondo Forrester, il maggiore ostacolo di un’offerta Sddc sarà costituito dall’astrazione di un network virtualizzato e dal collegamento di questo con i componenti fisici della rete. Ecco perché tutti i principali vendor di networking sono all’opera nell’area delle reti di tipo software defined (Sdn). Ma saranno i fornitori di Sddc a decidere quale versione di Sdn adottare, dato che le diverse versioni non saranno compatibili, a parte le funzioni di base. A quest’ultimo proposito, Forrester si aspetta che ciascuno dei maggiori vendor disporrà di un proprio layer di Sdn, e ciò limiterà l’interoperabilità.

Il software definisce anche la rete

Come si è visto, la gestione dell’infrastruttura di networking costituisce un aspetto critico nei nuovi data center nei quali il software sta assumendo un ruolo preponderante. Ma questo ruolo di primo piano sta pervadendo anche i paradigmi di networking, tanto che ormai le reti di tipo software-defined networking (Sdn) stanno diventando un argomento “hot”. Non a caso, IDC prevede che il Sdn crescerà dai 200 milioni di dollari del 2013 ai 2 miliardi nel 2016. Concettualmente, il Sdn è analogo alla virtualizzazione e ai Sddc, in quanto separa l’elaborazione del traffico dei dati di rete dalla logica e dalle regole che controllano i flussi di tali dati. In questo modo, le aziende possono controllare meglio come gestire i propri dati, grazie alla possibilità di applicare differenti regole e funzionalità di routing, tra cui anche la scelta di decidere quale tipo di dati debba essere locale e quale remoto. In altre parole, il Sdn permette di ottenere visibilità e controllo degli accessi alla rete e alle risorse a livello granulare, consentendo alle persone IT di risolvere problemi specifici legati alla rete in maniera più rapida e flessibile, grazie alla semplicità derivante dall’avere un unico portale di gestione.

Vantaggi architetturali

Con una visione centralizzata dell’intera architettura di rete, le aziende sono in grado di adattare l’infrastruttura di rete per soddisfare le diverse esigenze di business, ma soprattutto possono farlo tempestivamente e senza dispendio di risorse, diversamente da quanto accade oggi. Infatti, la maggioranza delle reti attuali è poco efficiente, difficile da scalare, impegnativa a livello di costi o risorse e scarsamente flessibile. Nella maggior parte dei casi, l’intelligence di networking è distribuita su switch e router fisici, in cui la configurazione dei dispositivi di rete viene eseguita su ogni switch in modo indipendente. Per effettuare cambiamenti, gli amministratori delle reti devono agire su ogni singolo switch o router e riconfigurare il protocollo di routing: un’attività che richiede tempo, in particolare nei grandi ambienti di rete o di data center.

Nuove esigenze di monitoraggio

In passato, i network manager potevano identificare le cause di eventuali rallentamenti nelle performance applicative, analizzando il traffico di rete a supporto di una determinata applicazione. Ma oggi, tutti questi elementi possono essere eseguiti sotto forma di macchina virtuale residente sul medesimo host fisico, e questo riduce notevolmente le capacità di risoluzione dei problemi dei sistemi tradizionali di monitoraggio di rete. Implementare una macchina virtuale è ormai molto rapido, ma i cambiamenti della configurazione di rete possono influenzare le performance dei dispositivi presenti sulle reti e occultare le vere ragioni dei problemi. Tutto questo significa che il tempo necessario per risolvere questi problemi potrebbe essere maggiore in un ambiente virtualizzato rispetto a quello fisico. Proprio per questo, i network manager tendono ad adottare nuovi approcci per ottenere visibilità e controllo negli ambienti virtualizzati, oltre che per automatizzare il monitoraggio e accelerare la soluzione dei problemi.

Leggi anche:  Canon, nuova app Multi-Camera Control: monitoraggio in contemporanea di quattro videocamere

Storage alla ribalta

Anche lo storage, l’altro grande caposaldo del data center, non è immune ai grandi cambiamenti. I principali vendor vedono susseguirsi nuove soluzioni, sempre più in grado di ridurre i costi generali grazie alla capacità di gestire i crescenti volumi di dati con maggiore efficienza. Ma si parla anche di cloud storage, cioè di migrazione di parte dei dati aziendali (tipicamente quelli di non frequentissima consultazione) e si prevedono grandi opportunità di sviluppo. Lo scopo di questi cambiamenti è analogo a quello cha sta alla base della trasformazione dei data center, e cioè rendere le infrastrutture IT sempre più agili e flessibili per sostenere un business in continua mutazione. Poter disporre di storage nel cloud permette di sfruttare risorse on demand, eliminando la necessità di acquistare ulteriori capacità di archiviazione oppure ricorrendo a tali acquisti basandosi su previsioni di utilizzo più realistiche, e di conseguenza maggiormente rispondenti alle esigenze di lungo periodo. Ma non solo: ricorrere al cloud storage può configurarsi anche come una scelta naturale qualora si stia già usufruendo di capacità server in modalità cloud computing, per ottimizzare ulteriormente le infrastrutture e rendere l’ambiente IT maggiormente elastico e reattivo rispetto alle esigenze di business. Va sottolineato – però – che nella modalità public cloud si porranno maggiori questioni relative alla banda e alla sicurezza: questi sono in effetti gli ostacoli che si frappongono a un utilizzo generalizzato del cloud storage di tipo pubblico, legati alla questione connessa al collocare i dati di business su archivi esterni all’azienda e senza avere garanzie precise in ordine all’ubicazione fisica dei dispositivi storage e alle misure di protezione adottate nello specifico.

 

Il fattore energia

Infine, nell’analizzare le componenti critiche del nuovo data center, non va perso di vista l’elemento fondamentale del consumo energetico, tema di estrema rilevanza sia in ottica di risparmio di costi sia in via più generale ai fini della salvaguardia dell’ambiente, in ottica “green”, come usa dire negli ultimi tempi. È un fatto che fino a poco tempo fa i data center venissero progettati con due obiettivi principali in mente: capacità elaborativa e affidabilità. Quindi, componenti ridondanti e potenze di computing surdimensionate. Poco o nulla si faceva invece per l’efficienza energetica, col risultato che spesso le spese relative al consumo di elettricità per l’alimentazione e per il condizionamento arrivavano a superare il costo dell’hardware. Ma fortunatamente, la pressione esercitata dalla necessità di ridurre i costi generali e dalla maggiore consapevolezza verso un uso responsabile delle fonti energetiche ha spinto alla ricerca di una maggiore efficienza dei data center.

Le aziende – però – non sono ben equipaggiate per misurare il consumo di energia, anche se ne stanno diventando sempre più consapevoli. Ecco quindi che nuovi strumenti di gestione dell’energia si fanno sempre più spazio nell’ambito dei sistemi di gestione dei data center. La situazione è ben riassunta in un white paper di Schneider Electric, in cui si sottolinea che oggi, “le aziende hanno bisogno di software che permettano di pianificare e di far funzionare a basso costo i data center, oltre che di analizzare i possibili miglioramenti del flusso di lavoro. Solo una maggiore visibilità, più controllo e una migliore automazione possono aiutare a raggiungere l’obiettivo di creare valore per l’azienda. Le capacità di gestione olistica attualmente disponibili possono permettere ai professionisti dei data center di massimizzare la loro capacità di controllo sui costi energetici e di consigliare all’azienda come utilizzare le risorse IT in modo più efficace. Condividendo informazioni chiave, dati storici e informazioni sulla tracciabilità delle risorse, oltre che sviluppando la capacità di ripagare gli utenti, i nuovi strumenti permettono di intervenire per aumentare l’affidabilità e l’efficienza del data center, incrementandone il valore di business complessivo”.