Il data center del futuro


Il big-bang tecnologico innescato dalla virtualizzazione e dal Cloud computing mette in discussione l’assetto tradizionale del data center e apre nuovi scenari ricchi di opportunità e sfide per il mondo dell’IT

Sotto la spinta della virtualizzazione e del progresso compiuto all’interno di specifiche realtà d’infrastruttura – storage, server, networking, sistemi di condizionamento e raffreddamento – l’architettura di riferimento del data center sta rapidamente evolvendo per assicurare nuova efficienza, produttività e riduzione dei costi. Negli ultimi dieci anni le aziende hanno riorganizzato e ristrutturato i propri sistemi informativi acquisendo nuova flessibilità, utilizzando tecnologie che costituiscono la premessa all’introduzione di servizi e applicazioni coerenti con il paradigma del Cloud. Si tratta di un passaggio fondamentale nella storia dell’informatica. Un passaggio il cui fine ultimo è la determinazione di un impianto ICT più performante, in grado di recepire più rapidamente i cambiamenti e le dinamiche di business e tecnologiche.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Innovazione tecnologica

Nel corso del tempo l’innovazione tecnologica ha perseguito obiettivi di razionalizzazione di tutte le risorse che rappresentano le fondamenta del data center. Da una parte l’unificazione delle componenti server e storage attraverso una Ethernet convergente in grado di assicurare una ottimizzazione del network, superando la separazione Ethernet-FiberChannel. Dall’altra la rivisitazione della logica one server-one application attraverso la distribuzione dinamica del carico di lavoro su insiemi di Cpu virtualizzate. E poi ancora l’utilizzo di processori ad alta efficienza energetica in grado di assicurare una riduzione tangibile della potenza assorbita. Quest’ultimo obiettivo lo si è perseguito anche con sistemi di condizionamento e raffreddamento intelligenti, in grado di massimizzare il consumo energetico.

Perché è utile proseguire su questo percorso di innovazione? La trasformazione del data center non è un esercizio di puro formalismo accademico, serve a introdurre e a determinare infrastrutture che possono supportare al meglio il business delle imprese. Concetti quali agilità e flessibilità che vengono associati alla tecnologia di nuova generazione, riflettono la possibilità di rendere altrettanto agili e flessibili le attività e i processi di un’organizzazione. Non ultimo assicurare la business continuity, la garanzia di rendere resilienti proprie applicazioni e servizi grazie alla reattività dello stack tecnologico che presiede il funzionamento di un data center. La capacità, per esempio, di mettere le aziende nella condizione di ottimizzare il time to market di nuovi servizi e applicazioni, sfruttando il provisioning dinamico che si può realizzare in un ambiente virtualizzato.

La trasformazione di cui può essere oggetto un data center porta con sé una logica di ottimizzazione generale dell’IT. Una trasformazione che per alcuni può  essenzialmente essere una nuova progettazione ed estensione delle risorse interne in una logica private Cloud, per altri l’esternalizzazione Cloud di servizi e applicazioni esistenti o di nuova generazione. Una cosa è certa: la nascita di data center Cloud all’esterno delle organizzazioni crea il rischio di una frattura definitiva con l’informatica tradizionale. Se l’IT interno non sa o non ha saputo creare un’infrastruttura competitiva con quanto viene creato all’esterno del perimetro aziendale, esso tenderà a perdere potere e l’organizzazione di riferimento tenderà a privilegiare l’offerta di un fornitore esterno poiché sarà quest’ultimo a garantire price/performance e livelli di continuità ottimali.

Le sfide da vincere

In questo nuovo decennio le nuove tecnologie, e i fornitori e gli operatori che le supportano, dovranno essere in grado di dimostrare la capacità di porsi come alternativa di infrastruttura alle stesse applicazioni critiche, quelle ritenute più importanti poiché fanno riferimento al core business. Vincere questa sfida costituisce il vero salto di qualità e servirà a proiettare la virtualizzazione verso nuovi traguardi. VMware, EMC, Cisco, Microsoft, IBM, HP, Intel, tanto per citare alcune delle aziende che hanno plasmato l’informatica aziendale, sono proiettate verso una nuova dimensione di data center che sappia introdurre efficienza e produttività, risparmi e riduzione dei costi.

Come affrontare questa sfida da parte delle organizzazioni? Si tratta, se vogliamo, di compiere innanzitutto un’analisi dell’esistente individuando i punti di debolezza e agendo al meglio per ripristinare nuova efficienza. Essere disponibili a mettere in discussione abitudini consolidate che, senza esserne consapevoli, generano un disvalore per l’azienda, affrontare quella che potremmo definire una spending review del data center attraverso attività che possano fornire una mappatura intelligente degli sprechi e delle inefficienze.

Nel passato l’outsourcing è stata una leva per esternalizzare servizi che si credeva potessero essere gestiti in modo migliore e a costi più bassi. Un atteggiamento che, alla luce dei nuovi progressi, può essere declinato in una logica Cloud, pubblica o privata. L’importante è che all’interno delle organizzazioni vi sia una politica di sviluppo globale e non particolaristica.

Se si analizza il fenomeno guardando allo scenario globale si può comunque affermare che le aziende stanno già oggi utilizzando e usufruendo di tecnologie Cloud. Il tutto non avviene secondo logiche strutturate e non incide in una trasformazione complessiva del data center, ma il fenomeno sta espandendosi a macchia d’olio. Ed è un fenomeno che viene alimentato dalle più diverse esigenze. Da una parte l’utenza business che trova risposte più adeguate all’esterno dell’organizzazione, ad esempio per soddisfare richieste in ambito Crm, dall’altra esigenze di scalabilità del data center, come nel caso della sempre più ampia necessità di analizzare grandi volumi di dati. Pressioni che nell’uno e nell’altro caso sollecitano risposte diverse dal passato e contribuiscono a determinare un’accelerazione nelle dinamiche evolutive del Software as a Service e un più efficace e intensivo utilizzo del data center.

«Se le organizzazioni non si muoveranno in fretta – rileva Matt Eastwood, vice presidente enterprise platform & datacenter trends di IDC – la componente business tenderà a bypassare la componente IT aziendale. Si prospettano dei conflitti che potranno sfociare in una dimensione IT non controllata. Ecco perché in questo processo di trasformazione – conclude l’analista di IDC – è importante che sia il Cio ad assumere la leadership, mettendo al riparo l’IT da prevaricazioni interne».

Leggi anche:  Non solo hyperscaler: il valore dei Regional Cloud Provider

Modelli di business e data center

Ebay, Google, Yahoo!, Amazon, Facebook, Linkedin, le Internet companies che hanno fondato il nuovo paradigma di Internet nel corso degli anni duemila, hanno approntato data center di nuova generazione che non hanno nulla a che vedere con gli impianti tradizionali che hanno soddisfatto e soddisfano, ancora oggi, i requisiti informativi delle aziende. Lo stesso sta accadendo per le aziende storiche dell’informatica che hanno oggi intrapreso nuovi percorsi. Apple, Oracle, Microsoft, IBM, HP, tutte queste aziende, per ovvie ragioni di business attinenti le proprie attività, hanno fondato delle città tecnologiche ispirate ai principi tecnologici del Cloud computing. Significa avere a disposizione una potenza di calcolo dinamica, scalabile, con elevate caratteristiche di resilienza. Una razionalizzazione che ha contribuito a creare un elevato livello di standardizzazione nelle componenti tecnologiche di base e che tende a rendere disponibili vere e proprie unità di computing in container prepacchettizzati. Blocchi tecnologici che possono essere modellati a piacere e gestiti in modo tale da sfruttare vere e proprie economie di scala a livello di potenza erogata.

La mutazione dell’ambiente server e storage

Per effetto della globalizzazione informatica, del progressivo consolidamento di Internet come infrastruttura di comunicazione e dell’utilizzo sempre più intensivo ed estensivo della rete, la potenza elaborativa del pianeta terra tende a concentrarsi nei conglomerati software e hardware delle Net Companies, società che rendono disponibili i propri servizi e applicazioni online. E’ l’effetto Cloud computing, effetto che provoca una crescente e massiccia affermazione di mega data center sparsi in tutti i luoghi del pianeta. E come abbiamo più volte detto su queste pagine, il numero di server utilizzati all’interno delle nuove strutture tende ad aumentare e ad accelerare.

Il Cloud computing cambia rapidamente la natura del mercato server. I data center around the world di Google, Microsoft, Yahoo!, IBM stanno progressivamente assorbendo la capacità complessiva dell’hardware utilizzato. Una stima approssimativa (statistiche vere al momento non ne sono ancora state prodotte) indica che un 50% delle risorse elaborative non risiedono più all’interno del perimetro dei data center aziendali. Server farm, o Cloud data center, sono ampiamente sfruttati dai software vendor che hanno iniziato un percorso Software as a Service (SaaS), mettendo gli utenti nella condizione di accedere ad applicazioni e servizi on demand. Primo tra tutti, salesforce.com, sebbene il modello SaaS sia ormai ampiamente adottato secondo un criterio di selezione applicativa da molti player del software enterprise. Basti ricordare SAP, oppure Oracle. Interessante è comprendere la tipologia delle piattaforme server utilizzate all’interno di questi data center. Si dice che i Google server siano autoprodotti. La personalizzazione, in generale, è estremamente elevata. A differenza della tecnologia utilizzata all’interno dei data center aziendali, quella in uso nel Cloud ha un livello di sofisticazione più elevato, grazie al fatto che l’impianto computazionale-informativo è il corrispettivo della Formula Uno per le auto.

Andiamo verso un modello di utility computing e di erogazione di servizi soddisfatto da complesse architetture di grid computing, dove l’hardware viene in gran parte utilizzato secondo modalità innovative. Una tendenza che incide sensibilmente sulla tipologia di acquisto affermatasi sino a questo momento. Anche Fujitsu, con la piattaforma Primergy CX 1000, segue l’evoluzione dei servizi interni o esterni in modalità Cloud. Cambia in particolare il livello di densità delle risorse elaborative. Un data center può essere realizzato con un container capace di ospitare fino a 300mila server. L’infrastruttura di Microsoft si dice che aumenti di 10mila server al mese e che probabilmente si arriverà a 20mila server al mese. Il responsabile della ricerca in Microsoft, Rick Rashid, ha affermato che circa il 20% dei server venduti a livello mondiale vengono ora acquisiti da un piccolo gruppo di Internet companies, tra queste Microsoft, Google, Yahoo! e Amazon. E’ bene ricordare che attualmente il numero di server venduti a livello mondiale corrisponde a circa 8 milioni di unità. Ciò significa che le Cloud company metabolizzano ogni anno circa 1 milione e mezzo di server. Un volume hardware tale da condizionare inevitabilmente le dinamiche del mercato server e la stessa evoluzione tecnologica. La competizione tra gli hardware vendor che hanno finora dominato il segmento server viene quindi a essere nettamente modificata da una tecnologia disruptive come quella del Cloud computing, una tecnologia che crea appunto discontinuità nell’acquisizione e configurazione dell’hardware.

La parte ingegneristica riveste un’importanza fondamentale. Facebook, per esempio, ha introdotto nei propri data center delle strutture rack, denominate Open Rack, destinate a contenere server e storage in un fattore di forma che semplifica gli aggiornamenti e la manutenzione elettrica e meccanica, rendendo sempre più agevole la sostituzione di dischi e schede di rete. Attenzione fondamentale viene dedicata al risparmio ed efficienza energetica. Nell’Open Rack di Facebook le componenti di alimentazione sono ora separate dai server e risiedono nella parte inferiore, in quella che viene definita una power shell, realizzando una struttura di alimentazione centralizzata per tutti i server residenti nel rack che migliora e crea più efficienza nella distribuzione dell’energia. E questa logica è vera per tutte le componenti che interagiscono in una struttura next generation data center atomizzata. Significa potere assemblare secondo una logica industriale ad alto rendimento le diverse componenti, ottimizzando l’efficienza complessiva. D’altra parte nella frontiera della Cloud pubblica i data center devono essere in grado di sostenere il traffico generato da milioni di accessi contemporanei, una condizione del tutto diversa dalla dinamica di sostenibilità che doveva supportare un data center tradizionale.

Il Cloud come driver evolutivo

Leggi anche:  OVHcloud amplia la propria strategia SecNumCloud con la certificazione SecNumCloud 3.2 in tre data center differenti

L’infrastruttura di data center è oggi potenzialmente distribuibile, la centralizzazione reale, fisica, non esiste. E’ il concetto ereditato dalla virtualizzazione che permette di allocare risorse autonome in micro data center. Piattaforme distribuite in grado di intercettare un modello di tipo on-demand che caratterizza il paradigma del Cloud. Ed è il Cloud che determina la maggiore evoluzione del data center: come è progettato, come viene monitorato e manutenuto. Un percorso iniziato con la server consolidation, ovvero un processo di ottimizzazione ed efficienza del data center che consente la riduzione del numero di server in esercizio a parità di servizi e potenza erogata. E allo stesso tempo una distribuzione intelligente del carico di lavoro. Significa, utilizzando una espressione tipicamente tecnologica, essere in grado di fare del provisioning on demand, ovvero rendere disponibile potenza di calcolo in base alla domanda. Concetti quali agilità, elasticità sono espressione delle nuove modalità di costruzione dei data center di nuova generazione. Alla fine si tratta di soddisfare quello che è stato il mantra dei fornitori di tecnologia, ovvero essere in grado di dare vita a sistemi che siano in grado di allinearsi alle dinamiche di business. Capacità, quindi, di rendere immediata o quasi, l’introduzione di nuovi servizi allocando risorse che assecondino il time to market.

Un esempio è dato da clienti che hanno già iniziato ad avvalersi di Microsoft System Center 2012, il modello Cloud proposto da Microsoft alle imprese che vogliono realizzare private Cloud. EmpireCLS Worldwide Chauffeured Services, una compagnia americana di noleggio di macchine di lusso, si è affidata al private Cloud di Microsoft riducendo del 50% i costi di data center relativamente al sistema di prenotazioni attivo in 700 città a livello mondiale. Ancora, Walsh Group, azienda che opera nel campo delle costruzioni, ha virtualizzato su private Cloud server e applicazioni che vengono erogate a 5.000 dipendenti. Con Microsoft – ha affermato l’azienda – siamo riusciti a trasporre la virtualizzazione in ambito Cloud. E nella creazione di un ambiente di data center di nuova generazione si intensificano le collaborazioni tra importanti industry vendor. Per quanto riguarda Microsoft si possono citare interventi da parte di Cisco, NetApp, Citrix, EMC e Symantec. Obiettivo? Dare efficienza e flessibilità al data center.

Anche l’area dello storage è soggetta a grandi cambiamenti. E le soluzioni oggi disponibili permettono di ridurre il Tco grazie alla capacità di gestire grandi volumi di dati con maggiore efficienza. E’ il tema del Big Data, uno degli elementi trainanti il Cloud e la trasformazione dei data center. Cloud data storage è uno dei segmenti che gli analisti ritengono avere grandi opportunità di sviluppo poiché l’attuale contenuto ibrido di dati strutturati/non strutturati, in progressione di tipo multimediale, deve poter disporre di architetture di storage alternative.

Una dei costi più significativi nei data center è dato dai costi di alimentazione e raffreddamento. Nuovi dischi disponibili con capacità 4TB utilizzano il 24% di potenza in meno per gigabyte, e il software di gestione consente di eliminare costi riducendo l’alimentazione in base alle risorse in utilizzo. Lo storage di oggi è inoltre concepito per ridurre il downtime, ovvero rendere prossimi allo zero i danni economici causati da eventuali interruzioni dei sistemi. Tendenze che corrispondono ai driver tecnologici dei fornitori più attenti all’innovazione come, per esempio, Hitachi Data System, il cui ultimo sottosistema disco, il Virtual Storage Platform (VSP), grazie all’impiego di tecnologie avanzate e a una ingegnerizzazione orientata all’efficienza energetica, assicura un dimezzamento dei costi energetici rispetto ai sottosistemi disco di fascia enterprise attualmente in uso che risultano spesso obsoleti e non orientati al risparmio energetico.

Razionalizzazione dei costi

Negli Stati Uniti l’elettricità utilizzata dalle società che forniscono servizi Internet è superiore a quella utilizzata dall’industria automobilistica e corrisponde a circa la metà di quella utilizzata dall’industria chimica, ovvero il segmento di industry a più alto consumo energetico. Negli ultimi 10 anni l’incremento di energia delle Internet companies è stato di circa il 10% all’anno, il più alto registrato tra i diversi settori industriali. Oggi, in base a quanto affermato dall’Edison Electric Institute, vale il 2% della domanda energetica complessiva degli States. Secondo le stime di Greenpeace il consumo originato dalle server farm di Google, se utilizzate nella loro piena capacità, sarebbe pari a 476 megawatt, una quantità energetica necessaria per soddisfare una città con più di un milione di abitanti. La tecnologia di base, parliamo di processori, è in continua trasformazione per supportare nuovi, super performanti ed efficienti server. L’hyperscale computing, un altro modo per definire il data center dinamico, ha l’obiettivo di consentire una riduzione di spazio e costi energetici. E’ quanto previsto dalla collaborazione tra Intel e HP il cui punto di riferimento è la tecnologica Atom, ma la collaborazione si estende anche alla stessa tecnologia di processori ARM.

In questo percorso di trasformazione, che interessa tutte le componenti di data center, è infine possibile individuare quali sono i costi più significativi associati a un moderno data center? Vi sono opinioni discordi. Per James Hamilton, responsabile del Microsoft’s Data Center Futures Team, uno degli esperti più accreditati nell’ambito delle nuove infrastrutture che sono alla base delle risorse delle server farm che alimentano la potenza del Cloud computing, non è tanto il costo energetico la voce principale di spesa di un data center. Nel suo blog Hamilton scrive: «Non so quante volte abbia letto che il costo energetico sia il costo numero uno di un moderno mega-data center. Tante, di sicuro. Certo, come spesso accade, un fondo di verità esiste. Sicuramente l’energia è uno dei costi operativi che evidenzia nel tempo la più ampia progressione, ma il costo principale risiede comunque nei server, nel costo dell’hardware, tanto per esser chiari».

Leggi anche:  NFON lancia Cloudya per Microsoft Teams con cui espande il portfolio di integrazioni

Hamilton ha provato a calcolare l’ammontare dei costi ipotizzando un ammortizzamento di una struttura di data center in un periodo di 15 anni e ha infine proposto una ripartizione di costi su base mensile. Ebbene, quello che emerge è che la potenza, da sola, non è assolutamente il costo più significativo. La spesa primaria ricade sui server. Un costo rilevante, molto vicino a quello energetico, è legato alle infrastrutture per la distribuzione della potenza a server e sistemi di raffreddamento.

Nello stesso tempo si assiste al potenziamento della parte client. I dispositivi che oggi si interfacciano alla rete sono innanzitutto in numero molto più alto rispetto al passato e non sono limitati alla sola tecnologia Pc, basti pensare all’esplosione di smartphone e tablet. La capacità di calcolo e comunicazione è rapidamente cresciuta nella parte server e client di un ordine di grandezza impressionante rispetto al decennio passato.

Il mondo Telco

Anche gli operatori di telecomunicazioni sono diventati importanti protagonisti del Cloud e dell’innovazione del data center. Sempre più spesso si creano alleanze strategiche per fornire servizi end-to-end in stile Cloud al mondo enterprise. Cisco, EMC e VMware sono spesso coinvolte in queste alleanze e l’obiettivo è garantire la transizione a infrastrutture Cloud assicurando alle aziende la più ampia flessibilità di utilizzo. Diventa in questo modo sempre più semplice considerare possibili investimenti in servizi Internet di nuova generazione. Ciascuno dei player porta la propria specifica esperienza e know-how per mettere a punto un ambiente pienamente corrispondente alle aspettative degli utenti in termini di sicurezza e affidabilità dei servizi offerti. Virtualizzazione, storage, unified computing, connettività, gli elementi qualificanti per predisporre una infrastruttura Cloud vengono assemblati secondo una logica industriale che tende a razionalizzare e ottimizzare la creazione di un ambiente ad alta efficienza. Data center over the Cloud che vengono predisposti attraverso un percorso Vblocks, blocchi di tecnologia virtualizzati prefabbricati e pienamente integrati. Obiettivo? Fornire un percorso accelerato verso l’adozione del Cloud che possa conferire all’utente significativi vantaggi in termini di riduzione di spese, sia in un’ottica Opex, sia Capex, vale a dire riduzioni di investimenti in spesa capitale e operativa. Soprattutto rendere possibile un’infrastruttura pienamente testata per rispondere ai requisiti del nuovo paradigma di servizi IT. Computing, storage, sistemi operativi, middleware, tutti gli ingredienti necessari alla formulazione di una Cloud privata potranno essere resi disponibili secondo i desideri espressi dai clienti: presso data center di IT companies o telecom provider, presso strutture terze o presso i data center dei clienti stessi. La flessibilità della implementazione delle soluzioni è infatti uno dei tratti fondamentali della proposizione odierna.

Quale futuro per il data center aziendale?

Ci si interroga sempre più spesso su quale potrà essere l’evoluzione del data center e del Cloud in ambiente enterprise. Su questo aspetto si confrontano due teorie. Da una parte quella che potremmo dire evoluzionistica, una sorta di processo darwiniano dell’informatica che dovrebbe progressivamente traslare investimenti e risorse on-site di derivazione tradizionale in ecosistemi tecnologici governati dal paradigma di applicazioni e servizi a consumo e on-demand implementati attraverso logiche di Cloud pubbliche e private. Alla base di questa teoria, la convinzione che il processo di virtualizzazione di massa avviato presso la gran parte delle strutture IT aziendali, costituisca di fatto un passaggio intermedio propedeutico alla trasformazione globale delle risorse così come definito dal Cloud. Dall’altra una teoria che individua nelle nuove logiche di servizio una tendenza del tutto separata da quella che è stata finora l’informatica tradizionale. Una teoria del big-bang tecnologico che promette erogazione e fruizione di risorse alternative a quella attualmente esistente. Se vogliamo esiste pure una terza teoria, quella che potremmo definire di tipo separatista, ovvero un processo attraverso il quale pezzi, anche importanti, di servizi e applicazioni non-core, sono progressivamente esportati in territorio Cloud senza per nulla intaccare il vero capitale core informatico delle aziende. Tutto questo per dire che se nella sfera consumer, aziende come Google, Yahoo!, Facebook, Amazon, Apple hanno ormai ampiamente dimostrato come il Cloud sia diventato patrimonio comune di noi tutti, nella sfera aziendale l’esito dell’innovazione è ancora incerto. Secondo gli analisti sembra verosimile che le grandi aziende manterranno intatti i propri asset tradizionali, si pensi per esempio all’installato mainframe delle grandi istituzioni finanziarie, ma si accosteranno al Cloud per tutta una serie di applicazioni e servizi satelliti, tra questi quelli che hanno attinenza con il trattamento di grandi volumi di dati, ovvero quel fenomeno comunemente definito come Big Data, così come tutti quei servizi di rete che hanno a che fare con il lavoro collaborativo ed esemplificati dalla comunicazione unificata, grazie alla quale le aziende sono nella condizione di superare i limiti della tradizionale posta elettronica per accostarsi ad applicazioni di video conferencing e collaboration, così come tutta l’area dei call center virtuali. Guardando anche alle startup che nascono sull’onda della progressione Cloud, ci si rende conto che gli investimenti tendono a puntare a soluzioni che non vanno a sostituire le applicazioni core, ma servizi complementari che rispondono a esigenze sinora inevase, in particolare nell’ambito dello storage. Probabilmente non esiste una netta separazione nel modo in cui potrà evolvere il data center nella dimensione aziendale. Le tre diverse teorie qui menzionate – darwiniana, big bang, separatista – si incroceranno le une con le altre, soprattutto perché l’approccio agli investimenti futuri sarà condizionato dalla storia originale e specifica delle singole aziende.