Data center: l’evoluzione senza sosta

Schneider Electric e Dell EMC progettano un datacenter eco-efficiente per l'Università di Bordeaux

Alla scoperta del nuovo volto del data center, che costituisce ormai un vero e proprio insieme di tecnologie abilitanti a supporto del business, sempre più governato dalla componente software, nel nuovo paradigma SDDC

Nel mondo ICT non è un mistero per nessuno che il data center, così come lo conoscevamo, di fatto non esiste più. Anzi, pur continuando a usare per comodità l’espressione “data center”, ormai ci si riferisce all’insieme che costituisce oggi l’infrastruttura IT abilitante dell’azienda e del suo business. E che non è più il semplice “centro dati”, ma un insieme di tecnologie, come server, networking, storage e cloud, che permettono ai responsabili IT di fornire un servizio ai loro clienti in azienda, il più rapido e tempestivo possibile per sostenere al meglio l’operatività e la reattività del business. Il percorso che ha portato a questa trasformazione è stato lungo, in un cammino in cui, nel corso degli ultimi anni, l’innovazione tecnologica ha perseguito obiettivi di razionalizzazione di tutte le risorse che rappresentano le fondamenta del data center. Dopo aver visto il consolidamento dei server e la virtualizzazione sempre più spinta, paradigmi che hanno portato a indubbi vantaggi in termini di efficienza, agilità e risparmi nei costi, è ora la volta di nuovi paradigmi. Per esempio, si sta registrando da una parte l’unificazione delle componenti server e storage, attraverso un fabric convergente in grado di assicurare una ottimizzazione del network, e dall’altra parte sta emergendo la rivisitazione della logica “one-server one-application” attraverso la distribuzione dinamica dei carichi di lavoro su insiemi di Cpu virtualizzate. Non va poi dimenticato il crescente utilizzo di processori ad alta efficienza energetica, in ottica di green data center, in grado di assicurare una riduzione tangibile della potenza assorbita. Quest’ultimo obiettivo si può perseguire anche con sistemi di condizionamento e raffreddamento intelligenti, in grado di massimizzare il consumo energetico. Ma soprattutto, anche per il data center sta suonando la campana del “software defined”, il nuovo mantra a cui sembra proprio che ultimamente non possano sottrarsi tutte le infrastrutture IT. Ecco perché oggi si parla sempre più di SDDC, ossia “software defined data center”, in cui anche questa infrastruttura è sempre più governata dal software, per avere la massima elasticità e reattività in base alle diverse esigenze del momento.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Terza Piattaforma

Ma quali sono i fenomeni alla base di questa trasformazione? Secondo gli analisti di IDC, alla base di tutto c’è ancora una volta il concetto di Terza Piattaforma, come la società definisce gli ormai notissimi quattro elementi principali che stanno cambiando il modo in cui l’IT viene utilizzata sul lavoro: le nuove modalità di collaborazione aziendale passano da servizi cloud, social business, dispositivi mobili e analisi dei big data. Tutto ciò, secondo IDC, «richiede cambiamenti radicali nella sottostante infrastruttura IT. Le analisi vengono realizzate in tempo reale, i dati arrivano dal cloud e sono utilizzati su dispositivi molto diversi tra loro, la comunicazione si concretizza sulle piattaforme sociali: tutto questo mette a dura prova l’infrastruttura IT, che deve offrire prestazioni adeguate e allo stesso tempo ridurre i costi operativi per liberare risorse da impiegare nello sviluppo di nuove applicazioni, anche mobili». In questo scenario, proseguono gli analisti di IDC, «l’inarrestabile espansione della Terza Piattaforma sta trasformando non solo l’infrastruttura IT aziendale, ma anche i processi di acquisto e di gestione delle sue componenti tecnologiche e applicative. In Italia, come nel resto del mondo, molte divisioni IT aziendali stanno iniziando ad affrontare una delicata fase di evoluzione dal modello organizzativo centralizzato a quello ibrido o federato per ridefinire il ruolo della tecnologia nei processi di business e condividere con le diverse linee di business gli obiettivi e i budget per l’innovazione tecnologica». È in questo quadro che la trasformazione della gestione dell’infrastruttura IT in un’ottica di fornitore di servizi flessibile e cost effective, anche per quanto riguarda l’efficienza energetica, può rendere l’IT in grado di supportare il business nel raggiungimento dei propri obiettivi, migliorando produttività e agilità degli utenti. Tra l’altro, fa notare IDC, è solo in questo modo che l’IT sarà in grado di intercettare quella parte di spesa IT che esula dal proprio budget e che viene effettuata, con sempre maggiore incidenza, direttamente dalle line of business (LOB), in quella tendenza “centrifuga” che ormai non è più un fenomeno recente, come dimostra anche il caso del BYOD. E un data center sempre più evoluto costituisce un sicuro viatico per affrontare i cambiamenti. Lo conferma Fabio Rizzotto, senior research & consulting director di IDC Italia, spiegando che «la trasformazione insita nella Terza Piattaforma genera inevitabilmente una nuova IT, in grado non solo di portare vantaggi nella gestione dell’IT, ma anche e soprattutto di rinnovare processi, procedure e modelli di business, che consentono di cogliere ogni opportunità di crescita, a condizione però che evolva anche il rapporto tra IT e LOB: da semplici colleghi a partner».

Leggi anche:  Bang & Olufsen Cisco 950, i nuovi auricolari wireless per lavorare ovunque e in totale sicurezza

Traffico in crescita

Nella spinta alla trasformazione dei data center non operano solo le esigenze di business, cioè quelle più strettamente legate all’azienda in sé, in quanto un ruolo determinante è svolto anche dall’evoluzione dell’IT nel suo complesso, con il cloud in prima fila. Infatti, secondo la terza edizione dell’annuale Cisco Global Cloud Index, che si riferisce al periodo 2012-2017, il traffico cloud globale rappresenta la componente del traffico di data center a maggiore crescita, con un aumento previsto di 4,5 volte, al tasso composto annuale (CAGR) del 35%, passando da 1,2 zettabyte di traffico annuale nel 2012 a 5,3 zettabyte entro il 2017. In generale, il traffico data center globale crescerà di tre volte e raggiungerà un totale di 7,7 zettabyte annui entro il 2017, dove un zettabyte equivale a un miliardo di terabyte.

È interessante notare che quasi un quinto del traffico di data center (per l’esattezza il 17%) sarà dovuto agli utenti finali che accedono al cloud per la navigazione web, la collaboration, il video streaming e i dispositivi connessi. Quanto al restante traffico di data center, sarà generato dai carichi di lavoro di data center e del cloud computing. Sempre nel periodo considerato, cioè il quinquennio 2012-2017, il 7% del traffico si originerà tra i data center, principalmente per la replica dei dati e gli aggiornamenti software e di sistema, mentre un ulteriore 76% del traffico di data center risiederà all’interno del data center stesso, e sarà in gran parte generato dai dati di storage, di produzione e sviluppo in ambiente virtualizzato. Insomma, a fronte di questa tendenza, nel corso dei prossimi cinque anni, assisteremo a un elevato aumento della quantità di traffico cloud sia all’interno sia al di fuori del data center.

L’importanza delle reti

Che quello del traffico sia un aspetto da non sottovalutare lo ha evidenziato anche una ricerca commissionata da Brocade e realizzata a metà 2013 dalla società di ricerca Vanson Bourne coinvolgendo mille e 750 decision maker IT. Dalla ricerca è emerso che sono ancora molte le aziende che fanno affidamento su infrastrutture di data center obsolete, con un impatto significativo sulla produttività e sull’esperienza utente. Più in dettaglio, nonostante i tre quarti delle aziende abbiano aggiornato il proprio ambiente IT negli ultimi tre anni, quasi la totalità degli interpellati (per l’esattezza il 91%) afferma che la propria infrastruttura IT ha bisogno di ulteriori upgrade sostanziali per rispondere alle specifiche esigenze di networking, che sono in continua evoluzione in base alle necessità imposte da fenomeni quali virtualizzazione e cloud computing. L’aumento del traffico di data center fa sì che il 61% degli intervistati dichiari che le reti aziendali non sono adatte per gli obiettivi previsti, con un buon 41% che ammette come il downtime di rete abbia avuto risvolti negativi sul business, derivanti da guadagni persi o da SLA non mantenuti, oltre che dalla perdita di fiducia da parte dei clienti.

Ma non tutto è perduto: fortunatamente, molte aziende hanno in corso progetti per realizzare ambienti di rete sempre più scalabili, con il 18% che utilizza già reti basate su fabric e il 51% che sta pianificando di implementare ethernet fabric a breve. Inoltre, molti stanno guardando al software defined networking per incrementare la produttività, fornire un accesso migliore alle informazioni in tempo reale e aumentare la disponibilità e la garanzia di servizio. Non a caso, oltre due terzi degli intervistati hanno dichiarato di accogliere con favore una tipologia di data center on-demand. Questo tipo di infrastruttura combina elementi di networking fisici e virtuali che possono fare il provisioning delle capacità (computing, rete, storage e servizi) richieste per fornire applicazioni fondamentali più velocemente e facilmente rispetto alle reti legacy. Questo approccio è considerato una strategia migliore per rispondere alle sfide di provisioning di nuove applicazioni, servizi e dispositivi per soddisfare i requisiti di business e spianare la strada verso il software defined networking.

Leggi anche:  Lenovo porta nuove esperienze AI nei PC con i nuovi laptop ThinkPad e IdeaPad

Se ci pensa il software

Quest’ultimo, nella trasformazione in atto, opera in parallelo con il paradigma del software defined data center, che riscuote un crescente interesse in quanto si tratta di un modello che estende i noti concetti alla base della virtualizzazione, cioè l’astrazione dalle tecnologie sottostanti, l’unione in pool e l’automazione, a tutte le risorse e ai servizi del data center. In virtù di questo, l’ambiente Sddc è in grado di semplificare e accelerare notevolmente i processi iniziali di provisioning e soprattutto la gestione ordinaria delle risorse virtualizzate di networking, storage e computing, grazie a procedure di automazione basate su policy. Ormai in pratica, tutti i vendor hanno capito che per andare realmente incontro alle esigenze degli utilizzatori IT è sempre più indispensabile definire una modalità di fruizione dell’IT che sia totalmente aperta e che soprattutto permetta di disaccoppiare il livello applicativo dal livello elaborativo e da quello di connessione, in modo da ottenere sia una ulteriore ottimizzazione delle infrastrutture sia una risposta rapida alle specifiche esigenze dettate dagli ambienti cloud ibridi o pubblici. In questo senso, il successo del paradigma Sddc nasce anche dal fatto che buona parte dei suoi componenti sono quelli noti, come macchine virtuali, storage virtualizzato, strumenti di composizione dei servizi e portali di self-service, con la parte di gestione della rete in primo piano nell’ottica del cambiamento.

Software defined

Anche lo storage

C’è un’altra componente fondamentale che va a realizzare il software defined data center, ed è costituita dalla più recente tendenza che sta mutando il volto dello storage, quella del software defined storage (SDS). Nella definizione di IDC (“Worldwide Software-Defined Storage Taxonomy 2014”, del marzo 2014), il software defined storage è costituito da piattaforme che offrono una gamma completa di servizi di storage attraverso uno stack software che utilizza (ma da cui non è dipendente) hardware comune realizzato con componenti standard. Le caratteristiche fondamentali di una soluzione di software defined storage sono: non deve richiedere alcun componente hardware proprietario; deve poter funzionare su più istanze hardware (virtuali e fisiche), e infine deve essere un sistema a sé stante o comunque autonomo. Sempre IDC prevede che il mercato del software defined storage assurgerà a meccanismo per la progettazione, il delivery e l’utilizzo di dati. Più in dettaglio, «il mercato del file-based e dell’object-based storage raggiungerà un valore di 34 miliardi di dollari nel 2016, e più di due terzi di questo mercato saranno da ricondurre alle piattaforme di software defined storage» – sottolinea Sergio Patano, IT research & consulting manager di IDC Italia. «Anche perché – prosegue Patano – gli end user prenderanno sempre più in considerazione il software defined storage come soluzione per l’archiviazione dei dati, in particolar modo quando il volume di dati diventerà sempre più grande. Questo comporterà anche una notevole evoluzione all’interno del data center del futuro, che diventerà sempre più un’infrastruttura di tipo service based, nella quale le risorse hardware e software saranno fornite all’end user da una varietà di location, locali o remote, senza modificare minimamente l’interfaccia di dialogo dai dispositivi di accesso». Non a caso, nella recente indagine “European Storage Survey 2014” di IDC, il 16 per cento degli intervistati ha dichiarato di avere già implementato una soluzione software defined storage, mentre il 36 per cento sta valutando le opzioni SDS e un ulteriore 29 per cento è interessato a saperne di più.

Offerta variegata

Tornando ai data center, risulta quindi evidente come ci si trovi di fronte, per riprendere il concetto espresso in apertura, a un nuovo paradigma di data center, identificato come un insieme di tecnologie, come server, networking, storage e cloud, che permettono ai responsabili IT di fornire un servizio ai loro clienti in azienda, il più rapido e tempestivo possibile per sostenere al meglio l’operatività e la reattività del business. Il supporto ai clienti interni aziendali viene prestato dal data center sotto forma di applicazioni, realizzate e fornite in tempi rapidi in coerenza con le esigenze di business. Inoltre, come abbiamo visto, il nuovo data center è sempre più definito via software, ma soprattutto è fin da subito predisposto per essere inserito in un contesto di cloud ibrido, alla luce del crescente successo dei servizi acquisiti in modalità infrastructure as a service (IaaS). Questi ultimi, oltre a essere spesso vantaggiosi economicamente, sono disponibili rapidamente e scalabili, e risultano di notevole utilità qualora si debba fare fronte a forti richieste da parte delle applicazioni.

Leggi anche:  HPE Aruba Networking amplia il portfolio, supportando le PMI in un contesto caratterizzato da crescenti esigenze di rete e sicurezza

Coerentemente con questa trasformazione, l’offerta dei vendor vede la proposta di infrastrutture che, partendo dalla base hardware comune costituita dai blade server, prevedono anche soluzioni diversificate con caratteristiche di modularità e componibilità, che permettono ad esempio di gestire in maniera unificata infrastrutture realizzate assemblando blade server unitamente a moduli rack di tipo standard, offrendo l’indubbio vantaggio di poter reimpiegare componenti preesistenti e di poter scalare aggiungendo ulteriori risorse. Queste funzionalità sono oggi facilitate dalla presenza sul mercato di server “industry standard” e di connettività altrettanto standard, sia ethernet, FCoE o Fiber Channel tout court. Ma non bisogna pensare che l’offerta sia costituita solo da sistemi adatti a ogni utilizzo come i classici server blade modulari: al contrario, negli ultimi tempi si è assistito al fiorire di numerose proposte che riuniscono le diverse funzioni, a partire dalle cosiddette infrastrutture convergenti che uniscono server e storage, con numerosi esempi da parte di tutti i principali vendor, come le offerte IBM PureSystem, quelle di Dell con Active System, la converged infrastructure di HP con la linea BladeSystem con tecnologia Virtual Connect e infine la soluzione vShape di Fujitsu che combina i propri server Primergy con i sistemi di storage NetApp, gli switch Brocade e il software VMware per la virtualizzazione. C’è anche un’offerta che combina ulteriori elementi, integrando in una sola istanza sia le risorse infrastrutturali sia le logiche applicative, come è il caso delle proposte IBM PureApplication e Oracle Exalogic.

Un decennio avanti

Infine, a portare il discorso su un orizzonte temporale più ampio, da qui al 2025, ci pensa Emerson Network Power, che in un report pubblicato nel maggio 2014 prevede importanti cambiamenti nell’ecosistema del data center, soprattutto in ordine al livello di densità, all’adozione sempre più massiccia del cloud computing e all’uso dell’energia solare. Nel rapporto previsionale “Data Center 2025: exploring possibilities” (visualizzabile nella sua interezza all’indirizzo www.emersonnetworkpower.eu/DataCenter2025), la società ha sintetizzato quattro mesi di ricerche internazionali volte a identificare la visione del settore del data center nel 2025, dalla quale emerge ancora una volta che la maggior parte degli esperti ritiene che il data center, così come lo conosciamo oggi, sarà interessato nel prossimo decennio da importanti cambiamenti. Gli oltre 800 professionisti del data center provenienti da ogni parte del mondo che hanno risposto al sondaggio hanno per esempio indicato che nel 2025 la densità arriverà in media a 52 kW per rack. Alla luce di questo, sono previsti notevoli cambiamenti nelle modalità per fornire energia elettrica ai data center: al primo posto, in modo particolare preferita dai professionisti italiani, ci sarà l’energia solare, seguita da un mix quasi uguale di nucleare, gas naturale ed energia eolica. Il 65 per cento degli intervistati ritiene probabile che le strutture molto grandi saranno alimentate da sistemi di generazione autonoma di energia. Da notare anche che i tassi di utilizzo delle risorse di computing saranno superiori, in quanto il 72 per cento degli esperti prevede che nel 2025 i tassi di utilizzo delle risorse IT saranno almeno del 60 per cento, mentre la proiezione media è del 70 per cento: si tratta di un dato interessantissimo, se confrontato con le medie che attualmente sono appena del 6-12 per cento, con le best practice che si attestano tra il 30 e il 50 per cento di utilizzo. Insomma, l’evoluzione in atto nei data center riserverà ancora molte sorprese.