Il data center cambia volto

La crescente spinta verso il mondo software defined e l’interesse ormai conclamato per le infrastrutture convergenti sono alcuni dei fenomeni che stanno sempre più cambiando il modello di data center, che assume nuove dimensioni

Da sempre essenza stessa dell’IT, anche il data center sta cambiando i propri connotati nel corso degli ultimi tempi, sulla base di spinte di tutti i tipi, da quelle volte a razionalizzare i costi a quelle più tecnologiche, come per esempio il successo del cloud computing, in particolare della crescente preponderanza della nuvola in modalità ibrida. A dispetto del sorgere e dell’affermarsi di nuovi paradigmi, il data center mantiene però la sua funzione chiave nell’intera infrastruttura IT, rivendicando il proprio ruolo a suon di evoluzioni continue, sempre nel segno della ricerca dell’efficienza e dell’agilità, ma soprattutto nell’ottica di rendere l’intera IT aziendale sempre più un fattore abilitante del business. Le nuove forme di virtualizzazione o la crescente corsa al Software Defined Data Center, SDDC, che vede il data center sempre più delineato e gestito dal software per far fronte alle mutevoli esigenze del business, e l’impetuoso affacciarsi alla ribalta delle infrastrutture iperconvergenti, sono solo alcuni degli esempi dei paradigmi e delle soluzioni che stanno cambiando il volto al data center. Oltre alla semplificazione, aspetto che riguarda da tempo un po’ tutta l’IT, la parola d’ordine che anima il nuovo volto del data center è quella della redistribuzione dei carichi di lavoro, nel segno dell’agilità di business.

Come noto, le esigenze di business e le sfide IT stanno costringendo i CIO a prendere in considerazione investimenti IT in grado di favorire crescita, innovazione, agilità e vantaggi competitivi. Anche per questo, i reparti IT sono oggi più concentrati sul business e non solo sulle tecnologie, in un quadro che vede il settore IT alle prese con un’ondata di iniziative di trasformazione del data center, guidato dal movimento verso tutto ciò che è software defined. Come sintetizzato da IDC, «l’obiettivo principale della filosofia software defined è l’astrazione della complessità dell’hardware sottostante dal provisioning e dall’utilizzo dell’hardware per favorire la semplificazione, l’ottimizzazione e l’efficienza nell’utilizzo delle risorse. L’approccio software defined consente infatti una maggiore virtualizzazione dei data center, permettendo il provisioning automatizzato e programmabile, la gestione e l’orchestrazione dell’intera infrastruttura all’interno del data center». È su questo scenario che si innesta il crescente interesse verso le infrastrutture iperconvergenti, che sono ormai pronte a svolgere un ruolo sempre più importante nel cammino verso il data center completamente software defined. Nell’analizzare le ragioni di questo nuovo cambiamento, IDC spiega che «le infrastrutture legacy non sono oggi in grado di fornire alle aziende funzionalità per scalare nel cloud, mentre le infrastrutture iperconvergenti massimizzano il time-to-value, aumentano l’efficienza operativa, l’installazione automatizzata e sono in grado di scalare senza problemi di interruzioni. E dato che le infrastrutture iperconvergenti permettono la flessibilità e l’agilità che il business chiede oggi all’IT, queste assumono sempre più il ruolo di building block per il data center definito dal software».

I numeri di un fenomeno

Si tratta di un fenomeno recente, ma che trova puntuale riscontro nei numeri: nel 2015, secondo IDC, le vendite di sistemi “hyperconverged” a livello mondiale, comprendenti hardware e software, sono aumentate del 116,2% rispetto all’anno precedente, per un valore complessivo di poco più di 800 milioni di dollari, mentre nel quinquennio 2014-2019 il valore totale supererà i 3,9 miliardi di dollari, con un tasso di crescita annuo composto (CAGR) del 59,7%. Risulta quindi più che evidente l’esplosione del fenomeno, il cui valore, solo quattro anni fa, era davvero esiguo, per i numeri ai quali ci ha abituato l’IT: è infatti solo nel 2013 che si è cominciato a nominare diffusamente l’iperconvergenza, visto che prima si parlava soprattutto dei sistemi convergenti. Se le prime “converged infrastructure” combinavano risorse virtuali all’interno di un’unica unità fisica, i sistemi iperconvergenti si distinguono in quanto prevedono un hypervisor in cima all’intero stack tecnologico integrato sia hardware sia software. In questo modo, gli hyperconverged system garantiscono maggiore flessibilità, gestendo l’intero insieme di unità fisiche costituito da server, network e storage come sistema virtuale unificato, in grado di assumere diverse configurazioni flessibili, con minori necessità di amministrazione. Questa semplificazione è ulteriormente favorita dal fatto che i sistemi iperconvergenti si basano su hardware standard x86, con un unico sistema operativo e di gestione per governare tutte le risorse come se si trattasse di un PC, cioè esattamente quello che serve per configurare un’infrastruttura IT in maniera agile.

Leggi anche:  Un floppy disk firmato da Steve Jobs in vendita per oltre 8mila dollari

Massimizzare i vantaggi                        

Più in dettaglio, avverte IDC, «le infrastrutture hyperconverged consentono alle aziende di implementare rapidamente infrastrutture scalabili di data center, in modo che possano concentrarsi sulla realizzazione di servizi IT di prossima generazione. Tra le infrastrutture iperconvergenti sono ricomprese anche soluzioni e tecniche diverse, tra cui il disaster recovery, la compressione, la de-duplica e l’alta disponibilità in un’unica soluzione, eliminando così i singoli punti di errore nel data center. Anche le ulteriori funzioni di monitoraggio dell’hardware e delle applicazioni consentono ai service provider di fornire supporto proattivo per guasti sull’hardware e sulle applicazioni». Inoltre, proseguono le analisi di IDC, «alla luce del fatto che le aziende cercheranno di trarre i massimi vantaggi dell’iperconvergenza – quali le implementazioni più rapide, la distribuzione automatica di componenti di infrastruttura, la gestione semplificata delle infrastrutture, il supporto a pannello unificato e un più agevole percorso di migrazione verso la virtualizzazione – probabilmente inizieranno a prendere in considerazione le offerte di infrastruttura hyperconverged per specifici carichi di lavoro, pur mantenendo l’infrastruttura legacy per altri carichi di lavoro».

Se l’architettura è bimodale

Come dire che si potrà avere anche qui una sorta di IT “bimodale”, ovvero quel doppio binario rappresentato da una parte dall’IT convenzionale, con maggiore affidabilità ma minore reattività, e dall’IT più nuovo, quasi sperimentale, caratterizzato dalla massima agilità. Si tratta di una dicotomia che si verifica anche in altri aspetti dell’IT, ma che nell’ambito dei data center sta assumendo contorni forse inediti. A fotografare il fenomeno ci ha pensato Emerson Network Power, che in un report reso noto a inizio anno, ha preso in considerazione le diverse tipologie di data center oggi emergenti. In sostanza, rileva lo studio, se l’archetipo oggi dominante è quello del data center a elevata disponibilità, con alimentazione doppia, generatori ridondanti e sistemi di condizionamento, va anche osservato che non sono poche le aziende che hanno aggiunto una qualche forma di Software as a Service (SaaS) alla loro architettura IT, e soprattutto stanno valutando o adottando sempre di più un’architettura bimodale in grado di riconoscere che applicazioni, tipi di dati e gruppi di utenti differenti hanno esigenze diverse in termini di rapidità di implementazione, produttività, efficienza, resilienza e sicurezza. Inoltre, l’open computing e il data center software defined hanno il potenziale per modificare il modo in cui i sistemi IT sono configurati e supportati. In questo scenario, il passaggio all’architettura bimodale non rappresenta l’unico esempio di modello in progressiva affermazione, ma ve ne sono altri, che spingono per esempio a immaginare la condivisione delle risorse del data center, sulla scia dell’onnipresente “sharing economy”, oppure chiamano a utilizzare quelli che sempre più vengono identificati come POD, Performance Optimized Data center, ai fini di una maggiore sicurezza delle informazioni.

Condividere il data center?

Per quanto riguarda la condivisione delle risorse, lo studio di Emerson Network Power fa notare che «l’attuale realtà del cloud computing è che molte imprese stanno acquistando capacità di elaborazione, principalmente attraverso il SaaS, per mettere online le applicazioni più rapidamente e a un costo inferiore, in un momento in cui le risorse informatiche interne sono sottoutilizzate. La virtualizzazione avrebbe dovuto risolvere il problema delle basse percentuali di utilizzo dei server, e ha sortito qualche effetto, ma uno studio del 2015 ha rilevato che i server dei data center continuano a fornire in media soltanto dal 5 al 15% della loro capacità massima di elaborazione nel corso di un anno». Questo stesso studio, citato sempre da Emerson Network Power, ha anche rilevato che il 30% dei server fisici risultano “comatosi”, nel senso che non hanno fornito servizi di elaborazione in sei mesi o più. In un periodo in cui il modello di “servizio condiviso” viene applicato a tutto, «il progetto di una piattaforma tecnologica che consenta alle imprese di sfruttare questa capacità inutilizzata on-demand e di vendere la capacità in eccesso sul mercato libero, non dovrebbe tardare a concretizzarsi. Questo approccio ai servizi condivisi potrebbe determinare un maggior utilizzo dei server aziendali, un allungamento della vita dei data center esistenti che vanno verso un modello di autosufficienza, e offrire alle aziende la possibilità di costruire nuovi data center sulla base della domanda media e non di quella di picco».

Leggi anche:  Il Galaxy Tab S7+ sarà il tablet per i professionisti

Maggiore sicurezza delle informazioni

Non è una novità che quello della sicurezza dei dati sia una delle maggiori preoccupazioni in ambito data center. Per esempio, uno studio del Ponemon Institute sul tempo di fermo del data center commissionato da Emerson Network Power ha rilevato che «il numero di episodi di fermo correlati alla sicurezza è aumentato dal 2% del 2010 al 22% del 2015, mentre il costo e la frequenza aumentano al punto che alcune aziende sono costrette ad adottare approcci alla progettazione del data center che diano particolare priorità alla sicurezza». Ma si tratta in realtà di una tendenza già in atto, poiché aziende dei settori medico, farmaceutico e aerospaziale stanno implementando architetture di tipo POD, ovvero Performance Optimized Data center, all’interno o accanto ai data center esistenti, proprio allo scopo specifico di gestire i dati sensibili. Il passo successivo a questo, sottolinea il report, è rappresentato «dalla struttura di archiviazione offline, detta anche cold storage, costruita appositamente con enormi sistemi di archiviazione protetti da ingenti investimenti in sistemi di sicurezza, e dall’accesso di tutte le reti tranne quelle autorizzate».

L’IoT nel data center

Tra le altre tendenze in atto nell’ambito dei data center, vanno viste anche quelle identificate a inizio anno  da Gartner, in sede di esame dei cinque fenomeni in grado di influenzare i data center nel 2016, come riportati da Data Center Knowledge (“Five data center trends to watch in 2016”). Oltre all’iperconvergenza, annoverata da Gartner tra i protagonisti irrinunciabili dei data center dei prossimi anni, con una previsione di giro d’affari entro il 2019 superiore anche a quella di IDC, in quanto stimata in 5 miliardi di dollari totali, la società di analisi si sofferma tra l’altro su fenomeni quali l’Internet of Things e l’automazione delle operations, per una sempre maggiore efficienza. Partendo dalla crescita dei paradigmi dell’Internet of Things, secondo Gartner chi amministra i data center sarà in grado di tracciare al meglio lo stato effettivo dei componenti, valutare lo stato di salute degli ambienti e di gestire gli eventuali interventi con maggiore efficacia, qualora procedano a incorporare all’interno di data center le tecnologie smart degli oggetti connessi e intelligenti oppure dei sensori che comunicano tra loro e con i sistemi IT. In questo approccio, i sensori che misurano temperatura, umidità e consumi potranno integrarsi all’interno della stessa rete con gli strumenti di misurazione e controllo, per costituire sistemi di autodiagnosi e di autoriparazione oppure di semplice allerta. Ne potrà risultare, sempre secondo Gartner, la possibilità di effettuare interventi di manutenzione preventiva, assicurando di conseguenza maggiori livelli di uptime del data center.

Cresce l’automazione delle operations

Ma non solo: sulla scia del crescente sviluppo della filosofia software defined, si incrementa anche l’automazione delle operations relative ai data center, rendendo nel contempo meno rilevanti le configurazioni manuali dei componenti hardware. Secondo Gartner, si tratta di una tendenza che sfocerà in una maggiore agilità nell’allocazione delle risorse del data center, con un corollario di riduzione degli eventuali errori e un abbassamento dei costi operativi. Di converso, le persone IT potranno anche avere una vista unificata dei componenti infrastrutturali, delle risorse di connettività, della capacità di computing e delle risorse storage, massimizzando l’efficacia di amministrazione, in quanto avere tutti i componenti sotto monitoraggio con un database unificato e aggiornato in real-time può davvero rendere più agevole la gestione di eventuali interventi di recovery, indipendentemente dalla circostanza che riguardino le risorse fisiche o quelle virtuali.

Leggi anche:  Hardware per l’home office: porta le teleconferenze a casa con Snom

Tra data center e cloud ibrido

Volendo tracciare alcune conclusioni su quanto visto finora, si può osservare che la strada appare tracciata: tra paradigma software defined e iperconvergenza, il nuovo volto del data center si sta delineando. Ma non va dimenticato il ruolo non secondario che continua a svolgere il cloud, nella sempre più imperante versione ibrida, vero e proprio asso pigliatutto del momento. Al riguardo, nella sintesi di IDC, il «data center software defined presenta un modello in cui le risorse di cloud computing sono gestite e controllate dal software invece che dagli operatori e dagli amministratori IT, ma soprattutto consente agli sviluppatori di applicazioni di definire un set completo di requisiti di infrastruttura che possono poi essere assegnati e forniti automaticamente on demand, cosa che rende il data center sempre più agile ed efficiente anche in termini di costi». Infine, sempre nell’analisi di IDC, «l’infrastruttura di tipo hyperconverged continuerà a guadagnare favori sul mercato, marginalizzando i sistemi legacy e sostenendo la massiccia migrazione dell’IT verso il cloud. Alla luce del fatto che i vendor si stanno concentrando sempre più sui business connessi ai servizi cloud, aumenta la domanda di grandi insiemi di risorse di computing e di storage, spingendo la richiesta di strutture in grado di scalare a livelli elevati. In questo scenario, le infrastrutture iperconvergenti potranno accelerare la pianificazione, la progettazione e l’implementazione di cloud privati o ibridi», per un data center dal volto davvero diverso.