Data center evoluti per supportare la digital transformation

Impatto as a Service. Dove va il data center

Secondo IDC, entro tre anni, il 55% delle grandi aziende dovrà modernizzare i propri asset data center. L’ascesa dell’intelligenza artificiale e del machine learning, dell’automazione dei processi aziendali, della connettività IoT e delle applicazioni blockchain sta portando i data center aziendali a spostarsi da architetture centralizzate monolitiche a distribuzioni decentralizzate

Quella dei data center è una lunga storia, caratterizzata da continui miglioramenti influenzati dallo sviluppo tecnologico e dalle mutate esigenze degli utenti. Anche oggi, in clima di digital transformation, il data center è in evoluzione. Secondo IDC, il 55% delle grandi aziende dovrà, entro tre anni, modernizzare i propri asset data center, mentre l’età media di un data center è di nove anni. E Gartner sottolinea che i data center con più di 7 anni possono già considerarsi obsoleti. Una ricerca realizzata nel 2017 da IDC insieme a Seagate evidenzia che la crescita dei dati (163 ZB entro il 2025) è tra gli elementi che guidano la necessità di modernizzare i data center. Influisce sulla scelta del data center anche la business continuity. Se un sistema diventa non disponibile, le operazioni aziendali possono essere compromesse o arrestate. Di conseguenza è necessario contare su un’infrastruttura affidabile per le operazioni IT, che consenta di minimizzare ogni possibilità di interruzione. Sin dal 2011, l’Uptime Institute – meglio conosciuto per il suo “Tier Standard” ampiamente adottato per la classificazione e relativa certificazione dei data center – sottolineava che i progetti finalizzati alla trasformazione del data center devono considerare standardizzazione e consolidamento, virtualizzazione, automazione e sicurezza. I progetti di standardizzazione e consolidamento hanno come obiettivo la riduzione del numero di data center che una grande organizzazione può avere, puntando anche su apparecchiature più recenti con più capacità e prestazioni. Le tecnologie di virtualizzazione IT usate per sostituire o consolidare componenti data center, come i server, contribuiscono ad abbassare le spese e a ridurre il consumo energetico. Accrescere l’automatizzazione dei data center consente di velocizzare le attività di provisioning, configurazione, patching, gestione del rilascio e conformità. Sempre attuali e fondamentali sono gli interventi in direzione della sicurezza, che coinvolge sicurezza fisica, della rete e sicurezza dei dati e degli utenti.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

DIGITAL TRANSFORMATION

Tuttavia, la digital transformation richiede data center ancora più evoluti. Trasformarsi digitalmente, infatti, significa interagire con i clienti in modo più innovativo e immersivo, raccogliendo, elaborando e analizzando i dati in prossimità di grandi concentrazioni di persone o cose. Da considerare è anche il fenomeno dell’edge, risorsa IT remota, sorta di micro data center dotato di particolari accorgimenti in materia di sicurezza e resilienza, spesso quasi totalmente automatizzato. Entro il 2021, secondo IDC, i settori più rivolti ai consumatori investiranno maggiormente in innovazione e aggiornamento delle infrastrutture edge rispetto a quelle core, i tradizionali data center aziendali. Internet of Things, supply chain digitali, convergenza tra Information Technology e Operational Technology (IT-OT), digital signage, autonomous transportation e robotica introducono o accentuano il bisogno di nuovi ambienti edge in un panorama IT già diversificato, dall’on-premise al cloud. L’ascesa dell’intelligenza artificiale e del machine learning, dell’automazione dei processi aziendali, della connettività IoT e delle applicazioni blockchain ha spinto i data center aziendali a spostarsi da architetture centralizzate monolitiche a distribuzioni decentralizzate. Non solo i data center devono tenere il passo con i rapidi ritmi dell’innovazione tecnologica, devono tenere il passo anche con le esigenze del business.

«Oggi, le aziende sono in grado di connettersi con i propri clienti in modi nuovi, ma devono sempre più raccogliere, elaborare, analizzare e trasmettere i dati in prossimità delle persone e degli oggetti» – spiega Diego Pandolfi, research & consulting manager di IDC Italia. IDC stima che, nei prossimi anni, circa il 40% dei dati generati da dispositivi e applicazioni IoT saranno analizzati vicino alla fonte dei dati stessi, appunto in modalità edge. Questi dati risiederanno in vari data center, inclusi quelli dei service provider, a cui si aggiungono micro data center che necessiteranno di operare in modo autonomo e con un elevato grado di controllo e monitoraggio da remoto. Per IDC, l’edge computing è una delle evoluzioni dei tradizionali data center ed emerge oggi come un’area in cui le aziende stanno investendo, per supportare diversi tipi di progetti, non solo IoT. «Osserviamo due macro categorie di aziende» – commenta Pandolfi di IDC Italia. «Da un lato si posizionano le imprese che hanno adottato in anticipo soluzioni di edge computing, utilizzando approcci custom. Queste stanno già oggi raggiungendo i benefici di business attesi, tramite lo spostamento delle capacità di calcolo e di analisi dei dati vicino alla fonte. Dall’altro lato si trovano le aziende che stanno valutando come sviluppare e introdurre l’edge in ambienti produttivi e cercando di capire quali cambiamenti sono necessari nei processi IT e quali benefici potranno conseguire nel lungo termine».

NUOVI ECOSISTEMI APPLICATIVI

Per supportare le strategie di trasformazione digitale, le aziende stanno creando ecosistemi applicativi che spingono verso il cloud e la modernizzazione delle infrastrutture data center. «Questa pressione – dice Pandolfi – si intensifica al crescere delle innovazioni introdotte e interessa costi, performance e flessibilità». Quello che IDC nota è una progressiva modernizzazione dei data center che include l’aggiornamento e la sostituzione delle infrastrutture fisiche e dei sistemi IT, l’adozione del cloud e l’uso di sistemi di predictive analytics per ottimizzare le operations. «Inoltre, la progressiva adozione di tecnologie Internet of Things sta richiedendo sempre più spesso micro data center distribuiti localmente, per favorire la raccolta e l’analisi dei dati a bassa latenza, vicino alla fonte in cui sono prodotti» – conferma Pandolfi. L’adozione di ambienti ibridi, software-defined e distribuiti, solleva nuove sfide per le aziende e fa emergere l’importanza di una gestione ottimale ed efficiente di tutte le risorse IT.

Leggi anche:  Intel sposta più in avanti la legge di Moore

Per questo, rileva Pandolfi, stanno acquisendo rilevanza crescente le soluzioni di Data Center Infrastructure Management (DCIM), spesso basate su sistemi di big data analytics e machine learning, per abilitare servizi di gestione e manutenzione delle infrastrutture di data center con funzioni predittive e proattive, in grado di prendere decisioni in autonomia, basandosi su analisi di dati anche in real-time. Questi nuovi modelli sono proattivi, supportano le iniziative di trasformazione digitale e prevengono problemi alle infrastrutture ancora prima che si verifichino, contrapponendosi ai modelli tradizionali, reattivi, che reagiscono al verificarsi di anomalie. A supporto di queste evoluzioni, si diffondono anche le Intent Based Network (IBN), evoluzioni delle SDN, che permettono di raggiungere livelli più elevati di semplicità operativa e intelligenza automatizzata. Le IBN sono una pietra miliare importante verso un’infrastruttura autonoma e automatizzata. Dal punto di vista di IDC, il processo di modernizzazione del data center che porta all’hybrid IT e quindi al multicloud sembra la strada più percorribile per aiutare le persone a fare il giusto percorso per ridurre i costi operativi, liberare le risorse e aumentare la spinta verso l’innovazione e il supporto al business, permettendo alla propria azienda di restare competitiva sui mercati. Secondo Pandolfi, in un’ottica di digital transformation, il cloud rimarrà un paradigma evolutivo importante: le aziende, infatti, si stanno orientando verso modelli di hybrid IT e multicloud che permettono di supportare le iniziative più innovative, basate su mobility, IoT, cognitive computing. Le aziende stanno studiando strategie di pianificazione, implementazione e gestione di ambienti sempre più diversificati (tradizionali, private e public cloud), che al giorno d’oggi convivono tra loro e sono spesso fisicamente dispersi.

LE SFIDE DEL CLOUD

Secondo Gaurav Yada, founding engineer e product manager di Hedvig, la rivoluzione determinata dal cloud ha identificato nuove sfide da considerare in rapporto ai data center di nuova generazione. Una tra le scelte più difficili da fare è, per esempio, tra hyperscale e hyperconverged. Con hyperscale si intende l’insieme di hardware e strutture in grado di scalare un ambiente di elaborazione distribuito fino a migliaia di server. L’infrastruttura hyperscale, che si riferisce all’elaborazione su scala massiva, in genere per i big data o il cloud computing, è studiata per garantire scalabilità orizzontale che si traduce in livelli elevati di prestazioni, produttività e ridondanza con cui si ottiene tolleranza di errore e massima disponibilità. L’elaborazione hyperscale spesso si basa su architetture di server massivamente scalabili e reti virtuali. Un progetto di analisi di big data, per esempio, potrebbe essere realizzato a costi più contenuti, sfruttando la scala e la densità di elaborazione disponibili con l’hyperscale. Sistemi hyperscale forniscono una flessibilità simile al cloud quando si supporta una vasta gamma di applicazioni. Secondo Stratistics MRC, il mercato globale hyperscale data center potrebbe crescere dai 20,24 miliardi di dollari del 2016 a 102,19 miliardi di dollari entro il 2025. Un sistema hyperconverged considera l’intero insieme di unità fisiche (quali server, network e storage) come un unico sistema virtuale che può avere varie configurazioni. Si differenza dalle converged infrastructure, che combinano risorse virtuali in un’unica unità fisica, per la presenza di un hypervisor in cima ai componenti tecnologici integrati, hardware e software.

Leggi anche:  La nuova Fujitsu CS800 RA è l'architettura che protegge dagli attacchi ransomware

I sistemi iperconvergenti sono strategici nel semplificare la gestione e funzionano con set di dati limitati per casi di utilizzo che coinvolgono VDI (virtual desktop infrastructure), soluzioni di sviluppo/test, remote office/branch office. Secondo IDC, il più ampio segmento di storage definito dal software è l’infrastruttura iperconvergente (HCI). Questo segmento si caratterizzerà per ricavi che dovrebbero toccare i 7,15 miliardi di dollari nel 2021. Un’infrastruttura hyper-cloud, tuttavia, fornirà la flessibilità di essere hyperscale o hyperconverged quando necessario. Considererà networking, storage e compute resources come building block che possono essere combinati in vari modi. La maggior parte delle soluzioni software-defined impone di acquistare determinati tipi di hardware o di comprare da specifici fornitori di hardware. Un’infrastruttura hyper-cloud consente di innovare più velocemente, scegliendo la tecnologia che serve al momento giusto. Tra i benefici chiave dell’hyper-cloud rientrano la possibilità di realizzare progetti su scala web così come infrastrutture specifiche per applicazioni di nicchia oltre alla capacità di fornire building blocks per carichi di lavoro diversi. Le esigenze in termini di performance e caratteristiche dei dati influiscono sul design e l’estensione dell’hyper-cloud. Inoltre, è possibile realizzare nuove strutture di hyper-cloud per modellare, costruire ed esemplificare in poco tempo, se è necessaria una completa esemplificazione dei dati. In questo modo, si riducono anche i tempi di adozione per le tecnologie bleeding edge, ovvero quelle tecnologie talmente nuove che potrebbero costituire un rischio per l’utente, costringendolo a sostenere maggiori spese per poterle utilizzare.

LA SICUREZZA, UNA PRIORITÀ

Nonostante l’adozione di ambienti ibridi e multicloud sia in crescita, con l’obiettivo di raggiungere benefici in termini di riduzione di costi e maggiore disponibilità di risorse, ci sono sfide ancora aperte in merito alla sicurezza e alla corretta integrazione e gestione dei carichi di lavoro. «La sicurezza nei nuovi ambienti ibridi, multi-cloud, edge, resta di primaria importanza e deve essere gestita in modo adeguato» – spiega Pandolfi di IDC Italia. Spesso, le preoccupazioni legate alla security ostacolano in Europa l’adozione di cloud pubblici, anche se, per IDC, questo fenomeno è meno marcato rispetto al passato e le aziende sono oggi consapevoli che molte volte un servizio di cloud pubblico può essere anche più sicuro di un’infrastruttura on-premise. Dal 2018, con l’entrata in vigore del GDPR, le aziende stanno ripensando i propri processi interni perché soddisfino i requisiti di conformità dei dati. In base a una recente ricerca condotta da IDC a livello europeo, emerge che le principali priorità in ambito data center operations per le aziende sono sicurezza e compliance. In questo ambito, IDC prevede che le aziende si affideranno in modo crescente a provider esterni specializzati. Questo contribuirà alla crescita del mercato dei managed security services, soprattutto in relazione a servizi come predictive security, compliance services e local hosting.

RIDURRE L’IMPATTO AMBIENTALE

I data center richiedono molta potenza e sono energivori. Di conseguenza, da tempo, si parla dell’utilizzo di data center “green”, attenti alla riduzione dell’impatto ambientale, progettati per essere più efficienti e consentire risparmio energetico. Coniugare l’introduzione di data center evoluti con la riduzione dell’impatto ambientale resta importante. «L’energia è una risorsa limitata e il suo costo continua ad aumentare in tutti i paesi. Sono in crescita però anche i controlli esercitati sulle aziende, in modo da indurle ad adottare pratiche di supervisione e gestione che promuovano l’efficienza e l’utilizzo prudente delle risorse» – spiega Pandolfi. Attraverso l’uso avanzato di soluzioni di DCIM (Data center infrastructure management), le aziende stanno sperimentando operations più efficienti, correlate a costi energetici inferiori. Anni fa, per ottenere una riduzione dei costi energetici, si eliminavano le apparecchiature IT che contribuivano di più al consumo di energia senza che avessero però un riscontro in termini di aumento dei workload IT. Il risultato era quello di risparmi immediati dal punto di vista dei costi energetici sia di elettricità sia di tecnologie per il raffreddamento, ma dall’altro lato bisognava rinunciare ad alcune risorse. Attualmente, il miglioramento della gestione a lungo termine sta permettendo l’utilizzo della tecnologia per evitare l’eccessivo provisioning delle risorse di raffreddamento e l’implementazione di risposte automatiche alle condizioni ambientali per evitare sprechi. Le aziende che investono in soluzioni avanzate per aumentare l’efficienza complessiva delle loro infrastrutture di data center stanno puntando anche alla riduzione dell’impatto ambientale.

DATA CENTER E PERSONE

L’evoluzione dei data center coinvolge le tecnologie, ma anche le persone che, se da un lato potranno trarre vantaggi dal cambiamento, dall’altro saranno chiamate a mutare i loro ruoli. Sono i CIO e gli IT manager a dover evolvere per primi, per favorire la trasformazione dei data center e la competitività aziendale. «La quasi totalità dei CIO e degli IT manager riconosce l’importanza dei nuovi modelli di business abilitati dalla digital transformation, ma sono anche consapevoli delle criticità che spesso le infrastrutture IT devono affrontare» – riscontra Pandolfi. Per supportare le diverse line of business, i CIO e gli IT manager molto spesso si trovano a valutare la possibilità di cambiare il mix tra servizi e risorse interne e il ricorso a servizi e service provider esterni, con l’obiettivo di abilitare una maggiore agilità delle operations. Le decisioni in merito alle infrastrutture di data center devono basarsi sempre più sulla reale capacità di fornire workload scalabili, sicuri e risorse accessibili ovunque. I CIO, grazie alla loro conoscenza delle infrastrutture IT e dei loro modelli evolutivi, devono supportare il business nell’orientarsi tra le opzioni possibili. Anche il loro ruolo si sta trasformando: da un orientamento alla gestione dell’infrastruttura, i CIO (ma anche gli IT manager) sono oggi chiamati a svolgere principalmente attività di brokeraggio di servizi IT, con l’obiettivo di trovare il giusto mix tra servizi e risorse (interne, esterne) che permettano l’evoluzione delle infrastrutture e del data center a supporto dei progetti di digital transformation più evoluti.

Leggi anche:  Building automation tramite i tasti del telefono

AZIENDE E CAMBIAMENTO

Ma in questo scenario, le aziende italiane sono pronte al cambiamento? Secondo IDC, sul territorio italiano ci sono aziende virtuose, che già oggi hanno fatto scelte innovative dal punto di vista delle infrastrutture di data center, scegliendo approcci public o ibridi. In Italia, però, restano ancora preoccupazioni legate al passaggio verso il cloud infrastrutturale e alla sicurezza dei dati, che stanno ostacolando un processo massivo di evoluzione delle infrastrutture. Queste preoccupazioni interessano sia le PMI sia le grandi aziende e in molti casi sono correlate al settore nel quale l’impresa opera. «Da una survey di IDC emerge che le aziende italiane stanno portando avanti progetti di evoluzione delle infrastrutture IT, principalmente tramite un parziale replacement delle infrastrutture di storage tradizionali (SAN/NAS) verso soluzioni di public cloud storage, e un replacement delle infrastrutture server verso hyperconverged infrastructure o soluzioni di public cloud» – mette in evidenza Pandolfi. «Oggi, i servizi di public cloud sono considerati importanti dalle aziende italiane per supportare le iniziative di digital transformation e i progetti più innovativi. Inoltre, rileviamo una maggiore consapevolezza in merito ai benefici percepiti in termini di semplificazione delle operations IT e maggiore sicurezza e controllo. Non si guarda più a un approccio cloud o ibrido con il solo obiettivo di ridurre i Capex (per nuovo hardware) o i costi di gestione, ma si riconosce il reale valore per il business derivante da un ambiente ibrido e flessibile in termini di business agility, migliore utilizzo delle risorse IT, efficienza e scalabilità».