Cinque temi caldi per discutere di evoluzione delle infrastrutture IT aziendali, tra necessità computazionali in iperscala, supporto ai dati periferici, impatto ambientale e automazione. Gli esperti di IDC Italy ci guidano nel presente – e nel futuro – delle fabbriche dei dati

La distanza temporale non è poi così marcata, ma parecchia strada tecnologica è stata percorsa dagli anni in cui il termine data center veniva utilizzato per definire soprattutto le infrastrutture di proprietà delle grandi organizzazioni. Poi, gradualmente, spesso e volentieri partendo dalle aziende di dimensioni più piccole e dalle startup digitali, si sono imposti i modelli di offerta dei servizi di hosting e housing, che a loro volta hanno ceduto il passo al cloud pubblico. Oggi, parlare di data center non è più la stessa cosa. Tutto il mondo delle “server rooms” – dal singolo rack al centro attrezzato – ha subìto l’impatto dell’as a Service. I grandi data center di proprietà sono sempre più appannaggio delle imprese che possono permettersi una progettualità complessa e costosa, e per i workload che devono rispondere a vincoli molto stringenti di compliance, potenza e resilienza. Tra l’altro, anche la costruzione di un data center di proprietà oggi può essere delegata a service provider capaci di gestire strutture prefabbricate e modulari, con notevoli risparmi in termini di tempo e risorse.

In funzione del tipo di workload e delle necessità applicative, la scelta è estremamente diversificata, tra infrastrutture on-prem, data center di proprietà, cloud privati ma realizzati in spazi di colocation, data center e cloud pubblici che offrono evolute soluzioni di housing di applicazioni e servizi che vanno fino al provisioning completamente virtualizzato di macchine, storage, connettività. È un mondo complesso, ma dai potenziali estremamente elevati, considerando che per quanto il fenomeno dei workload fatti migrare su cloud privati, pubblici o in ottica ibrida è in forte crescita, al momento la percentuale di applicazioni, legacy o di nuova generazione, ancora basate su infrastrutture on-prem o in data center privati, è ancora notevole e le prospettive per chi offre soluzioni virtualizzate sono rosee.

Nel 2020, tra le tendenze rilevate nel periodico report Global Data Center Survey (studio focalizzato sugli aspetti dell’efficienza e della affidabilità di queste infrastrutture), l’Uptime Institute americano evidenziava la stabilità dei data center aziendali. La migrazione dei carichi di lavoro verso il cloud pubblico c’è, ma avviene molto gradualmente. Le previsioni sono che nel 2022 la metà dei workload informatici resterà ancora confinato ai data center on-premises, mentre le necessità di soluzioni di edge computing registreranno una moderata crescita, secondo i CIO intervistati da Uptime Institute. Questa permanenza avrà tra l’altro una ricaduta sulla disponibilità di tecnici competenti: le aziende fanno sempre più fatica a trovare sul mercato del lavoro le competenze necessarie per il governo delle infrastrutture interne. E se l’automazione e l’intelligenza artificiale agiranno sicuramente in direzione di una significativa semplificazione, l’affermazione di queste tecnologie è ancora molto parziale.

In più, in questo scenario favorevole è esploso il fenomeno Covid e gli investimenti hanno subito una battuta d’arresto. Prima della pandemia, le cifre erano alquanto ottimistiche. Research and Markets, per esempio, valutava (lo scorso agosto) che il mercato globale dei data center per servizi di colocation avesse superato la soglia dei 31 miliardi di dollari nel 2019. Un volume d’affari che nel 2025 dovrebbe superare i 58 miliardi di dollari, con una crescita aggregata di oltre il 10% annuo nel periodo 2020-2025. Tutto questo anche in conseguenza di un aumento annuo del 35% dei dati generati. Gartner nell’ottobre del 2020 è tra i primi a cercare di misurare l’impatto del Covid su un mercato globale delle infrastrutture di data center che nel 2019 aveva raggiunto i 210 miliardi di dollari. Secondo le stime di Gartner, la spesa per data center avrebbe subito un rallentamento del 10,3% ne 2020, per un valore complessivo di 188 miliardi di dollari, ma dovrebbe recuperare sei punti percentuali per ritornare nel 2021 a quota 200 miliardi. Gartner valuta che almeno il 60% dei progetti che le aziende avrebbero portato avanti nel 2020 ha subito ritardi e nuove calendarizzazioni. La progettualità tuttavia non si ferma, anche in considerazione delle nuove modalità digitali che si sono affermate negli ultimi 15 mesi di sostanziale lockdown e la ripresa anno su anno dovrebbe essere importante da qui al 2024. Con l’aiuto degli esperti di IDC Italia, cerchiamo però di entrare nel dettaglio dei cinque maggiori trend tecnologici e di mercato evidenziati nel settore dei data center, con un occhio particolare alle dinamiche del mercato italiano. Questi cinque trend riguardano le infrastrutture hyperscale; il fenomeno dell’edge computing a supporto delle esigenze computazionali locali (legate soprattutto all’Industry 4.0); il green data center; l’automazione; e la mobilità 5G, un altro importante fattore di spinta.

HYPERSCALE

L’uscita dalla pandemia accelera i processi di trasformazione digitale dei processi e il traffico IP sale di conseguenza: 20.6 ZB a fine 2021, 7 ZB in più rispetto a 5 anni fa, secondo le valutazioni Cisco. La domanda di infrastrutture hyperscale è particolarmente forte in Europa, sostenuta dagli investimenti in cloud pubblico da parte dei principali operatori. I settori di investimento più caldi per quanto riguarda l’utenza finale sono la sanità e la logistica/supply chain. Secondo Daniela Rao, senior research and consulting director di IDC Italy, sul piano quantitativo il numero di data center nel mondo – attualmente valutato in circa 7,5 milioni di unità – tenderà a diminuire (con un tasso annuo aggregato del -2% tra 2019 e 2024). Su questo indice negativo pesa la contrazione del numero dei data center interni, compensata solo in parte dall’aumento del numero dei centri costruiti dai service provider. «Nel 2020 e 2021 la costruzione di nuovi data center è rallentata dall’emergenza Covid e da un contesto economico difficile che implica riduzioni dell’impegno di capitale» – spiega Daniela Rao.

Leggi anche:  IT procurement e innovazione. CPO e CIO alleati per la crescita

«Nei prossimi tre anni la capacità totale del data center in termini di spazio grezzo (metri quadrati) rimarrà stabile, ma la capacità in termini di potenza disponibile (e quindi la capacità di supportare aumenti di potenza in termini di core e byte distribuiti) aumenterà a un ritmo abbastanza costante dell’8-10% ogni anno». Un importante elemento positivo nel biennio 2021-2022 sarà la costruzione e la modernizzazione dei punti di presenza (POP) dei fornitori di servizi di data center a livello locale (per esempio in Italia). Questi punti – secondo Daniela Rao – inizieranno a essere convertiti alle esigenze del multi-access edge compute (MEC). «Dal 2023, in poi sempre più aziende faranno affidamento sui service provider esterni, abilitando così i data center interni ad accedere a risorse e servizi esterni “a consumo” come concreta alternativa all’ampliamento delle infrastrutture IT interne». La maggior parte delle imprese – continua Daniela Rao – si sta rendendo conto che le proprie soluzioni on-prem non saranno mai in grado di eguagliare l’innovazione offerta dai principali provider di cloud pubblico. Le offerte di servizi di cloud privato per applicazioni hyperscale sono sempre più viste come un ottimo modo per sfruttare le innovazioni nel cloud pubblico direttamente attraverso le infrastrutture on-prem. «Le soluzioni dei cosiddetti “Hyperscaler” offrono un nuovo paradigma e il meglio di entrambi i mondi: un’esperienza di cloud pubblico con vantaggi del cloud privato, eliminando gli investimenti CapEx, riducendo drasticamente le operations, separando le applicazioni dall’infrastruttura sottostante e fornendo un percorso agile verso l’hybrid multicloud» – spiega Daniela Rao. Con un’architettura nativa per il cloud, le aziende possono godere di una portabilità senza interruzioni, un ciclo di sviluppo accelerato e una gestione del cloud semplificata attraverso un piano di controllo condiviso.

EDGE COMPUTING

L’intero comparto del computing “periferico” è un altro fattore che guida le dinamiche evolutive attuali, specie a fronte della crescente adozione di tecnologie smart nelle fabbriche come negli edifici residenziali. Secondo Statista, la business platform che fornisce dati di mercato e di consumo, l’IoT nell’home market rappresenta un valore globale di 53 miliardi di dollari nel 2021. La spesa delle aziende italiane per soluzioni di edge computing crescerà dagli attuali 1.100 a 1.700 milioni di euro tra il 2020 e il 2023, con un tasso annuo del 15%. «Delocalizzare le capacità di elaborazione dei dati ai margini della rete in funzione della proliferazione di device, individui e sensori sul territorio – avverte Daniela Rao di IDC Italy – rappresenta una scelta che diventa inevitabile, per sfruttare al meglio, riducendo in misura rilevante i tempi di latenza, le informazioni provenienti dalle sedi periferiche. Ma anche per compiere un importante passo in avanti nel ridisegno dei processi e nell’ottimizzazione dei processi». Tuttavia, occorre porre un’attenzione tutta particolare perché quando parliamo di edge computing, non dobbiamo pensare a un prodotto “plug-in”, ma una soluzione tecnologica che a seconda delle funzioni, del tipo di dati e delle informazioni che deve raccogliere ed elaborare, e della sua localizzazione, può assumere forme e dimensioni diverse. Comportando ovviamente percorsi di integrazione molto diversi e talvolta complessi. «L’implementazione di soluzioni edge è destinata a modificare l’architettura IT di molte imprese con sedi e asset distribuiti sul territorio» – continua Daniela Rao. «Edge, cloud e data center formeranno un continuum basato sulla convergenza di infrastrutture eterogenee che si estendono dal cloud ai dispositivi mobili – inclusi sensori, gateway, stazioni di rete mobile, data center centrali e cloud privati – su cui sarà possibile costruire e distribuire nuove applicazioni time-sensitive».

In Italia lo sviluppo dei casi d’uso IoT avverrà gradualmente e, a seconda dei contesti, dovrà affrontare complessità correlata alla catena del valore e alle partnership, agli aspetti normativi e al ritorno degli investimenti da parte degli operatori economici che intendono commercializzare i servizi sul mercato end-user. «Il mercato italiano dell’IoT dovrebbe crescere a un tasso annuo del 12% nel periodo 2020-2023, un ritmo del resto in linea con le medie europee. In valore, dovremmo passare dagli attuali 23 miliardi di euro a oltre 30 miliardi». In questo periodo, i progetti IoT sviluppati in Italia saranno soprattutto indirizzati a tenere sotto controllo i parametri ambientali e a proteggere e gestire le infrastrutture pubbliche distribuite sul territorio, mentre le preoccupazioni per la stabilità della tecnologia, la complessità dei cambiamenti nei processi aziendali e le perplessità sui reali ritorni sugli investimenti, continueranno ad agire da freno sulla progettualità IoT delle nostre imprese.

GREEN DATA CENTER

I temi della sostenibilità ambientale continuano a guidare i piani di riduzione dell’impatto ambientale e dei consumi di elettricità all’interno delle nostre “fabbriche dei dati”, con un aumento di iniziative collaterali, come il riuso dell’acqua di raffreddamento. Entro il 2025 – sostiene Sergio Patano, associate director Research & Consulting di IDC Italy – il 90% delle imprese Global 2000 imporrà l’uso di materiali riutilizzabili nella supply chain dell’hardware, con l’obiettivo di raggiungere la carbon neutrality delle strutture IT e un minor consumo di energia come prerequisiti dell’operatività del business. «I grandi servizi tecnologici e i fornitori di data center stanno definendo una visione e intendono sviluppare un intero ecosistema in grado di guidare un cambiamento fondamentale nel modo in cui la tecnologia influisce sull’ambiente» – afferma Patano.

Leggi anche:  Dell Technologies aumenta la potenza di Dell EMC PowerStore

Dimostrare progressi sugli obiettivi di sostenibilità ambientale è diventato un elemento sempre più importante non solo per migliorare la brand reputation ma anche per attrarre investitori e talenti. «Poiché l’IT si assume una responsabilità crescente nel guidare un cambiamento positivo all’interno della propria azienda, sarà ancora più importante garantire che fornitori e partner infrastrutturali condividano obiettivi simili e contribuiscano ad accelerare questo progresso». I fornitori IT infrastrutturali e di data center che incorporano i principi dell’economia circolare e che hanno investito in fonti di energia più pulite e tecnologie altamente efficienti, sono nelle condizioni di guadagnare importanti quote di mercato perché potranno operare in un ambito precluso alle realtà meno virtuose. «In altre parole – conclude Patano – il passaggio all’approvvigionamento IT in modalità as a Service grazie a servizi erogati da fornitori in grado di massimizzare l’utilizzo delle risorse e riciclare in modo responsabile, diventerà un requisito fondamentale per gli investimenti futuri». La ricerca di modi per migliorare l’utilizzo delle risorse porterà inoltre a rivolgersi a partner che a loro volta saranno sottoposti a controlli sempre più rigorosi, un po’ come avviene nel settore dell’agricoltura biologica. Chi offre servizi cloud e di data center sarà chiamato a certificare la sostenibilità ambientale della sua offerta e di non esercitare un “ecologismo di facciata”, il cosiddetto greenwashing. In questo contesto, la trasparenza sarà il pilastro su cui costruire partnership di fiducia.

AUTOMAZIONE E INTELLIGENZA

Anche questo aspetto è stato accelerato dalla necessità di ridurre il più possibile il personale in presenza, anche per le considerazioni sulla penuria di figure tecniche formate. Le stesse esigenze in materia di edge computing, fanno aumentare il trend verso la remotizzazione delle operazioni di manutenzione e intervento. Anche la complessità e l’efficienza sono un tema in un sotto-trend che vede in prospettiva un ruolo di maggior spicco delle tecnologie dell’intelligenza artificiale in affiancamento al personale incaricato della gestione e del pronto intervento sulle infrastrutture.

Secondo Patano di IDC Italy, le aziende sono entrate – o in molti casi stanno entrando – in un contesto completamente differente rispetto a quello che ha governato la gestione dell’IT nelle decadi precedenti. «Il continuum di applicazioni e dati – che si estende in tempo reale dal core fino all’edge e all’IoT, coinvolgendo dispositivi mobili e altro combinato con dati storici, sistemi aziendali e informazioni globali -“percepisce” e determina un ambiente computazionale continuamente aggiornato e lo inserisce in nuovi contesti». L’intelligenza artificiale e l’apprendimento automatico elaborano e diffondono intelligenza per trasformare i dati in azione e l’azione in valore. In questo contesto, l’automazione assurge a un elemento imprescindibile per la gestione e la manutenzione infrastrutturale, in quanto si estende letteralmente oltre le operazioni autonome, il processo decisionale resiliente e l’ottimizzazione. La generazione di informazioni utilizzabili è sempre più dinamica e complessa. Ma con l’aumentare dell’automazione, aumentano anche i problemi etici e le opportunità di un loro uso improprio, con invasioni della privacy e altri tipi di conseguenze. «La competitività sarà determinata anche dalla governance etica dei dati e dell’intelligenza artificiale, in altre parole, da come i dati vengono trasformati in informazioni per creare elementi di differenziazione ad alto valore aggiunto per prodotti, clienti e mercati di riferimento».

Nel 2022, il 75% delle aziende svilupperà un sistema di gestione unificato per cloud, reti e data center di proprietà, con il primo obiettivo di contrastare le minacce alla resilienza aziendale che derivano dai costi dell’infrastruttura e dalla complessità operativa. «L’adozione di workload cloud-native, microservizi e infrastrutture basate su container – sottolinea Patano – genera un flusso quasi costante di aggiornamenti di applicazioni e di infrastrutture. Il consumo di risorse è diventato sempre meno prevedibile e i costi sono difficili da ottimizzare. Allo stesso tempo, i team IT faticano ad aggiornare i livelli di competenza e i processi per garantire sicurezza e conformità in questo panorama dinamico».

Inevitabilmente, per far fronte a questi rapidi cambiamenti, le squadre addette alla gestione dell’infrastruttura aziendale spostano la loro attenzione da strumenti, modelli, CMDB (configuration management database) e governance basati su workload specifici, verso l’implementazione di un’automazione più agile, programmabile e basata su soglie ed eventi, uno strato di automazione che potrà essere applicato in modo coerente a una molteplicità di cloud, data center e interconnessioni. Questo è reso possibile dalla disponibilità diffusa di strumenti di “osservabilità” basati su intelligenza artificiale e machine learning, analisi e policy operative a loro volta software-defined.

RETI MOBILI 5G

Un quinto fattore di spinta, soprattutto a livello Edge, a supporto di tanti progetti basati su sensoristica wireless e comunicazioni machine-to-machine. Come spiega Daniela Rao di IDC Italy, il 5G, che consente una densità molto maggiore di connessioni, maggiore larghezza di banda e minore latenza, sarà determinante per la nascita e lo sviluppo di molti casi d’uso IoT. Tuttavia, si deve segnalare che le connessioni 5G nel 2021 rappresentano solo il 3% degli oltre 105 milioni di SIM Human e M2M attive. «Non esiste però soltanto la tecnologia 5G per venire incontro alle esigenze di connessione tra macchine» – ricorda Daniela Rao. «Standard come LPWAN (Low Power Wide Area Network) e tecnologie di rete mobile NB-IoT e LTE-M, si sono affermati già da qualche anno per la trasmissione di flussi ridotti di traffico di oggetti connessi distribuiti su aree estese, tipici in molti esempi di applicazioni IoT, come la lettura dei contatori e il rilevamento della posizione di veicoli».

Leggi anche:  Eni main partner di Zero, l’acceleratore italiano per le start-up Cleantech

Nel 2020, Wi-Fi e linee di rete fissa sono stati utilizzati in oltre il 40% dei progetti IoT, seguite dalle reti satellitari e mobili utilizzate in circa il 30% dei casi. «Ed è probabile che tutte queste tecnologie continueranno a convivere per supportare la maggior parte dei progetti IoT nei prossimi 3 o 4 anni» –prosegue Daniela Rao. «Nei prossimi anni, gli aggiornamenti LPWA, 4G e Wi-Fi 6 potranno affiancare la crescita di molti casi d’uso IoT, mentre le implementazioni che richiedono centinaia di migliaia di dispositivi in movimento e connessi su un unico sito cellulare, rientrano nei casi più futuribili e strettamente legati all’estensione della rete 5G». In futuro – riconosce Daniela Rao – «diverse applicazioni dipenderanno fortemente dalle funzionalità 5G, mentre altri casi continueranno a funzionare senza 5G, e altri ancora potranno richiedere la presenza di più tecnologie di rete fissa e mobile integrate». La coesistenza di reti fisse e mobili in grado di agire in continuità sarà anzi una caratteristica di campi di applicazioni interni ed esterni alle imprese, in uno scenario dove alla maggiore astrazione delle risorse fisiche di rete corrisponderà una crescente “materializzazione” di Internet, in termini di offerta di servizi integrati con gli oggetti fisici. «Pensiamo per esempio a sistemi computazionali sul bordo delle carreggiate e a bordo dei veicoli, ai sensori, ai dispositivi della realtà aumentata e agli apparati che abilitano i sistemi di produzione dell’Industria 4.0».

Dal 2020, anche a seguito dell’emergenza sanitaria, per gli operatori di telecomunicazioni è diventato ancora più evidente che per tornare a crescere l’automazione e la virtualizzazione della rete giocano un ruolo essenziale, non solo per fornire connettività alla popolazione, ma soprattutto per sperimentare nuovi modelli di business che non siano puramente basati sul trasporto dei dati. Le telco insomma diventeranno probabilmente grandi aggregatori di servizi IoT. «Cloud, mobile edge computing e 5G sono le priorità degli investimenti tecnologici degli operatori europei nei prossimi tre anni» – afferma Daniela Rao. «L’evoluzione della rete con un’architettura telco-cloud, incominciata con l’applicazione dei principi NFV e SDN, proseguirà con l’integrazione di tecnologie di machine learning e intelligenza artificiale, per creare una rete di nuova generazione che auto-risolve i problemi e risponde in modo proattivo alle minacce alla sicurezza». Come già accennato, soluzioni MEC (multi access edge computing) saranno implementate nei principali punti di presenza territoriali con l’obiettivo di fornire nuovi servizi con tempi di latenza sempre più contenuti e delocalizzare le capacità di elaborazione dei dati senza sovraccaricare il core delle infrastrutture. L’approfondimento su cinque tematiche di particolare spicco nel dominio delle infrastrutture per data center non esaurisce i motivi ispiratori di questo dossier. Forse, il tema più importante e complesso riguarda la crescente dipendenza del settore produttivo e dell’industria dello svago da infrastrutture che man mano sfuggono al controllo diretto delle organizzazioni che sviluppano ed erogano i servizi. In questo senso, i report pubblicati, anno dopo anno, da Uptime Institute, insistono in particolare sul monitoraggio degli episodi di “outage”, di interruzione di servizio. In un sistema sempre più virtualizzato e condiviso, le conseguenze delle interruzioni di servizio possono essere devastanti. Come ha dimostrato, nel marzo scorso, l’incendio che ha distrutto uno dei data center (l’SBG2) e parzialmente danneggiato un secondo centro della “quadrupla” facility gestita dall’operatore francese OVH, uno dei servizi di hosting avanzato più importanti in Europa, nel suo campus di Strasburgo.

L’incendio, forse originato da due gruppi UPS, ha creato scompiglio facendo scomparire da Internet le pagine Web e le applicazioni di migliaia e migliaia di aziende. Octave Klaba, l’imprenditore franco-polacco che ha fondato e guida OVH, si è speso pubblicamente per informare i suoi clienti sulla natura dell’incidente e sulle manovre di ripristino dei servizi. In due settimane (l’incendio si era verificato il 10 marzo 2021), la squadra di pronto intervento di OVH era riuscita a ripristinare il grosso delle attività utilizzando i server dei tre data center rimasti operativi e dislocando il resto nelle altre infrastrutture dell’operatore. In questo periodo, la fabbrica che assembla materialmente i server fisici utilizzati nei centri ha costruito qualcosa come 15mila nuovi server. Klaba ha costituito un gruppo di lavoro incaricato di analizzare le cause del disastro con il dichiarato obiettivo di evitare che certe eventualità possano ripetersi in futuro. È chiaro però che questo sforzo non deve essere responsabilità di una singola azienda, anche se il comportamento di Klaba e di OVH nei giorni successivi costituisce senza dubbio una lezione valida per tutti sul modo di gestire un disastro di questo tipo sui tre piani della prevenzione, degli interventi nell’emergenza e del recupero del danno alla reputazione. L’incendio di Strasburgo deve portare a un ripensamento delle misure di controllo e sicurezza fisica all’interno dei data center, ma anche della contrattualistica, delle responsabilità di natura legale, delle eventuali forme di compensazione dei clienti che subiscono disservizi così importanti. È un discorso che si lega al tema della governance così come è stato discusso alla tavola rotonda organizzata da Data Manager sul cloud computing, il cui resoconto è disponibile in questo stesso numero. L’evoluzione che il settore dei data center ha subito in questi anni non è solo questione di come ri-allocare i nostri workload.