La sfida del business digitale si può vincere solo facendo proprie tecnologie che hanno nel modello cloud il fondamento dell’erogazione di servizi IT. Il giusto equilibrio tra costi, livelli prestazionali, compliance e sostenibilità

Anche negli spazi fisici dei data center soffia forte il vento della virtualizzazione del cloud computing. L’infrastruttura software defined verso cui puntare esce però da quegli spazi e comporta l’adozione di un insieme di soluzioni di edge computing, IoT e servizi esterni, che a loro volta devono essere supportate da un approccio alla connettività sempre più virtualizzato (secondo i paradigmi delle cosiddette software defined wide area network, SD WAN) e del wireless a bassa latenza definito dalla famiglia di standard del 5G. Che cosa comporta tutto questo in pratica? Il percorso di trasformazione ideale non esiste, ognuno deve procedere analizzando il contesto di servizio che oggi ruota intorno al data center fisico, identificare i colli di bottiglia tecnologici, eliminare i silos informativi e affrontare senza reticenze ogni possibile fattore frenante: la sicurezza, la problematica del risk management, la compliance normativa e i cambiamenti di natura culturale, che oggi agiscono forse ancora più marcatamente rispetto ai tradizionali limiti di costo o di velocità di implementazione. Per uscire dai vincoli del data center fisico occorre insomma abituarsi all’idea di inglobare mondi e provider esterni innovativi, nei confronti dei quali spesso non sussistono legami di familiarità.

E questo è un risultato che si può ottenere solo introducendo forti livelli di automazione, nel provisioning e nella gestione, e capacità di offrire una risposta in termini di governance smart e “distribuita” alle esigenze di una infrastruttura anch’essa distribuita, dispersa in geografie di servizio che possono non dipendere dalla capacità di controllo diretto da parte delle funzioni aziendali più tradizionalmente preposte alla definizione e alla guide delle architetture IT. La metafora della “sala macchine” cede il posto a una sorta di “albergo diffuso” delle tecnologie al supporto del business, il cui corpo centrale, il data center – pur continuando ad avere un ruolo fondamentale per l’insieme dei carichi di lavoro che il business decide di concentrare in un proprio ambito di competenza – non solo acquisisce ulteriori elementi di virtualizzazione, ma si trova in misura crescente a convivere con spazi funzionali per così dire extra-territoriali.

UNA SQUADRA DI DECISORI

La parola chiave deve essere collaboration tra tutti gli stakeholder che dalla infrastruttura virtuale possono trarre vantaggio. Non esiste più un singolo owner dell’infrastruttura, un “capo” del nuovo data center, ma un insieme di decisori che fanno scelte di natura tecnologica e di business al tempo stesso, il CIO con il CEO, il responsabile della sicurezza con i responsabili delle IT operations, dello sviluppo sempre più integrato (DevSecOp), della data governance, dei leader del business digitale. Tutto con una forte attenzione all’aspetto della sostenibilità ambientale di una infrastruttura che per quanto virtuale su un piano logico, si basa pur sempre su una tecnologia di calcolo, acquisizione dei dati e connettività che consumano energia e occupano un footprint di carbonio che deve essere il più possibile ottimizzato, portato ai massimi livelli di efficienza. In questo dossier cercheremo di andare a fondo delle tecnologie alla base del “nuovo data center” e di suggerire le tappe fondamentali del percorso di trasformazione delle infrastrutture tradizionali in ottica cloud. Tenendo conto del fatto che il traguardo della virtualizzazione non può essere uno scenario definito, ma deve rimanere fluido, molto orientato al tipo di servizi che il business intende erogare ai clienti – interni ed esterni – e soprattutto alla capacità di governo dei dati riferiti a questi servizi. Da questo dipende infatti la definizione dei confini mobili tra risorse fisiche centralizzate, architetture decentrate sulla periferia e il mondo ibrido dei servizi di natura IAAS, SAAS e PAAS che andranno inevitabilmente a comporre la mappa della nuova infrastruttura – di calcolo e di rete – completamente virtualizzata. Per questo viaggio faremo affidamento sull’autorevole guida di Sergio Patano, associate director, Research & Consulting di IDC Italia. Patano ha recentemente co-animato, insieme ai colleghi, l’edizione 2022 dell’evento IDC dedicato al futuro delle infrastrutture digitali. A lui, abbiamo chiesto innanzitutto un giudizio sui trend che oggi caratterizzano le scelte aziendali in materia infrastrutturale in una fase di piena affermazione dei modelli ibridi del cloud, in cui gli operatori pubblici svolgono un ruolo sempre più importante.

IL GIUSTO EQUILIBRIO

Poiché le organizzazioni di tutto il mondo continuano a sperimentare un’ampia gamma di architetture applicative e strategie di gestione dei dati, la decisione su quando e dove distribuire i workload sta diventando sempre più complessa. «I responsabili delle decisioni IT, del DevOps e delle Line of Business – spiega Patano – sono posti di fronte a una missione molto delicata. A differenza del passato, quando si trattava in pratica di adeguare la propria architettura IT alle esigenze di servizi relativamente standardizzati, rispettando determinati vincoli di budget, oggi per implementare una corretta politica infrastrutturale occorre imparare a bilanciare costi, livelli di prestazione, latenze, conformità normativa e sicurezza in una partita dagli equilibri molto più dinamici». Man mano che le architetture dell’infrastruttura digitale e i modelli operativi diventano sempre più autonomi e onnipresenti – continua Patano – «la decisione se distribuire i workload su cloud pubblico, data center dedicati on-premise, in hosting o Edge location sarà ancora più critica da prendere per il raggiungimento dei risultati di business a cui l’azienda vuole tendere».

Leggi anche:  La governance dei dati alla velocità del business

Secondo il Future of Digital Infrastructure Framework di IDC, la maggior parte delle grandi organizzazioni trarrà vantaggio dall’applicazione di operations autonome coerenti e strategie di distribuzione unificate e onnipresenti attraverso un continuum di tecnologie cloud-native che andranno dal core all’Edge e coinvolgendo siti di “datavault” e dispositivi IoT. Insomma, la gamma di scelte disponibili a chi deve assicurare al proprio business e ai propri clienti servizi digitali all’altezza delle aspettative e soprattutto allineati agli obiettivi sta aumentando rapidamente. Offrendo all’IT maggiori opportunità ma creando anche requisiti decisionali sempre più complessi. In questo contesto post pandemico, in cui molte realtà si sono fatte trovare impreparate ad adottare rapidamente nuovi modelli di lavoro cloud-based e in cui le applicazioni continuano a evolversi e l’intelligenza artificiale (AI) e il machine learning (ML) diventano sempre più pervasivi nei workload aziendali, i responsabili ICT devono sviluppare politiche e processi coerenti per ottimizzare le scelte di distribuzione dei workload e trovare quel giusto mix di compromessi per ottimizzare i risultati di business consentiti da un ambiente di infrastruttura digitale robusto e ben integrato, anche se non stiamo più parlando del tipo di omogeneità e coerenza, che ha finora caratterizzato l’architettura dei data center. «L’infrastruttura non può più essere rigida, a tratti monolitica come in passato ma deve diventare fluida, agile e flessibile» – afferma Patano. «Capace di rispondere in modo rapido, veloce e sicuro a un mercato che cambia direzione senza o con pochissimo preavviso e che è sempre più soggetto nelle sue fluttuazioni a fenomeni geopolitici globali».

VIRTUALIZZAZIONE REGINA

Per creare un’infrastruttura così diventa fondamentale continuare a portare avanti il processo di virtualizzazione, disaccoppiando in misura sempre più spinta il “ferro”, la macchina, dal servizio che questa macchina è predisposta a erogare. Fino ad arrivare al moderno concetto delle funzioni “serverless”, come punto estremo dell’astrazione dallo strato hardware. Nel corso del tempo, ricorda ancora Patano, il tema della virtualizzazione non ha mai perso valore. «Anzi il concetto si è ulteriormente allargato all’approccio software defined non più al singolo server fisico, o al data center di proprietà, ma all’intera infrastruttura digitale, che è alla base di qualunque offerta a consumo delle offerte IaaS, SaaS e PaaS di qualunque cloud provider». In questo contesto infrastrutturale, non devono essere rivisti in ottica software defined solo ed esclusivamente le componenti server e storage ma anche e soprattutto quelle di networking. Infatti, le informazioni devono fluire in modo rapido e regolare non solo all’interno del data center aziendale ma anche e soprattutto tra data center on prem e cloud “off prem”, ambienti IoT a supporto della produzione, e risorse di calcolo distribuite sull’Edge delle operazioni aziendali. Senza mai perdere di vista il fattore decisivo della “esplosività” dei dati, una linfa vitale di cui l’infrastruttura digitale è al contempo motore e strumento di governo. «Dati che non devono solo essere gestiti, archiviati e analizzati ma anche movimentati e a cui si associano costi crescenti» – afferma Patano. Diventa fondamentale procedere a razionalizzare e ottimizzare la componente networking anche in questo caso attraverso un approccio software defined, anche su una scala geografica che si estende ben oltre la tradizionale LAN, in modo da garantire l’utilizzo corretto di tutte le risorse disponibili, razionalizzare e contenere i costi e mantenere elevate le prestazioni per ridurre la latenza e incrementare la soddisfazione dei clienti siano essi interni, i colleghi, o esterni, gli end user.

CONNETTIVITÀ SOFTWARE DEFINED

Vincere la sfida della connettività sarà fondamentale se è vero che nei rilevamenti effettuati da IDC, due aziende su tre dichiarano di inviare i dati IoT e raccolti all’Edge a un data center centralizzato per le necessarie operazioni di filtraggio e analisi, mentre solo una è in grado di raccogliere e processare tutti i dati direttamente sull’Edge. Migliorare questa situazione è di vitale importanza per ridurre i costi e migliorare il time-to-market. E se un approccio software defined network è rilevante non è l’unico che deve essere preso in considerazione. «Le aziende devono cominciare ad adottare su larga scala soluzioni di automazione dei processi siano essi processi di business che soprattutto processi IT grazie all’implementazione di soluzioni sempre più pervasive di Intelligenza artificiale e machine learning». Nei data center ibridi e distribuiti del futuro, le aziende faranno insomma sempre più affidamento sulla cosiddetta AIOps, ovvero l’automazione delle operations IT guidata dall’intelligenza artificiale, per passare da una gestione delle operazioni reattiva a una proattiva e favorire la massima resilienza dell’infrastruttura ICT. L’intelligenza artificiale per le operations IT si riferisce – precisa Patano –all’applicazione mirata di soluzioni di AI/ML, Big Data and analytics, attraverso meccanismi di deployment fortemente automatizzato, in grado di mettere i responsabili dell’operatività tecnologica davvero in grado di affrontare le sfide della moderna gestione dell’infrastruttura. IDC prevede che entro il 2023, il 75% delle funzioni IT delle aziende G2000 adotterà operations automatizzate. Si andrà incontro secondo Patano a un radicale processo di trasformazione della forza lavoro IT che rafforzerà come non mai la scalabilità aziendale. Un’infrastruttura altamente automatizza è tra l’altro propedeutica allo sviluppo e l’implementazione di applicazioni e workload cloud native che sono a loro volta caratterizzati da architetture software basate su microservizi, un livello di scalabilità dinamico e “policy based” e una dimensione di ridondanza anch’essa intrinseca e funzionale alla dimensione e alle priorità dei workload. Così come automatizzati devono essere gli upgrade, le patches e i protocolli di test e la capacità di fare auto-provisioning dell’infrastruttura. «Soprattutto quest’ultimo aspetto non sarebbe pensabile in un modello architetturale non cloud» – osserva Patano. «Un’infrastruttura tradizionale non avrebbe quella elasticità e quella flessibilità necessarie e che possiamo ottenere solo grazie alla virtualizzazione e all’approccio software defined everything».

Leggi anche:  Samsung deposita il brevetto di un nuovo pieghevole

UN AMICO NEL PUBLIC CLOUD

Le soluzioni di public cloud infrastructure – conclude Patano – sono ormai diventate fondamentali per le moderne imprese digitali. «I public cloud provider stanno espandendo le proprie capabilities fisiche e tecnologiche per servire meglio i clienti in ambienti ibridi e su use case relativi all’Edge, per offrire sempre più un’esperienza capace di cogliere “il meglio di entrambi i mondi” e capace di soddisfare le esigenze dei clienti in termini di accessibilità, scalabilità e sicurezza». I casi d’uso Edge e le implementazioni di cloud ibrido saranno certamente i prossimi campi di battaglia per i fornitori di servizi cloud pubblici. Lo sviluppo di un’infrastruttura digitale o la scelta del partner tecnologico infrastrutturale a cui affidarsi sono già e lo saranno sempre più in futuro influenzati da tematiche legate alla sostenibilità aziendale. Secondo gli ultimi dati di IDC, quasi il 70% delle aziende di dimensioni medio-grandi inserisce all’interno delle proprie “request for proposal” obiettivi di sostenibilità. E oltre il 60% delle organizzazioni ha in essere programmi di efficientamento energetico Da questo punto di vista, obiettivi e investimenti sono tali che molte realtà stanno cercando di trovare il modo di inserire all’interno del proprio bilancio di esercizio anche voci legate alla sostenibilità, al fine di paragonare i risultati ottenuti in questi ambiti ai risultati di business. Come tradurre queste considerazioni in suggerimenti di carattere più operativo? Una recente pubblicazione di IDC analizza i casi dei partecipanti ai “Best in Future of Digital Infrastructure Awards” conferiti nel 2021, alla ricerca delle “lezioni” più utili che si possono trarre dall’esperienza di aziende che hanno saputo investire in modo efficace in infrastrutture digitali davvero allineate ai risultati di business. L’esempio degli innovatori dimostrano – secondo IDC – che una corretta strategia di allineamento tra gli investimenti in trasformazione infrastrutturale e gli obiettivi delle linee di business aiuta soprattutto a ridurre i problemi di dispersione, i fallimenti e i conflitti tra processi in via di cambiamento. Conflitti che spesso creano spazi di resistenza in cui i responsabili della trasformazione si trovano a dover affrontare situazioni in cui le persone in azienda cercano di aggirare le nuove modalità ricorrendo a procedure tradizionali.

Bisogna innanzitutto riconoscere – avvertono gli esperti di IDC – che la pianificazione e l’evoluzione di una infrastruttura saldamente agganciata ai risultati del business rappresentano un processo continuo e pervasivo che deve essere continuamente riallineato attraverso l’intera organizzazione. Tutti gli stakeholder del business e dell’innovazione digitale devono essere egualmente coinvolti e tutte le loro necessità devono essere rispettate. La velocità e la complessità del business digitale impongono che gli investimenti in infrastruttura ricevano il pieno sostegno da parte dei “business leaders”. Per questa ragione, può essere più che opportuno spendere tempo ed energie per approfondire la conoscenza delle opportunità che l’infrastruttura digitale può concretizzare. Questa consapevolezza è sempre alla base di una forte motivazione al cambiamento e tende a creare un clima di fiducia diffusa all’interno dell’organizzazione.

QUESTIONE DI RUOLI

Quali sono le figure organizzativamente coinvolte in questo lavoro di squadra? Anche qui IDC, sulla base delle esperienze vissute nei casi di maggior successo implementativo, ha definito l’ideale line-up di ruoli di responsabilità, raggruppando, accanto alle tradizionali funzioni C-level del business, alcune delle nuove figure che l’evoluzione delle tecnologie del cloud sta mettendo in crescente evidenza.

CEO e collaboratori diretti a livello di CdA –  Si tratta di funzionari senior che governano il business e che oltre a dover comprendere il valore delle nuove piattaforme digitali per i loro obiettivi, devono essere regolarmente aggiornati sui KPI della trasformazione.

CIO/CTO – La pianificazione della infrastruttura digitale deve essere affidati a manager IT che conoscono profondamente gli aspetti dell’architettura e delle applicazioni che devono subire i maggiori cambiamenti. La loro responsabilità è anche quella di far sì che lo sforzo di trasformazione sia accompagnata a ogni livello di piani specifici che accompagnano il DevOps, la strategia dei dati e i team ai quali sono affidate le innovazioni digitali.

Chief security e compliance officers – Integrazione e protezione dei dati, nel pieno rispetto delle normative sulla riservatezza e sulle eventuali regole di reporting e bilancio previste per i diversi settori di industria sono altri elementi critici per il successo della trasformazione.

Direttori delle IT operations e dell’IT service management – Gli esperti che hanno il controllo dell’operatività del data center e delle altre strutture formano un insieme di stakeholder non meno fondamentali: da loro deve venire la sicurezza che competenze, strumenti e processi si adattino ai ritmi evolutivi degli stack tecnologici che devono supportare.

Cloud architects e ingegneri della “site reliability – Sono figure cui affidare la dettagliata valutazione delle tecnologie e delle opzioni pertinenti ai servizi erogati in modalità cloud. Tecnici profondamente coinvolti nelle scelte riferibili alla standardizzazione, alla compliance, alla performance e alla scala dei servizi. Il loro ruolo è anche quello di promuovere la nuova visione tecnologica e assicurare un’appropriata configurazione, gestione e messa in sicurezza dell’infrastruttura.

DevOps leaders – A livello applicativo, i principi del DevOps sono uno dei pilastri del nuovo assetto informatico traguardato dalla trasformazione. Attenzione, però: implementare iniziative non correttamente inserite nei perimetri fissati dalle procedure di corporate risk management, può rappresentare un serio pericolo per la loro propensione a dar vita a silos organizzativi e informativi. I responsabili del DevOps devono per questo essere attivamente impegnati nella discussione sulle strategie tecnologiche, in modo che i loro obiettivi di velocità e agilità siano pienamente rispettati.

Leggi anche:  WeChangeIT Forum 2021. Back to basics, forward to the future

Chief data officers e responsabili della Data Science – Con l’aumentare dei livelli di intensità e pervasività del business digitale, i bisogni dei team di data scientist assumono progressivamente la stessa importanza di quelli espressi dai team di sviluppo. I progetti di digitalizzazione delle infrastrutture devono tenere in debita considerazione tutti i punti dove il dato viene generato e conservato; quali tipi di strumenti di protezione e gestione sono necessari; e in che misura l’accesso ai dati verrà democraticizzato e reso sicuro. La roadmap della trasformazione deve prevedere inoltre le varie tipologie di dati che verranno create e quali strumenti analitici e di machine learning, quali modalità di diffusione in streaming e che tipi di trattamento saranno necessari.

Responsabili del digital business – Sono queste le figure più centrali della trasformazione digitale dell’azienda perché a loro spetta il compito di conciliare la vision tecnologica e le risorse finanziarie che la rendono concreta. Il loro orizzonte è più vasto di quello contemplato dai colleghi dello sviluppo applicativo e della scienza analitica e li porta a intercettare le implicazioni di business che in definitiva alimentano gli investimenti in infrastruttura e servizi.

I casi di maggior successo – prosegue il documento IDC – enfatizzano come le iniziative di trasformazione oggi siano legate alla volontà di sovvertire lo status quo informatico accelerando drasticamente la velocità di deployment dei servizi, rompendo i vecchi silos procedurali e focalizzando tutta l’attenzione sui KPI individuati dal business. In molti casi, sottolinea lo studio, questo approccio richiede che i team tecnologici siano in grado di esportare molto rapidamente i workload fuori dal tradizionale data center e di impegnarsi proattivamente con nuove generazioni di service e cloud provider, aggiungendo elementi di automazione nelle operations IT e creando nuovi piani di governance.

CENTRI DI ECCELLENZA INTERNI

Una collaborazione sinergica tra i responsabili della futura infrastruttura digitale e la leadership aziendale è dunque fondamentale nel disegno di questa roadmap di cambiamento. IDC consiglia una serie di misure di carattere organizzativo e motivazionale alle imprese innovatrici che perseguono un obiettivo di affrancamento dal loro precedente sistema di regole. Può essere utile, per esempio, implementare uno o più centri di eccellenza interni, o altri tipi di programmi di decisione collaborativa o iniziative di FinOps. Questi ambienti congiunti offrono l’opportunità di discutere delle varie priorità strategiche e di passare al setaccio le decisioni sugli investimenti in tecnologia, sulle priorità in materia di sicurezza e compliance e sui motori della trasformazione del business. È molto importante identificare un ristretto novero di KPI focalizzati sui risultati di business da utilizzare come “luce-guida” dei propri sforzi di trasformazione. Ciascun team dedicato alla infrastruttura digitale potrà strutturare i propri KPI interni e la propria lista di obiettivi associandoli a questi indicatori strategici. Ovviamente, gli indicatori devono essere analizzati periodicamente e adeguati alle eventuali correzioni di rotta. È infine opportuno riuscire a spezzare i progetti di trasformazione infrastrutturale in una serie di fasi, ciascuna caratterizzata da risultati di business intermedi (per esempio, riuscire a ridurre il debito tecnologico, o centrare un obiettivo temporale più stringente per il lancio di un nuovo servizio). Al tempo stesso, una buona organizzazione deve assicurare che tutti gli elementi fondamentali di una piattaforma digitale – collegati alla compatibilità tra le API, l’integrazione e la gestione dei dati, l’automazione self-service del provisioning e la portabilità in ottica multi-cloud – siano omogenei alle diverse fasi di implementazione.

CONSUMPTION AS A SERVICE

Il corretto approccio alla progettazione del data center, come nucleo centrale di una infrastruttura digitale distribuita e sempre più virtualizzata, coinvolge anche l’evoluzione dei modelli di procurement di hardware di nuova generazione a supporto dei carichi di lavoro che l’azienda decide di mantenere sotto il proprio controllo senza rinunciare alla trasformazione delle architetture sottostanti. IDC individua in quest’ambito un trend che sta caratterizzando le scelte dei maggiori fornitori di tecnologia di calcolo, storage e connettività. Una modalità chiamata Consumption as a Service che indica la possibilità di dosare gli investimenti di natura “capex”, tradizionalmente dimensionati ex ante, in modo da finanziare solo le risorse hardware effettivamente utilizzate per il supporto dei servizi IT, anche quando questi servizi sono associati a risorse “di proprietà”. Il Consumption as a Service trasforma le tradizionali modalità di acquisto e successivo ammortamento in una formula vicina ai modelli di investimento “opex” oggi associati all’Infrastructure as a Service ed è particolarmente indicato in un contesto di cambiamento in ottica cloud first, per esempio dove sussistono importanti motivazioni all’uso di soluzioni di edge computing, server iperconvergenti, risorse di supercalcolo e così via. Uno degli effetti collaterali positivi di un modello che riduce sia il carico finanziario sia il rischio di investimenti sovradimensionati o non ben allineati con i propri obiettivi di operatività, è la possibilità di associare il Consumption as a Service a contratti di servizio che includono componenti di aggiornamento e life-cycle management di sistemi, ambienti operativi e piattaforme; di pre-provisioning di risorse aggiuntive da destinare alla gestione di improvvisi carichi di lavoro; e di configurazione e gestione remota di architetture particolarmente complesse, che possono richiedere competenze software difficili da acquisire. Le prospettive che si aprono in direzione della trasformazione del data center sono quindi sempre più favorevoli a un cambiamento che dobbiamo imparare a progettare e governare.