La trasformazione digitale è entrata nel suo secondo capitolo. Quello dell’innovazione “esponenziale”, in cui novità tecnologiche e di processo influiscono le une sulle altre. Alla base una infrastruttura IT che pur diventando fluida acquisisce una centralità definitiva

Tenere periodicamente il polso al cambiamento del business è un compito tanto più doveroso quanto più sono mutevoli le spinte di carattere tecnologico e organizzativo che sottendono a tale evoluzione. La trasformazione digitale non può essere un fenomeno lineare perché il “digitale” scorre come un torrente in piena. Il nocciolo del problema rimane tuttavia costante: il diverso rapporto che le aziende hanno con la tecnologia e la capacità di mettere a frutto quelli che vengono definiti “pilastri” della trasformazione per sovvertire le regole del business, sia esso di natura tradizionale o già innovativo; per fare in modo radicalmente diverso ciò che si faceva prima, mettendo sempre più cura e intelligenza nei prodotti; per individuare nuovi spazi di mercato e nuove marginalità; per resistere meglio alla concorrenza e creare nuove forme di collaborazione in ambiti inaspettati e tutti da scoprire.

Con questo dossier Data Manager torna quindi a ragionare su come le nostre realtà imprenditoriali, l’industria dei servizi, la pubblica amministrazione, interpretano oggi concetti come cloud computing, analytics, mobilità e comunicazione social nelle loro evoluzioni più recenti. Si pensi in particolare a due grandi tematiche: il ruolo delle infrastrutture iperconvergenti che in questo momento rappresentano uno dei comparti maggiormente in fermento dell’automazione del data center e dello sviluppo applicativo; e il ruolo crescente dell’intelligenza artificiale e del machine learning nell’approccio all’analisi dei dati, all’erogazione dei servizi e alla sicurezza. Quali sono i livelli di adozione? Come questi concetti vengono utilizzati per assecondare il processo di adeguamento aziendale ai paradigmi del digital business e alle nuove modalità di lavoro, ideazione dei prodotti e la loro trasformazione in servizi, la relazione con il cliente? Come viene affrontata la sfida tecnologica, organizzativa e culturale rappresentata da un cambiamento che per le aziende consolidate significa trovarsi a sostituire importanti pezzi del proprio motore informatico a bordo di una vettura ancora in corsa? Come è possibile incrementare la percentuale di successo dei progetti di trasformazione?

INNOVAZIONE A PICCOLI PASSI

Una possibile strategia consiste nel seguire l’onda dell’innovazione su scala limitata, in progetti molto circoscritti, inserendo nuove figure tecniche o “ibride”, capaci di fungere da cerniera tra le diverse funzioni aziendali e favorire una trasformazione che riguarda anche il tradizionale dialogo tra responsabili delle infrastrutture informatiche o delle cosiddette operations e il lato business del management aziendale. Una sfida e un insieme di obiettivi da attaccare in primo luogo sul piano della cultura aziendale, del lavoro di squadra, delle competenze da acquisire e formare, della relazione con il mondo delle soluzioni e della consulenza. Persino delle regole che sono state finora alla base della gestione finanziaria e della contabilizzazione delle risorse tecnologiche, come era forse inevitabile nel passaggio verso infrastrutture virtuali che utilizzano in proporzione man mano inferiore server di proprietà installati all’interno dei data center aziendali.

Secondo Fabio Rizzotto, associate vice president e responsabile delle attività di ricerca di IDC Italia, che come sempre fornisce la sua preziosa assistenza alle inchieste di Data Manager – «la trasformazione digitale, intesa come processo continuativo attraverso cui le aziende cercano di adattarsi ai radicali mutamenti che le tecnologie inducono nei processi interni, nei mercati, nei loro clienti, è entrata in una nuova fase». Quella che IDC definisce di – «multiplied innovation» – una terminologia che rimanda alle serie aritmetiche e che potremmo tradurre come – «innovazione esponenziale». Che cosa significa? Vuol dire – osserva Rizzotto – che la competizione sui mercati è sempre più alimentata dalle piattaforme e dagli ecosistemi e che l’innovazione alimenta se stessa in un continuo gioco di sponda. Mutamenti radicali investono il modo di fare business nei diversi settori di industria, nelle aspettative dei clienti, nei livelli di efficientamento delle procedure, mentre la società nel suo complesso registra lenti ma costanti miglioramenti nella propria quotidianità.

Le tecnologie permettono di inventare prodotti e servizi nuovi, ma anche nuovi canali di vendita, e strumenti e formule di pagamento. Persino l’antica roccaforte della burocrazia è percorsa da questo vento di trasformazione: forse con lentezza, i cittadini-clienti si accorgono di trascorrere un po’ meno tempo in coda, di avere una relazione più diretta, personalizzata con gli uffici; cosa che consente loro di arrivare più velocemente al cuore delle varie incombenze, di arrivare più in fretta a una soluzione, a volte con l’aiuto di automatismi semplicemente inconcepibili in passato. «Eppure – riconosce Rizzotto – si registrano ancora molti casi di parziale insuccesso nell’attuazione del necessario cambiamento, a volte il successo viene completamente a mancare. Inoltre, non sempre l’impatto sulla società è così positivo. A volte il senso di fiducia viene meno e vengono meno posti di lavoro, alleanze. Sorgono nuove iniquità.

Le aziende che saranno in grado di affrontare l’innovazione esponenziale saranno invece sicuramente capaci di prosperare anche in questa seconda fase della trasformazione».

UN’ESPLOSIONE DI NOVITÀ

Nell’arco degli ultimi anni, mondo dell’ICT e manager aziendali si sono concentrati sulla trasformazione digitale, che le organizzazioni devono attuare, reinventando i propri modelli alla luce delle tecnologie della Terza Piattaforma (cloud, mobile, big data, analytics) e di una serie di “acceleratori” dell’innovazione, che IDC individua in sviluppi come l’IoT, l’intelligenza artificiale, robotics, 3D printings, next gen security, realtà virtuale e aumentata. Oggi, questa storia di cambiamento ha raggiunto da tempo un ritmo diverso e sta gradualmente raggiungendo una nuova massa critica dovuta all’adozione dell’innovazione su molteplici piani. «Le imprese stanno potenziando il loro “reach” digitale aprendo nuovi canali di relazione e utilizzando in modo pervasivo l’intelligenza estratta dai dati» – osserva Rizzotto. «Lo sviluppo di app e servizi è in un momento addirittura esplosivo. La prima conseguenza è che evolvono anche le aspettative del cliente. In parallelo, crescono la sicurezza e il livello di fiducia esteso all’intero ambiente del business digitale». Nel mutevole scenario tecnologico ed economico, le imprese più avanzate fanno a gara per espandere le proprie capacità di innovazione digitale, perché dall’innovazione deriva la capacità di competere in una economia che a sua volta diventa ancora più digitale e globalizzata.

Nel recente passato, IDC è stata testimone diretta di come la trasformazione digitale si sia evoluta, ha potuto misurare le opportunità e le sfide che essa pone al mondo imprenditoriale e non solo imprenditoriale. Che questo non sia un semplice cambiamento di facciata, ma un obiettivo di trasformazione profonda su larga scala, lo si evince dal grado di pervasività che le nuove tecnologie della telefonia cellulare, del Web e degli altri media digitali hanno raggiunto negli strati medi della popolazione, tra i non professionisti. Per questo motivo oggi tutte le imprese, indipendentemente dalle loro dimensioni e dal settore industriale di appartenenza, devono fare i conti con questa pervasività, adattando la propria azione sul mercato e la propria cultura interna a un mondo fatto di nuovi operatori, nuovi ecosistemi e nuovi modelli e modalità di fare business. «Non stiamo parlando di un futuro lontano» – incalza Rizzotto. Le stime di IDC dicono che entro un paio d’anni, già nel 2021, almeno il 50% del PIL mondiale sarà “digitalizzato”, avrà cioè una o più componenti digitali. «In questo scenario, i margini di crescita di ogni comparto saranno in qualche modo alimentati da un sistema di offerta, processi e canali di relazione digitalmente potenziati». Ma le previsioni non devono creare eccessive illusioni sulla facilità di questo percorso. «Se ormai tutti sono impegnati nella trasformazione digitale, solo una percentuale relativamente piccola di aziende riesce a cambiare senza commettere errori. Soprattutto all’inizio, l’organizzazione deve affrontare molte difficoltà a livello di change management, budget, gestione dei talenti, acquisizione delle piattaforme, dimensionamento e sostenibilità dei cambiamenti indotti».

L’ANIMA DIGITALE DELLE COSE

Prima di affrontare l’aspetto delle modalità di ingaggio e delle possibili formule del successo, cerchiamo di valutare l’entità economica di questo immane progetto work in progress. Su scala globale, la spesa complessiva in tecnologie e servizi in grado di abilitare la trasformazione digitale dei processi e dei prodotti – perché anche nelle aziende del mondo manifatturiero, anche nei prodotti industriali più pesanti oggi è possibile avere un’anima digitale, “software defined” che rende più efficienti i processi di ideazione, industrializzazione, vendita e manutenzione – sfiorerà i duemila miliardi di dollari nel 2022. In tutto il quinquennio dal 2017, la spesa per il rinnovamento dei processi aziendali in direzione del business digitale ha mostrato e continuerà a mostrare un segno molto positivo, per un tasso aggregato annuo pari quasi al 17%. Le previsioni di IDC vanno ancora più nel dettaglio. Nel 2020, si calcola che un terzo delle aziende raggruppate nell’Indice Global 2000, le prime duemila compagnie al mondo per fatturato complessivo, reinvestirà – come minimo – il 10% del proprio fatturato nel potenziamento delle rispettive strategie digitali. In questo massiccio spostamento verso un diverso modo di utilizzare le tecnologie a sostegno del business, metà della spesa prevista per il 2019 – 1.250 miliardi di dollari – sarà concentrata in quattro settori industriali: manifattura discreta (segmento per cui sono previsti 220 miliardi di dollari di investimento), manifattura di processo (135 miliardi), trasporti (116 miliardi) e commercio al dettaglio (98 miliardi). Lo sforzo del comparto manifatturiero verso la cosiddetta “smart industry” o la fabbrica 4.0 non può che essere massiccio. In gioco, c’è anche il fenomeno della convergenza tra IT e OT, ovvero tra tecnologie informatiche e operative, due ambiti digitali che hanno tuttavia avuto storie molto diverse dal punto di vista di sistemi operativi, linguaggi e protocolli di comunicazione e che solo oggi trovano nei protocolli di Internet e nell’evoluzione di microprocessori, microcontrollori e altre logiche programmabili, un comune terreno di dialogo.

Leggi anche:  Microsoft ha risolto il problema di Windows 10 October Update

Lo smart manufacturing è la principale voce di spesa nelle aziende di produzione sia discreta sia di processo. IDC ritiene che le due categorie di impresa possano investire 167 miliardi di dollari in progetti di smart manufacturing nel 2020, in parallelo a una spesa di ulteriori 46 miliardi di dollari in innovazione digitale e di altri 29 miliardi destinati nello specifico all’ottimizzazione digitale della supply chain. L’ottimizzazione della supply chain sarà la principale priorità strategica anche nel comparto dei trasporti, traducendosi in una spesa di quasi 65 miliardi di dollari in aspetti come la gestione delle merci trasportate e la calendarizzazione intelligente. Contemporaneamente, nel settore del commercio al dettaglio la prima preoccupazione è l’omnicanalità, che dovrebbe generare un investimento globale di 27 miliardi di dollari spesi in piattaforme di vendita multicanale, esperienza-utente in realtà virtuale/aumentata, marketing contestualizzato sul punto vendita, e strumenti di pagamento di nuova generazione.

INFRASTRUTTURA APP-COMPATIBILE

A Fabio Rizzotto chiediamo anche di affrontare il tema delle infrastrutture informatiche che dovranno sottendere a questo sforzo di trasformazione. Come cambieranno i paradigmi che riguardano le risorse di calcolo, archiviazione e rete rispetto ai tradizionali modelli delle reti dipartimentali client/server, dei sistemi mainframe e dei data center? Le iniziative di trasformazione digitale nelle aziende più innovative guidano – secondo l’esperto – tutto il discorso delle infrastrutture di data center, anch’esse in una fase di forte transizione.

«Le aziende che sono protagoniste di questo cambiamento mostrano un particolare appetito nei confronti di applicazioni di nuova generazione, considerate anche uno strumento facilitatore interno».

Il cambiamento di un’intera cultura del software applicativo di cui parla Rizzotto ha profonde ripercussioni sulle organizzazioni, le catene di controllo e i cicli di ideazione, sviluppo e testing delle applicazioni. Adottare questi nuovi modelli significa per forza doversi attrezzare per sostituire le modalità di una volta, lunghe, faticose e spesso strutturate per silos, con procedure di derivazione più moderna, tipicamente la metodologia Agile. Quest’ultima vanta radici storiche piuttosto lunghe e articolate, ma sul piano formale si sono consolidate a partire dalla seconda metà degli anni 90 fino a sfociare nella stesura, nel 2001, di un vero e proprio “Agile Software Manifesto”, seguito da ulteriori linee guida da agganciare ai concetti di product management in campo software. Alle metodologie di sviluppo, si affianca il lavoro svolto negli ultimi dieci o quindici anni sul piano delle architetture applicative e dei linguaggi: container, microservizi e framework di sviluppo innovativi sono anche la conseguenza della lunga onda di virtualizzazione che ha creato un complesso substrato di middleware di orchestrazione tra il fondamento hardware dell’informatica e il codice operativo ed eseguibile, il software.

«Le applicazioni vengono progettate in modo completamente diverso, in tempi diversi, e di conseguenza richiedono una svolta radicale nelle modalità di provisioning e di gestione delle infrastrutture» – spiega Rizzotto. «Al tempo stesso, abbiamo ancora a che fare con applicazioni di classe enterprise più tradizionali, che servono a supportare operazioni interne come la business continuity e la piena disponibilità di determinati servizi, che certo non possono venir meno». Questa dualità si basa anche su diversi requisiti infrastrutturali. Le infrastrutture IT di ieri e di oggi possono essere ancora molto rigide e compartimentalizzate. Ma questa non è più l’epoca dei silos: una delle maggiori difficoltà del cambiamento sta proprio nella necessità, per un insieme di risorse IT, di reagire prontamente – e in simultanea – alle diverse richieste di questa duplice classe di applicazioni aziendali. Un approccio più “applicativo-centrico” all’infrastruttura aziendale – ovvero la capacità di realizzare ambienti che richiedono nuovi livelli di scalabilità, automazione e flessibilità – è un obiettivo potenzialmente raggiungibile attraverso il cosiddetto CDI, l’infrastruttura “componibile/disaggregata. Questa nuova classe di infrastruttura convergente è capace di riunire risorse di calcolo, storage e commutazione di rete insieme ai necessari strati software abilitatori, offrendo anche on premises un’esperienza analoga a quella oggi sperimentabile con i servizi cloud.

Il rapido diffondersi di progetti di trasformazione digitale su vasta scala ha precise ripercussioni anche dal punto di vista dei modelli di erogazione e sfruttamento delle risorse IT, facilitando, sempre a livello globale, una sempre maggiore adozione di soluzioni cloud. «A sua volta, questo spostamento stimola una costante evoluzione sia nel profilo professionale sia nel ruolo di chi, nell’impresa, deve decidere quali tipi di infrastrutture IT acquisire» – ricorda Rizzotto. Oggi, la gamma di servizi di tipo SaaS, PaaS e IaaS a disposizione dell’utenza professionale e della pubblica amministrazione va a indirizzare una vasta gamma di necessità informatiche e business, dalle attività che gli americani chiamano “lift and shift” – la formula che definisce lo spostamento di una applicazione critica verso un ambiente operativo diverso senza interventi di riscrittura della applicazione stessa – fino alle nuove categorie emergenti di carico di lavoro. Il risultato è che anche da parte dei service provider del cloud pubblico cresce in modo sensibile la richiesta di infrastrutture IT capaci di erogare questo tipo di offerte, rendendo tale categoria di utenti uno dei protagonisti assoluti del mercato di sistemi di calcolo, storage e rete di nuova generazione. Le stime di lungo termine di IDC per il quinquennio 2017-2022 prevedono che la spesa in infrastruttura cloud “off-premises” crescerà per un tasso annuo aggregato del 10,8% fino a raggiungere i 55,7 miliardi di dollari nel 2022.

IL TRIONFO DEL CLOUD

Al momento, secondo le valutazioni degli analisti, almeno 1 azienda europea su 4 utilizza applicazioni di tipo “tiered” che poggiano simultaneamente su ambienti on e off-premises. Si tratta però in genere di applicazioni specifiche e isolate. Un gruppo molto più ristretto di pionieri – osserva Rizzotto – citando i risultati ottenuti da una ricerca svolta in undici nazioni europee tra 800 decision-maker IT e di altre linee di business – sta perfezionando gli accorgimenti tecnologici e procedurali necessari per sostenere questo modello applicativo nel corso del tempo.

«Questo significa che anche la messa in atto di una opportuna strategia multicloud comincia a diventare un’urgenza da parte dei responsabili IT»

– avverte Rizzotto che conclude con alcune annotazioni relative alle implicazioni a livello di organizzazione e processo di business. Essere attori di una economia digitale richiede una consolidata capacità di processare operazioni di tipo digitale, allineate e compatibili da un lato con interfacce ed esperienze-utente “iperpersonalizzate” e dall’altro con prodotti e servizi che siano “abilitati” sul piano dei requisiti di tutela e trasparenza informativa (vedi il caso della compliance con regolamenti come il GDPR). «In altre parole, per un’azienda che vuole essere profittevole, la trasformazione digitale non è un optional». Bisogna anche fare molta attenzione alle metriche utilizzate per valutare l’efficacia di una strategia di cambiamento. Oggi, circa il 40, 45% delle imprese è in grado di servirsi di indicatori (KPI) “digitali”. Chi non può disporre di metriche aggiornate rischia di far fallire i propri piani di trasformazione. «Le misure costruite intorno alle strategie e all’attuazione del cambiamento, insieme a un adeguato investimento di risorse, tempo e denaro riducono i rischi intrinseci a queste iniziative, e rafforzano le probabilità di concretizzare appieno i ritorni, in termini finanziari e di quote di mercato, connessi ai modelli di pianificazione di una strategia di trasformazione digitale.

Leggi anche:  ANSYS e PTC insieme per offrire una soluzione integrata avanzata per progettare alla velocità del pensiero

Come abbiamo sottolineato più volte, due aree in questo momento sono al centro dell’attenzione del management e dei CIO chiamati a governare la manovra di avvicinamento alla cultura dell’azienda digitale. L’infrastruttura diventa fondamento imprescindibile delle applicazioni e dei servizi e la rapida evoluzione del cognitive computing e dunque dell’intelligenza artificiale e del machine learning, come pervasivo motore di rinnovamento di un mondo in cui tutto sta diventando più smart: dall’automazione del “provisioning” – la configurazione e la messa in servizio delle risorse informatiche – al lavoro in ufficio; dalla valorizzazione dei dati alle decisioni che vengono prese sulla base delle informazioni estratte da masse sempre più voluminose e istantanee di dati grezzi; dall’ideazione, lo sviluppo e la logistica dei prodotti alla relazione con i clienti destinati ad acquistarli e utilizzarli.

L’intelligenza artificiale diventa una componente essenziale delle soluzioni di sicurezza, delle piattaforme di relazione con il cliente e dei nuovi strumenti analitici che entrano in gioco nel contesto – Big Data – di uno dei pilastri della Terza Piattaforma definita da IDC. Le stime di questo specifico comparto delineano un autentico boom. Nel 2019, la spesa globale in sistemi di intelligenza artificiale sarà di 35,8 miliardi di dollari, il 44% in più rispetto al 2018. Alla fine del quinquennio preso in esame da IDC, nel 2022, il volume d’affari sarà più che raddoppiato, con 79,2 miliardi di dollari, per un tasso annuo di crescita pari al 38%. La classifica dei big spender in informatica “cognitiva” vedono al primo posto i retailer, dove si prevedono forti investimenti in piattaforme e agenti che affiancheranno gli operatori umani nell’assistere la clientela, o in sistemi esperti che consiglieranno i clienti sugli acquisti da effettuare. Al secondo posto troviamo le realtà finanziarie, sempre più interessate a sistemi intelligenti di protezione antifrode. Al terzo le industrie manifatturiere di prodotti discreti, seguite dal farmaceutico e dal manifatturiero di trattamento. Nella classifica per tipo di applicazione, l’AI trionfa nei sistemi di CRM automatizzato, nei sistemi di raccomandazione e decisione nel processo di vendita, e nei sistemi di sicurezza e prevenzione di minacce di sicurezza, ma vanno forte anche “use case” come la manutenzione e la diagnosi preventiva, l’automazione intelligente di processo e i sistemi antifrode. La spesa continua ad avere tre componenti software, hardware e di servizio. Qui i valori più interessanti riguardano le soluzioni software (13,5 miliardi), seguite dagli investimenti in hardware e infrastrutture (12,7) miliardi. Il resto della spesa va in servizi di consulenza e integrazione, perché le aziende cercano in molti casi al loro esterno le risorse e le competenze necessarie per muoversi in un territorio ancora poco familiare.

IL FUTURO DEL DATA CENTER

È giusto però dedicare la parte conclusiva di questo dossier all’aspetto infrastrutturale, recentemente affrontato dalla stessa IDC nel corso di un recente convegno dedicato al futuro del data center. Chiamando sul palco i vendor ma anche una serie di testimonianze di trasformazione concreta, vissuta dai responsabili IT – Fabio Rizzotto e il collega Sergio Patano, associate research director di IDC Italia, hanno guidato una intensa mattinata di approfondimento sulle nuove articolazioni fisiche, ma anche sulla natura sempre più software defined e multi-cloud (e relative problematiche gestionali) di una infrastruttura che evolve proprio in funzione del primato del digitale e dei nuovi paradigmi applicativi, poco compatibili con i concetti tradizionali dell’informatica client-server e persino con i più avanzati livelli di virtualizzazione convenzionale. Lo stesso concetto di serverless computing, consolidatosi commercialmente con il lancio di AWS Lambda da parte di Amazon alla fine del 2014, ci allontana dalla metafora del server fisico o virtuale, da configurare fisicamente nel data center o come ambiente virtuale presso un provider IaaS, per introdurci in un’informatica dove il codice viene eseguito in una modalità “event based”, all’interno di una infrastruttura contabilizzata non per CPU e risorse pre-impostate, ma esclusivamente in base alle risorse impegnate per il tempo necessario all’esecuzione. Non a caso, un’altra definizione di serverless computing è FaaS – function as a service – e per spiegarlo si ricorre a una metafora telefonica: utilizzare un servizio di serverless computing è come tornare da una modalità di tariffazione flat, con un importo mensile cha abilita al download di un certo volume di dati, alla vecchia tariffazione a scatti, o per kilobyte scaricato.

Leggi anche:  innovaphone presenta la nuova piattaforma di comunicazione myApps ai propri partner

Il data center è davvero morto con l’avvento del cloud computing? È la domanda provocatoria che lancia sul tavolo Sergio Patano. «Nella sua versione monolitica – posizionata nel mondo fisico, presente nel perimetro aziendale o in co-location presso un host provider – in un certo senso è così. Questa concezione deve assolutamente evolversi a supporto della crescita aziendale e degli obiettivi della trasformazione digitale, delle sfide che essa rappresenta». Tutte le evoluzioni di cui abbiamo parlato, sul piano delle tecnologie, delle applicazioni, dei modelli organizzativi, richiedono un nuovo tipo di infrastruttura, sempre più software defined e aperta alle modalità di erogazione tipiche del cloud pubblico, governata da meccanismi di orchestrazione ricchi di automazione e intelligenza propria. On premises, il mercato del data center fisico assiste a una notevole crescita degli investimenti in sistemi integrati, a fronte di un aumento nella regione EMEA già registrato nel terzo quarto 2018, con un valore trimestrale di 873 milioni di dollari. Il sottosegmento più caldo di questo mercato, quello riferito ai cosiddetti sistemi iperconvergenti, nello stesso periodo viaggiava – pur rappresentando questi ultimi circa il 40% dei sistemi venduti – a ritmi di crescita superiori al 70%.

L’informatica iperconvergente, capace di riunire capacità di calcolo, networking e storage in un unico nodo fisico comprensivo dell’intelligenza di orchestrazione necessaria per gestire come un tutt’uno i tre tipi di risorse, è solo uno dei componenti di un data center sempre più software defined e sempre più aperto ad architetture infrastrutturali ibride, capaci di mescolare i tradizionali concetti di on premises, co-colocation, cloud privato, cloud pubblico e ibrido in un “cocktail” che presuppone una capacità di dialogo praticamente universale tra infrastrutture aziendali e ambienti multi-cloud.

«Si sta verificando un trend opposto a quello che in passato aveva spinto verso un forte consolidamento di risorse in un singolo data center»

– ha sottolineato Patano, concludendo il suo intervento con dieci previsioni che IDC formula per il periodo da qui ai prossimi cinque anni. Spiccano tra queste, il ruolo che l’autonomous computing avrà all’interno di infrastrutture in grado di funzionare, mostrando la loro flessibilità e resilienza, senza il diretto intervento degli amministratori. Entro il 2022, secondo IDC, il 50% degli asset IT aziendali potrà operare autonomamente grazie a tecnologie di intelligenza artificiale, mentre il 70% delle imprese adotterà soluzioni dinamiche di software defined networking per garantire sicurezze e flessibilità nell’interazione tra cloud, data center ed edge, la periferia del perimetro delle aziende. Proprio su quest’ultima, nei prossimi tre anni, si concentrerà una parte significativa degli investimenti, tesi a garantire la disponibilità di risorse e servizi digitali a utenti, clienti e oggetti. «Già nel corso del 2019 – spiega Patano – un’azienda su quattro abbandonerà ulteriori progetti di consolidamento a favore della modernizzazione e del cloud». Un altro segno di questa fluidità si legge nella crescente richiesta di soluzioni di “data vaulting”, finalizzate a mettere in sicurezza volumi di dati sempre più grandi e dispersi in situazioni diverse, sfruttando un meccanismo di collaborazione sempre più stretto tra operatori e co-locators, impegnati a mettere a disposizione strati di sicurezza intermedi e condivisi. La tendenza espressa da Patano nelle sue previsioni è confermata da Alessandro Cattelino, ICT manager di Gruppo Iren, in uno speech che ha ripercorso le strategie di un gruppo nato dalla successiva fusione di società energetiche e ambientali ex municipalizzate. Cattelino paragona l’evoluzione del data center al moto del pendolo.

«Siamo partiti dalla necessità di riunire in una unica sede centralizzata sette data center più piccoli. Oggi, stiamo già ragionando nell’ottica dei microservizi e del multi-cloud».

SOFTWARE DEFINED CAPITAL

La trasformazione digitale e la virtualizzazione hanno avuto un effetto dirompente sulle architetture e sull’esercizio dell’infrastruttura ma hanno anche contribuito a metterne in risalto l’assoluta centralità. Parlando con Data Manager, un altro speaker alla conferenza “Data Center of the Future” – Fabio Degli Esposti, CIO di SEA Aeroporti di Milano – sottolinea come l’infrastruttura sia un vero e proprio asset nel momento in cui l’impresa si rivolge a stakeholder particolarmente attenti alla soluzione industriale che essa propone. A maggior ragione in un aeroporto, dove temi come la sicurezza, la continuità e la resilienza sono determinanti per un vettore che sceglie di operare in una determinata location aeroportuale, dando la precedenza assoluta alla stabilità dei suoi sistemi. «L’operatività in aeroporto è sempre più legata ai suoi sistemi tecnologici» – afferma Degli Esposti. SEA per esempio sta introducendo il modello dell’eGate, i cui livelli di sicurezza non consentono neppure di accedere ai controlli di polizia se ci sono fattori che ti rendono incompatibile con il volo. «Non è l’uomo che controlla, ma la macchina. Il presupposto di tutto è il fatto che i sistemi siano gestiti su piattaforme di assoluta eccellenza. Non puoi più pensare di farti il data center in casa, ricondizionando l’ufficio che non ti serve, o mettendo i server nello scantinato. Ben vengano invece soluzioni che si affidano a tecnologie miste, perché non è detto che tutto debba essere per forza on premises o in cloud».

Le nuove architetture applicative rappresentano un obiettivo fondamentale, riconosce il CIO di SEA Aeroporti, ma il backbone che le supporta deve essere garantito da sistemi e data center di assoluta qualità. Questo significa riportare il concetto di data center in una posizione di centralità che secondo Degli Esposti si era attenuata soprattutto all’epoca del passaggio dai mainframe ai sistemi distribuiti. «Nel mio discorso, ho ribadito che da evoluzioni come i microservizi possiamo ottenere maggiore rapidità nel time-to-market e una risposta più efficace al business, ma l’infrastruttura non deve diventare più “snella”, bensì più forte. Può sembrare un contrasto, ma sta diventando la realtà». In questo senso – aggiunge Degli Esposti – “software defined” e cloud non significano affatto minor robustezza. «Al contrario, viva la capacità di virtualizzare, meglio ancora se su più operatori, anche diversificando dal punto di vista della geografia, considerando poi che oggi la questione della qualità delle infrastrutture di rete non rappresenta più un vincolo come in passato».

Come risolvere, infine, il problema di fondo di una trasformazione che punta a sostituire il motore di un’auto in corsa? «Questa è la vera complessità di progetti come il nostro, che possono diventare per questo più costosi». Tuttavia – conclude Degli Esposti – proprio il fatto di poter ricorrere a modelli multisito e multi-cloud può essere una grande semplificazione. «In alcuni casi, per esempio, abbiamo ricreato un ambiente esterno che ci ha dato l’opportunità di eseguire ogni tipo di test e prove di messa in produzione. Solo alla fine abbiamo smontato il vecchio». La difficoltà – sorride il responsabile tecnologico del sistema aeroportuale milanese – è come spiegare al CFO che dismissioni e cessazioni di contratti non portano a benefici immediati, ma sono dilazionati nel tempo. Anche la “trasformazione contabile” del resto, fa parte del complicato scenario di cambiamento che stiamo vivendo.

«Anche SEA oggi riesce a capitalizzare alcune soluzioni cloud, dimostrando che l’infrastruttura è un asset fondamentale, un investimento dilazionato nel tempo».