#SiamoForty: Visioni del futuro

Dal personal computer al personal data center. La spinta alla separazione tra i livelli fisici e logici delle infrastrutture ci porta verso un’informatica sempre più agile e pervasiva, con conseguenze distruttive e ricombinanti su un’economia di impresa che dovrà far tesoro delle competenze dei CIO per riorganizzarsi

Prevedere il futuro della tecnologia è un esercizio quasi sempre vano, per non dire fallimentare. Il futuro, per definizione, ti arriva alle spalle, quando meno te l’aspetti, ti supera a destra, ti spiazza, e te lo trovi di colpo davanti. Allora iniziano i problemi perché sei costretto ad adeguarti e adeguarsi è sempre un’operazione costosa e sofferta. Oggi, però la tecnologia viaggia molto in fretta, una parte del suo futuro è già quasi a portata di mano, fa capolino dai progetti open source più avanzati, cuoce lentamente ma continuamente nei pentoloni della Ricerca e Sviluppo dei grandi nomi del software. La seconda parte della nostra discussione è dedicata a questo futuro, ai trend informatici che già si stanno delineando e che le aziende più illuminate hanno già cominciato ad adottare, spesso ponendosi alla guida di grandi progetti software di tipo infrastrutturale. Le aziende e i vendor seduti al tavolo di Data Manager hanno percorso questi trend, cercando di tracciare gli scenari più probabili dell’informatica professionale che vedremo in azione nei prossimi anni, delle nuove dinamiche di mercato che la tecnologia sta rendendo possibili, creando un nuovo sistema di relazioni tra vendor di componenti e hardware, sviluppatori software, rivenditori, system integrator, provider di servizi e aziende che proprio in virtù della Terza Piattaforma sono chiamate a svolgere ruoli sempre più partecipativi, in un ecosistema che vedrà coinvolti tutti questi attori. Numerosi e molto stimolanti i punti che sono stati messi sul tavolo. Uno di questi riguarda le conseguenze più estreme della virtualizzazione, evoluzione del data center aziendale e della sua centralità. Siamo davanti al tramonto delle grandi infrastrutture proprietarie?

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Le questioni sono tante anche nella PA. Come l’urgenza di una commissione parlamentare che si occupi di innovazione e di un Ministero ad hoc in grado di affrontare i temi del diritto di accesso e della rete neutrale, dell’identità digitale, della concorrenza tra gli operatori e dell’apertura del sistema pubblico ai privati. Secondo Stefano Quintarelli, imprenditore high-tech, pioniere di Internet e attualmente deputato e presidente del Comitato di indirizzo dell’Agenzia per l’Italia digitale (AgID), in video collegamento dalla Camera – «molte PA non sono in grado di dialogare e spesso non scambiano i dati tra loro. SPID dovrebbe eliminare queste ridondanze, queste inefficienze». E parlando di futuro, la sfida più grande resta quella di costruire il domani, per usare il titolo del suo ultimo libro. Per Quintarelli, che a sua volta cita William Gibson, forse il futuro è già qui, è solo distribuito male. «E questa differenza di passo, fa sì che in tutti i settori dell’economia si stiano realizzando trasformazioni che da un lato creano grandi opportunità di benessere e di miglioramento della qualità della vita, dall’altro presentano nuove prove per la società umana. E la più importante disomogeneità sta nella differenza di passo tra lo sviluppo delle attività economiche e la lentezza delle istituzioni a comprendere e a creare un’adeguata risposta normativa capace di sfruttare la nuova “dimensione immateriale” a favore di tutta la società».

VIRTUALIZZAZIONE ESTREMA

La virtualizzazione ci introduce in una sorta di meta-ambiente informatico che va oltre le barriere di interoperabilità degli attuali “standard” architetturali hardware e dei sistemi operativi con strumenti “disruptive” come i software container. Oggi, l’informatica agile può avvalersi di tool di virtualizzazione, nati in ambito open source, che rendono possibili livelli impensabili di flessibilità nella gestione dei carichi di lavoro, con ulteriore ottimizzazione dei costi rispetto alla prima fase di virtualizzazione dei server fisici. Una rivoluzione che va a vantaggio di tutti i comparti che fanno affidamento sulla potenza di calcolo transazionale. Da questi fenomeni, sta gradualmente emergendo una nuova geometria applicativa da cui affiorano la cosiddetta API economy e un business digitale sempre più basato su un grande ecosistema di “microservizi” ed esposizione di dati aziendali. Le imprese focalizzate su un determinato business si trovano ormai a generare informazioni dirette o indirette (per esempio sul comportamento dei loro clienti, o sul funzionamento dei loro servizi) che la tecnologia permette di aggregare e riutilizzare per nuovi filoni di business. Ma le informazioni grezze possono essere “esposte”, o cedute, a beneficio di terze parti che potranno a loro volta sviluppare attività, anche del tutto collaterali, in contesti B2B, B2C o B2B2C. In campo manifatturiero si sta sviluppando il concetto di Fabbrica 4.0, quella in cui gli atomi dei prodotti industriali portano con sé una dose grande o piccola di bit, di intelligenza digitale, abilitando nuove prospettive per l’industria della produzione, gli smart product, la robotica e gli oggetti autonomi. Dal veicolo senza guidatore, alla fabbrica intelligente, le microcentrali di energia, la smart city. L’intelligenza “embedded” in tutti i prodotti industriali, persino nei tessuti e nei materiali di rivestimento, e in tutti i processi, inclusa l’edilizia dei prefabbricati o delle abitazioni “progettate” con tecniche 3D, aprirà una serie di impensabili nuove frontiere.

LA PERDITA DELLA CENTRALITÀ

Come sarà, in definitiva, l’informatica che si appresta a traguardare l’era della Internet of Everything, del mondo come computer? L’arrivo di un personal computer su ogni scrivania preconizzato dai pionieri della microinformatica, la crescita esponenziale della potenza dei server dipartimentali prima e delle server farm poi, fino all’avvento del cloud computing e del “data center as a computer”, ci hanno traghettato in un mondo molto lontano dalla centralità, dalla piena coincidenza tra risorse fisiche e logiche che Data Manager aveva raccontato ai suoi esordi. Che cosa succederà quando le informazioni cominceranno a fluire tra decine di miliardi di persone, esseri viventi, oggetti, nei punti geografici più diversi, in ambienti fissi o in movimento, ma tutti invariabilmente connessi?

Fabio Rizzotto, senior research and consulting director di IDC Italia, aiuta a definire i temi in discussione citando quelle che a suo parere sono già alcune tendenze che, dalla sua finestra di osservatore degli effetti della tecnologia sulla vita e l’operatività delle aziende, stanno già maturando negli incubatori delle imprese più innovatrici, proprio a partire dall’informatica della Terza Piattaforma. Rizzotto mostra una prima slide che indica una mappa di queste tematiche applicative, – Internet of Things, 3D printing, cognitive computing – i cosiddetti acceleratori della Terza Piattaforma, che prendono gradualmente piede, magari con sperimentazioni limitate, fino a diventare completamente “mainstream”. «Non c’è il tempo per esplorarli tutti, ma l’idea è che questi fenomeni sono già parte integrante del nostro modo di essere». L’elemento che deve interessare in modo particolare il management delle aziende e i loro responsabili tecnologici è duplice, sottolinea Rizzotto. «Un’azienda deve essere in grado di valutare se determinate evoluzioni hanno un impatto diretto sui propri obiettivi di business e una ripercussione sull’organizzazione. Ma è fondamentale sapere anche se esse avranno un impatto dentro l’ecosistema in cui si muovono, perché forse quello che ancora non ci è chiaro è come eventuali competitor e nuovi attori potranno utilizzare, far leva su queste tecnologie da qui a tre, quattro anni, per scompaginare ulteriormente scenari già oggi scompaginati».

SE ALLA GUIDA C’È UN ROBOT

Tutto, insomma, sarà sempre più interdipendente e sarebbe ingenuo guardare al futuro delle tecnologie come qualcosa che potrebbe non interessarci in prima persona, o smettere di porci domande sull’evoluzione che anche la “nostra” informatica, le “nostre” architetture dovranno subire. Il discorso si fa ancora più filosofico quando si prendono in esame le conseguenze di un mondo completamente digitalizzato, automatizzato e robotizzato, non solo sulle organizzazioni e i processi delle aziende, ma sulla funzione stessa del capitale umano. «Se tutto, intorno a noi, è digitale, saremo destinati a gestire solo le eccezioni?». Altri dubbi non mancano. Il digitale sarà in grado di sostenere l’economia mondiale? Quali saranno gli effetti sulle catene di valore e di fornitura, sulle norme che regolano tanti aspetti, incluso quello giuridico, della nostra vita? Provocatoriamente, Rizzotto cita un articolo di una rivista dedicata all’high-tech riferito alle auto senza guidatore: «Chi paga la multa se alla guida c’è un robot»?

In un contesto come il nostro, prosegue Rizzotto, vale però la pena segnalare alcuni fenomeni che impattano in particolare sul “motore” dell’IT, il data center e le infrastrutture tecnologiche, temi in realtà già ampiamente dibattuti come il cloud, la virtualizzazione, il DevOps, i software container. «Forse, la domanda che dobbiamo rivolgerci oggi riguarda il ruolo che il data center come lo abbiamo concepito finora avrà nelle aziende che si misureranno negli scenari futuri» – afferma l’analista di IDC, mostrando una rappresentazione dello spettro delle tecnologie emergenti suddivisa in quattro comparti. Il primo riguarda i progressi costantemente maturati nel campo del silicio, da processori e memorie. Il secondo si riferisce alle macchine virtuali e altri tipi di “computing vehicles” sempre più evoluti. Poi abbiamo gli ambienti di automazione e orchestrazione, popolati da piattaforme open source che aprono la strada a un mondo di microservizi informatici. E infine, i modelli di accesso alle risorse informatiche dove, secondo Rizzotto, dovremo abituarci a un approccio ancora più ibrido e liquido per scelte che oggi si collocano tra due estremi più netti, data center “in house” o cloud pubblico.

Leggi anche:  Storie di Cybersecurity

La lezione riassuntiva che si può trarre da questo excursus, dice Rizzotto, è che insieme alle tecnologie che già affollano la cassa degli attrezzi del CIO, si stanno affacciando una serie di novità che potranno giocare un ruolo importante nell’abilitare gli acceleratori di cui si è parlato prima. «Che siano architetture storage estremamente scalabili, o database concepiti secondo logiche cloud, piuttosto che le cosiddette next generation application, ciò che emerge è una completa rottura degli schemi tradizionali su cui era costruita l’intera architettura dell’IT fino ad oggi». Una rottura basata su logiche che ci astraggono sempre più dall’infrastruttura hardware, per trascinarci verso un’economia legata al digitale e alla capacità di ricombinare, attraverso le API, le interfacce programmabili, i servizi resi possibili in milioni di applicazioni in mano a miliardi di utenti. Uno scenario sfidante per tutti i CIO, ma anche per la relazione che lega le aziende ai fornitori di tecnologie e servizi consulenziali.

DALLE APPLICAZIONI AI MICROSERVIZI

Al posto di rapporti non più ingessati come in passato ma pur sempre regolati da lunghi contratti formalizzati, la nuova informatica dei microservizi, delle API e dei carichi di lavoro dinamicamente orchestrati su infrastrutture sempre più “ibride”, con la potenza computazionale gradualmente distribuita tra “core” del data center e “edge” della periferia più prossima al cliente, si affermerà piuttosto un tema di “solution creation” fondato sul coinvolgimento di end user e fornitori in un composito ecosistema di progetti di co-design, co-innovazione, co-sviluppo. Con un’avvertenza finale rivolta alle aziende che per stare al passo della futura economia digitale dovranno acquisire nuovi talenti. Secondo le ricerche dell’Unione europea, nel 2018 sconteremo un gap a livello continentale, tra domanda e offerta di skill in ICT, pari a oltre 420mila esperti. No, i robot non possono fare tutto.

Molti degli spunti suggeriti durante la fase preparatoria di #SiamoForty nascono nelle conversazioni con Massimo Messina, head of group ICT di UniCredit e protagonista, insieme a tanti altri colleghi CIO delle tavole rotonde che Data Manager organizza da due anni in collaborazione con il gruppo bancario. Anche per questo abbiamo chiesto a Messina di rompere il ghiaccio e fornire la sua visione su alcuni concetti e definizioni di un’informatica vista in prospettiva, costretta a trasformarsi, mantenendo al contempo la barra dritta sulla continuità del business. «Si deve partire – afferma Messina – dalla competitività dell’azienda. La capacità di assorbire questi tipi di tecnologie è quindi legata alla capacità di competere sul mercato, in termini di prodotti generati e di costi sostenibili. Il fenomeno cui assistiamo è una biforcazione rispetto alla gestione tradizionale dell’IT e ciò che emerge è una modalità che può consentire una velocità molto diversa rispetto a oggi, con profili di costo molto più bassi. Il problema non è se si riesce o no a farsi contaminare internamente da questi processi, ma in quanto tempo e se il tempo definito sarà sufficiente per essere competitivi e vincere sul mercato».

ESTERNALIZZARE È INDISPENSABILE

A evolvere, aggiunge Messina, non è tanto il costo, ma il fattore criticità della tecnologia. In passato si doveva scegliere tra questa o quella tecnologia di storage, o su un determinato ambiente. «Ma alla fine il conto economico non cambiava. Oggi, cominciamo a parlare di cose che vanno fatte in un certo modo, o di non riuscire a farle per niente». Proviamo a partire, prosegue Messina, dalla parte infrastrutturale. «Io che ancora mi diletto a scrivere qualche riga di codice ho fatto un esperimento. Ho preso una macchina online, una bella macchina, 50 giga di storage, un processore 4 core, un buon clock, banda di entrata/uscita illimitata. La pago tutto compreso 5 euro al mese, ci pago quello che voglio e ancora non ho registrato un problema». Davanti a un esempio del genere e confrontando i costi aziendali dell’infrastruttura, Messina ipotizza che l’esternalizzazione delle risorse di calcolo non è un’opzione, ma un preciso trend. «Riuscire a gestire la compliance è solo questione di tempo, ci sono già iniziative a livello europeo, come il Digital Single Market. Tutta una serie di questioni si vanno ammorbidendo, la sicurezza è sempre più indirizzabile». Messina non ha quindi dubbi che le aziende più infrastrutturate prima o poi avranno la possibilità di esternalizzare completamente la loro potenza computazionale. In linea di principio, sarebbe fin d’ora possibile far migrare sul cloud lo sviluppo di interi parchi applicativi, raccogliendo oltretutto significativi vantaggi in termini di costo complessivo delle risorse di testing, pre-produzione e produzione e gestendo con il DevOps le complessità legate ai processi. «Se certe sperimentazioni appaiono ancora molto ardite – sottolinea il responsabile ICT di UniCredit – molto è dovuto al patrimonio applicativo pre-esistente, il cosiddetto legacy, perché i costi di una migrazione “isofunzionale” risulterebbero, a tutt’oggi, proibitivi».

La questione, prova a riassumere Messina alla fine del suo intervento, è che le aziende si trovano davanti a scelte che non devono più distinguere tra approcci tecnologici diversi. «I trend a mio parere sono chiarissimi» – dichiara. Il futuro dell’informatica aziendale riguarda invece la capacità di delineare piani industriali che consentano di traghettare con successo dall’oggi delle infrastrutture al domani. Perché, secondo Messina, entra a questo punto in gioco il concetto di software container? «Il contenitore consente di dividere il problema in problemi più piccoli, ci permette di isolare le componenti vitali che fanno parte delle nostre applicazioni, interconnetterli e iniziare a distribuire quelle componenti sul cloud pubblico, in modo da avere subito applicazioni fatte in modo completamente diverso». Messina ritiene insomma, che con le tecnologie già disponibili è possibile suddividere una applicazione complessa in tante unità di esecuzione elementari, che rappresentano un container orchestrato, dal punto di vista delle risorse computazionali, in modo elastico, in base alle necessità.

L’INFORMATICA DEI LEGO

Il container, spiega Messina, è una struttura esecutiva standard capace di trasportare qualsiasi “contenuto” applicativo. Un contenitore che maschera all’esterno ciò che trasporta, ma che grazie alla sua modularità standard diventa duttile e componibile come il Lego. «Una volta che so come collegare queste scatole posso organizzarmi in modo estremamente dinamico». Le applicazioni stesse devono essere concepite in modo da poter sfruttare questo nuovo concetto architetturale del software. Qui entra in gioco l’altro concetto innovativo del microservizio. «I software container sono talmente efficienti che è possibile crearne tantissimi, anche migliaia, a ciascuno dei quali possiamo associare un lavoro chiamato microservizio». La standardizzazione di questi mattoni software rende possibile un modo di creare applicazioni su infrastrutture completamente virtuali, a costi molto ridotti ma con grande flessibilità, resilienza e disponibilità dei servizi. Un “Eldorado” che le grandi organizzazioni possono raggiungere attraverso un importante processo di ristrutturazione dei loro parchi applicativi. Nella duplice veste di presidente di CIO AICA Forum e CIO di Snam Gloria Gazzano prende la parola per osservare come i progetti di innovazione infrastrutturale hanno una duplice valenza in una prospettiva futura. Se da un lato – afferma la responsabile tecnologica di un gruppo che dopo essere tornato a concentrare in un unico brand le attività di Snam Rete Gas ha di conseguenza dato il via all’accorpamento di sette diversi data center in una unica struttura – le infrastrutture più agili sono più aperte a processi più snelli, veloci e di per sé innovativi, dall’altro l’accelerazione e l’ottimizzazione servono entrambe a liberare risorse da dedicare all’innovazione applicativa. Il tema, prosegue Gazzano, è quello dell’innovazione da portare in azienda, assorbendo e metabolizzando i concetti che Rizzotto e Messina hanno illustrato all’inizio di questa discussione.

«Dall’inizio del 2012, ancor prima che si parlasse di concetti come l’ecosistema dell’innovazione, Snam stava studiando il modo di orientarsi in un mondo così caotico e complesso. Censire quello che accedeva era la mia priorità, temevo che mi potesse sfuggire qualcosa di molto significativo». Da questa costante attenzione, racconta la CIO di Snam, è nato un vero e proprio sistema strutturato, che aveva alla base specifici processi, una propria organizzazione (anche se “ombra”, per evitare la burocrazia connessa all’istituzione di un vero e proprio dipartimento) e un obiettivo ben definito: capire che cosa stesse succedendo “là fuori”. «E quindi – spiega Gazzano – avere un’IT ben informata, che sfrutta l’ecosistema esterno, che è in grado di dialogare alla pari con i colleghi del business sui temi dell’ecosistema e su come riuscire a sfruttarli al proprio interno. Anche perché sono convinta che l’innovazione non sia un fatto episodico, né di una singola organizzazione, ma qualcosa che coinvolge tutto il mondo esterno». L’approccio deciso da Gloria Gazzano ha da subito cercato di utilizzare una varietà di canali di contatto. Uno di questi è la relazione con i fornitori, di cui Snam ha esplicitamente chiesto la complicità («non sempre corrisposta»). Un altro canale importante è quello delle startup: «Un mondo affascinante ma anche molto complesso da capire e integrare a causa delle differenze linguistiche, di diversi meccanismi reattivi». Nella prima fase di questa attività, fino a tutto il 2015, l’ufficio di scouting di Snam ha lavorato per selezione, studiando il mondo delle piccole imprese innovative, isolando le applicazioni più interessanti. I numeri di questo approccio non sono, ammette Gazzano, del tutto confortanti. «Abbiamo esaminato e classificato almeno 150 startup e ne abbiamo contrattualizzate un paio». In definitiva, una forma di innovazione complessa, a basso tasso di rendimento.

TORNA LA VOGLIA DI TECNOLOGIA

Con il 2016, l’approccio cambia. Il modello della pesca a strascico di nuove idee va a rilento? Snam decide allora di inquadrare da sola un argomento specifico su cui poter lanciare una call pubblica, coinvolgendo le giovani imprese e lanciando loro una sfida: «Immedesimatevi in Snam, cercate di capire come una grande azienda possa mettere in pratica idee “disruptive”. I primi esiti di questo capovolgimento di strategia per il futuro sono stati molto interessanti, anche se il lavoro fatto di stimoli costanti, e una variabilità degli strumenti usati per coinvolgere le persone è più impegnativo». Eppure, conclude Gazzano, un primo risultato di natura culturale è stato raggiunto. Snam oggi è un’azienda in cui oltre il 90% della spesa informatica è esternalizzata, il team guidato da Gazzano ormai si occupava più di contrattualistica che di IT. «Il fatto di aver risvegliato la voglia di tecnologia è un traguardo molto significativo».

Leggi anche:  Cloud navigator, la bussola per la nuvola

Il futuro delineato da Fabio Rizzotto e Massimo Messina ha nella velocità e bassa latenza della rete il suo asse portante. Qual è la vision di un operatore come Colt, tornato recentemente a focalizzarsi sull’originario mestiere del carrier, del trasportatore di informazione digitale? Sicuramente, una direzione da evitare è quella del puro abbattimento dei costi di cui si accennava prima, risponde Mimmo Zappi, amministratore delegato di Colt Italia. «Nel 2015 – racconta Zappi – Colt ha scelto di uscire dal mercato dei servizi cloud per tornare a concentrarsi sui propri asset strategici iniziali, la proprietà dei data center e l’infrastruttura di rete a livello globale. L’idea di fondo è quella di tornare a giocare un ruolo fondamentale nella componente del trasporto, garantendo la flessibilità, l’elasticità, la dinamicità di cui si parlava». Il concetto che Colt ha ereditato da 5 anni di esperienza nei servizi IT, è la modalità “as a service” che oggi, in virtù del paradigma della software defined networking stiamo applicando al mondo delle reti, destinate anch’esse a diventare sempre più “logiche” e virtuali.

IL BOOM DEL SOFTWARE DEFINED NETWORKING

«Da poco – continua Mimmo Zappi – abbiamo lanciato un’offerta che si chiama “DC Net as a service” con l’idea di mettere a disposizione a livello globale queste infrastrutture di rete estremamente flessibili, performanti. Oggi, i tagli di banda disponibili sono di uno e dieci gigabit, ma intendiamo scalare ulteriormente, applicando dei modelli di self-provisioning online, con un modello che resta cloud oriented e abilita i concetti visti prima attraverso il dinamismo nell’allocazione di banda come funzione dei carichi e delle priorità applicative». Secondo le stime di Colt, il mercato delle soluzioni di software defined networking avrà tassi di crescita del 50-70%, un’ottima ragione, sottolinea Zappi, per abbandonare il mercato dei servizi IT erogati in cloud ormai dominato dai grossi player mondiali che si stanno chiaramente muovendo verso modelli cloud sempre meno ibridi e più pubblici. «Nel prepararmi a questa conversazione – conclude Zappi – mi sono divertito a cercare il significato etimologico del termine innovazione. Deriva da “novare”, che tra i molti significati vuol dire generare qualcosa che non esiste, cambiare l’ordine delle cose. Ma il prefisso “in” – riferito proprio ai contenitori e ai contenuti ai quali faceva riferimento Messina – funziona solo nella misura in cui il contenuto ha un vantaggio per il cliente e un valore per gli azionisti dell’azienda».

Francesco Cavarero, CIO di Miroglio Group un’azienda tessile che ha sdoppiato il proprio business, servendo con la sua produzione una importante rete di punti vendita retail, in questo futuro sempre più software defined e virtualizzato, ha un’idea molto precisa di quello che potrebbe diventare il suo ruolo quando la “sala macchine” sarà diventata pura commodity. Ogni azienda ha evidentemente le sue specificità, osserva Cavarero, e le problematiche legate al data center sono inserite in un contesto. «Miroglio appartiene a una fascia di aziende che in misura crescente delegano all’esterno certi temi, mantenendo un forte presidio di conoscenza che permette loro di contrattualizzare e acquisire i servizi in modo consapevole, con contenuti noti. Ascoltando i miei colleghi mi è tornato in mente un intervento semiserio di Severino Meregalli di SDA Bocconi. Nessuno in azienda, diceva Meregalli, si interroga sul proprio ruolo come fanno i CIO o come viene loro richiesto di continuo: «Siamo sempre qui a chiederci che cosa dobbiamo fare, quali sono le nostre competenze».

CHIEF INFORMATION OFFICER

UN PATRIMONIO ESCLUSIVO DI COMPETENZE

Una ragione dell’insolita “amleticità” insita nella figura del responsabile tecnologico è l’estrema variabilità del contesto di mercato in cui si opera. «Veniamo da una storia in cui eravamo abbastanza autosufficienti perché depositari di conoscenze che avevamo soltanto noi» – racconta Cavarero. «Il problema più grande era farsi approvare il budget. La situazione attuale è stata descritta molto bene da Gloria Gazzano. I fornitori erano pochi, erano loro a portarci innovazione, ma oggi gli interlocutori sono tantissimi, molti fanno mestieri diversi e le vecchie barriere di capitale sono sempre più basse. Chiunque abbia un’idea innovativa può portarla avanti con pochi mezzi». Un mondo molto più caotico che spesso e volentieri cerca di parlare direttamente con quelli che erano gli interlocutori del CIO a livello di business. «Se il gioco è diventato questo, dobbiamo giocare la partita, facendo leva sulle competenze che continuiamo ad avere solo noi».

Cavarero si rifà all’intervento di Stefano Quintarelli, che aveva illustrato le novità dei servizi digitali della PA, finalmente ispirati ai criteri di apertura e compartecipazione, e che si era  soffermato anche su quello che a suo parere dovrebbe essere la funzione di un ministro per l’innovazione. «In modo molto semplice – ricorda Cavarero – Quintarelli ci spiegava che il ministro ideale dovrebbe sedersi insieme ai suoi colleghi, cogliendo tutte le possibilità di digitalizzazione che le questioni non digitali di per sé propongono. Ecco, dovrebbe essere così anche per il CIO, in mezzo ai colleghi che fanno un mestiere diverso, ma avvertono una serie di stimoli positivi, e devono essere aiutati a cogliere queste opportunità».

Se non per i prossimi quarant’anni, sicuramente per i prossimi quindici o venti resterà centrale, secondo Cavarero, il tema delle competenze e anch’esso dovrà essere affrontato dal CIO. Il responsabile tecnologico di Miroglio parla per esempio del ruolo della business intelligence, che ha subito uno stravolgimento. Operando nel retail, Miroglio oggi riesce a venire in possesso di una varietà e una mole di informazioni assai più significativa che in passato. Sono dati, precisa Cavarero, che i colleghi delle varie unità di business cominciano timidamente a utilizzare. «Come funzione IT, mi accorgo però che fatto salvo i particolari casi di colleghi che hanno avuto un percorso particolare, non ho tendenzialmente le competenze che servono per accompagnare il business in questa esplorazione». Una delle sfide future sarà il sourcing di questo tipo di competenze, un asset che le aziende, avverte Cavarero, dovrebbero coltivare e conservare “in casa”. «E così abbiamo lanciato una vera e propria startup interna, affidata a due colleghe che avevano tutt’altra mansione. Per qualche mese le abbiamo inserite in un contesto esterno all’azienda, abbiamo assunto uno sviluppatore e questa squadra di tre persone ha realizzato un sito, che promuove la creazione on demand di tessuti». Un modello di business prima sconosciuto, che ha dimostrato di poter funzionare con competenze nuove.

RAI, DA SPETTATORI A TREND SETTER

Il parere di Massimo Rosso, fisico teorico prestato alle infrastrutture informatiche e CIO di RAI, è che il futuro dell’ICT si sposterà finalmente sul valore dell’informazione, dopo tanti anni di focalizzazione sugli aspetti della comunicazione e della tecnologia. L’intervento di Rosso nel corso della nostra tavola rotonda è, come da mission aziendale, il più spettacolarizzato, pieno di continui rimandi ai personaggi e ai programmi televisivi di maggior successo. Fenomeni come la business intelligence, osserva Rosso, non sono nuovi e i broadcaster come RAI hanno cominciato a capirlo con l’avvento delle televisioni commerciali, quando il messaggio rivolto al pubblico non riguardava tanto la possibilità di comperare l’auto, come era avvenuto alla TV degli anni Sessanta, ma l’opportunità di scegliere tra tante opzioni diversificate. «All’epoca, era molto più semplice non solo perché i canali televisivi erano pochi. Come uomo IT, ritengo che la digitalizzazione di tutti i contenuti ha un valore importante perché dà la possibilità di sviluppare applicazioni che correlano il comportamento delle persone alla programmazione dei contenuti».

Leggi anche:  Metamorfosi digitale, l’evoluzione continua

Il pilastro social è sicuramente quello di maggiore interesse. Rosso ritiene straordinaria – per una media company e non più semplice “broadcaster” come RAI – la possibilità di poter sfruttare i dispositivi e le piattaforme social del web come “second screen”. «Qui il tema diventa veramente importante. Non fate l’errore di pensare che sia una fenomenologia che riguarda un’azienda di comunicazione, che ha già di fatto un prodotto dematerializzato. Perché tutti noi, con le nostre attività digitali, stiamo lasciando delle impronte». Questo, prosegue Rosso, ci deve far capire che al di là delle parole d’ordine ripetute a ogni convegno, le realtà aziendali hanno finalmente l’opportunità, valorizzando la “I” di ICT, di sviluppare algoritmi e analitiche che, indipendentemente dal settore di riferimento, permettono di studiare e capire i comportamenti delle persone. «Ma dobbiamo cambiare approccio, perché quando facevamo i report con SAP avevamo un approccio top-down e sapevamo prima come andava costruito quel report. L’approccio che dobbiamo avere da oggi è quello della “serendipity”: quando ci affacciamo su questi dati non sappiamo ciò che troveremo e non c’è visionario che l’abbia già immaginato».

COSTRUTTORI DI RETI DI COSE

Se dobbiamo dar retta a Rosso, ogni azienda avrà dentro di sé un pezzo di “media company”. Cosa tanto più vera per operatori globali come Vodafone, uno dei pochi, anzi probabilmente l’unico proprio in virtù della sua globalità, a perseguire una precisa strategia infrastrutturale nel campo della Internet of Things. «Se devo pensare al concetto che in modo più dirompente può portare l’etichetta di innovazione nel nostro settore è proprio l’IoT» – riconosce Alessandro Canzian, direttore marketing corporate di Vodafone. Un’applicazione trascurabile nei conti economici degli operatori fino a pochi anni fa, ha assunto un’importanza notevole anche nei budget di quei clienti che hanno iniziato a esplorare soluzioni di connettività tra gli oggetti in rete – che nel 2020 saranno 30 miliardi – e i loro servizi e prodotti. Vodafone in questo settore ha acquisito, proprio in Italia, una società di nicchia che si è rivelata un asset molto importante, continuando in parallelo il monitoraggio del mondo delle startup, perché, come dice Canzian, «anche l’innovazione va continuamente innovata». Non solo. «Il nostro mestiere di operatore, ci ha spinti a sviluppare una piattaforma di connettività con caratteristiche di sicurezza intrinseca, la Global Delivery Service Platform, che consente a chi concepisce un progetto di smettere di preoccuparsi di dove verrà commercializzato». La rete che Vodafone ha in mente deve abilitare una convergenza che va ben al di là dell’unificazione, ormai scontata, di voce e dato ma punta a incorporare «la vita digitale di un’azienda, di un consumatore, con la connettività di cui hanno bisogno quando si muovono nel territorio». Una rete, sottolinea ancora Canzian, su cui il data center deve focalizzarsi, per essere sempre a un “singolo salto” dal cliente che deve allocarvi il proprio carico di lavoro. Una rete in grado di rispondere alle future esigenze della API economy. «Il concetto che abbiamo sviluppato si chiama digital exposure e prevede che attraverso le API, la grande azienda, ma anche il piccolo sviluppatore o la startup, possa pubblicare in rete app che altri, attraverso un modello transaction based, siano in grado di riutilizzare costruendo nuovo valore» – conclude Canzian, rivendicando – per il buon funzionamento della rete come motore primario dell’economia del futuro – l’importanza di una qualità che può derivare solo «dagli investimenti e dalla capacità di dare giusto valore ai servizi».

IL VALORE DELL’ORGANIZZAZIONE

Ci sono altre due tipologie di rete che attraverso il crescente processo di digitalizzazione subito possono indurre effetti profondamente trasformativi. Alessandro La Rocca, head of the Organizational Structure Innovation Plans and Sales Integration e Strategic Planning Head Office di Trenitalia, che ha una responsabilità che lo vede a capo degli sforzi riorganizzativi dell’innovazione e dell’integrazione commerciale del grande operatore di trasporti, offre alla discussione un contributo molto legato alla sua lunga esperienza, in un’azienda che in passato lo aveva promosso a capo dell’esercizio dei sistemi informativi. «Parliamo di un portafoglio di 150 applicazioni e se oggi sono stato liberato da quella responsabilità, mi è rimasta una approfondita conoscenza dei processi interni a Trenitalia». Un’azienda, prosegue La Rocca, è tanto più innovativa quanto il CIO riesce a far corrispondere la “O” dell’acronimo a “organizzazione”. «L’innovazione a volte consiste nel risolvere un problema per conto di qualcun altro, qualcuno che non vuole saper niente di ciò che ha intorno, vuole raggiungere un obiettivo e ti prende in ostaggio fino a quando non hai trovato la soluzione». Spesso, aggiunge La Rocca, nelle aziende arrivano fornitori super-tecnologici che offrono servizi che il dipartimento IT riesce a implementare in tempi rapidi. «Talmente rapidi che gli aspetti organizzativi che ne conseguono sembrano rimanere immobili, come in un fotofinish». Il risultato è che un’azienda come Trenitalia dispone di soluzioni di capacità elaborativa distribuita, precision marketing, sistemi commerciali innovativi, molto poco sfruttati in ottica di business o di ottimizzazione e spesso a causa di problematiche organizzative, di scarsa conoscenza e condivisione dei potenziali di certi strumenti. Ma perché sarebbe importante creare un ponte più stabile tra il motore tecnologico di un’impresa e la sua macchina organizzativa, quella che può mettere a terra il potenziale del business? «Perché – risponde La Rocca – questo collegamento consentirebbe forse di cogliere in modo più efficace le opportunità che nascono dalla trasformazione digitale. Innanzitutto, l’arte di rimescolare le carte, di sovvertire modelli di business radicati nel tempo aprendo filoni nuovi e inaspettati. Un’azienda come Trenitalia, abituata a spostare passeggeri e merci da un punto all’altro sui treni, oggi è sempre più interessata alle storie dietro quelle persone e quei viaggi».

“MONO-RETISMO”

Il punto di vista conclusivo riguarda l’infrastruttura, altrettanto critica, dell’alimentazione elettrica. Una rete, sottolinea Luca Buscherini, direttore marketing di Riello UPS, che in un mondo sempre più integrato fa parte a pieno diritto di quell’insieme di infrastrutture e sistemi che stanno convergendo uno sull’altro. «Tutti i fenomeni di cui abbiamo parlato oggi hanno un impatto diretto sulle reti, i data center, le varie infrastrutture che hanno bisogno di essere alimentate. Al fabbisogno crescente di energia elettrica si può rispondere sempre meno con l’energia prodotta con metodi convenzionali e tutti ormai parlano di produzione energetica ecosostenibile. Stiamo passando da una modalità di tipo predittivo, basata per esempio su impianti a carbone o nucleari, a una generazione distribuita, con sistemi eolici, solari, turbogas, basata su sistemi di scambio bilaterale. Insomma, le reti elettriche diventano sempre più intelligenti». Con la convergenza aumentano i dati digitali da elaborare in data center sempre più potenti. Questi data center incidono sul fabbisogno di energia, che viene prodotta e distribuita da reti smart, che contribuiscono al circolo virtuoso con altri dati da elaborare. «In futuro, dobbiamo essere in grado di correlare i dati di chi consuma energia con quelli generati da chi la produce, un’immagine che dà il senso dell’integrazione tra i due mondi. Per noi, specializzati in soluzioni di alimentazione elettrica di installazioni critiche, è un trend importante, su cui stiamo investendo molto». Buscherini termina con un appello che suona alquanto familiare ai colleghi CIO. «Ci sono tanti problemi legati alla smart grid, ai suoi aspetti normativi, alla capacità di gestione di tutte le informazioni. Ma io vedo soprattutto un grande problema di sicurezza: stiamo parlando di dati sensibili, magari relativi al funzionamento di una centrale nucleare. Un attacco a questi dati può essere distruttivo non solo nei confronti dell’economia ma di interi territori». Da una risposta efficace dipende il futuro delle smart grid e della fondamentale relazione tra potenza di calcolo ed energia elettrica.