I mille volti del cloud

Cloud computing privato, infrastrutture ibride: i modelli dell’informatica “software defined”, di un diverso modo di concepire lo sviluppo applicativo, stanno finalmente prendendo piede. Con molte resistenze e freni di natura culturale e soprattutto formativa

 

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Parlare di cloud computing nel pieno del processo di digital transformation scatenato dall’avvento della cosiddetta Terza Piattaforma (di cui il cloud è principale pilastro) può sembrare quasi pleonastico. Ma il cloud computing non è un mero schema architetturale, un paradigma immutabile nel tempo. Le tecnologie di virtualizzazione, o se si vuole di astrazione dai livelli fisici di una risorsa computazionale (e non solo computazionale) su cui poggia questa efficace metafora, sono in costante evoluzione e soprattutto sono pervasive. Non sono solo le singole “macchine” a essere virtualizzate nel cloud: anche le risorse e le funzioni di storage e di rete si allontanano sempre di più, dal punto di vista delle configurazioni e dell’orchestrazione, dai rispettivi substrati hardware. In parallelo, cresce l’adozione di modelli cloud più ibridi, dove contano la capacità di orchestrazione tra risorse allocate on premises e sul cloud pubblico e la presenza di validi strumenti di monitoraggio della reale performance di servizi e applicazioni. Non è quindi banale tornare a interrogarsi sull’evoluzione delle infrastrutture aziendali, sui livelli di virtualizzazione del o dei data center, sulle decisioni progettuali da prendere nel caso di adozione di servizi di cloud pubblico, o per il dispiegamento di applicazioni in ambienti ibridi. Collateralmente, una discussione sul cloud può affrontare il tema delle tecnologie – spesso open source – che fanno da contorno all’informatica di nuova generazione, come lo sviluppo agile, le applicazioni basate su microservizi, il modello di virtualizzazione dei container, la gestione delle API nell’ottica di un business digitale basato sull’esposizione – sia verso i partner sia verso il cloud pubblico, di servizi e dati, delle nuove modalità di gestione dello sviluppo applicativo, del testing e della messa in servizio, attraverso strumenti di DevOps e di misura dell’application performance. Ancora una volta, i partecipanti alla tavola rotonda sono stati chiamati a discutere in modo aperto e interattivo, intervenendo sul livello di maturità che i paradigmi del cloud hanno raggiunto all’interno delle rispettive organizzazioni e sull’adeguamento al cloud dei modelli di sviluppo applicativo. Sui cambiamenti avvenuti all’interno del data center, come pure sulle figure tecniche e decisionali preposte al governo dell’evoluzione infrastrutturale. Sull’uso di strumenti e approcci avanzati, dal DevOps all’application performance management, dall’agile development ai microservizi. Ma anche sul fenomeno visto in ottica di ecosistema, tra clienti finali, partner B2B e fornitori di soluzioni, servizi cloud e consulenza di system integration a essi orientati.

Sergio Patano research & consulting manager di IDC Italia – Massimo Calabrese CEO di OPEN-V – Daniele Savarè head of Service Line ICT Evolution di UniCredit Business Integrated Solutions – Moreno Carandente IT manager di Edison

IL MOMENTO DELLA MATURITÀ

A Sergio Patano, research & consulting manager di IDC Italia l’usuale compito di aprire la discussione, rivelatasi particolarmente ricca di esperienze e spunti, con qualche numero sull’evoluzione di un mercato che oggi, sottolinea l’esperto, ricorda per tassi di crescita i fasti del settore informatico dei primi anni Novanta. «Fenomeni come il broadband o il mobile, la realtà aumentata e virtuale, crescono a due o tre cifre e sono tutti riconducibili alla cosiddetta Terza piattaforma e ai fattori di accelerazione della trasformazione» – osserva Patano, aggiungendo che oltrepassata la soglia del miliardo di euro di valore, il mercato italiano del public e private cloud pone l’Italia, con una quindicina d’anni di ritardo rispetto a un’onda tecnologica che gli Stati Uniti cavalcano dai primi anni del terzo millennio, nel contesto della piena maturità del cloud. «Le aziende stanno cominciando a inserire soluzioni di automazione per liberare risorse IT a fronte della riduzione dei budget e del personale che deve gestire l’infrastruttura.

Diventa necessario implementare soluzioni di automazione che liberino dalle incombenze del day-by-day e facilitare l’allineamento all’e-business, anticipando le esigenze dell’impresa prima che siano gli stessi responsabili delle linee di business, ad acquisire servizi sul public cloud, dando luogo al complesso fenomeno della Shadow IT». Uno scenario che molti interventi alla tavola rotonda confermeranno. Prendendo in esame lo stato dell’arte della virtualizzazione, Patano sottolinea il crescente interesse nei confronti delle tre aree “software defined” delle infrastrutture. Aumentano i progetti in cui la virtualizzazione delle risorse di calcolo, storage e rete viene affrontata congiuntamente, anche se al momento la tecnologia del software defined network è ancora in ritardo. Perché le SDN sono così indietro? Secondo un sondaggio IDC condotto su 107 aziende italiane medio-grandi, il 15% confessa di nutrire timori nei confronti di tecnologie per le quali non si dispone di competenze interne, a fronte di una analoga percentuale che dà la priorità all’innovazione solo quando se ne percepiscono concretamente i benefici. «Il grosso del campione rimanda l’adozione di nuove tecnologie a quando queste sono mature, ma questo implica che nel momento in cui vengono adottate le tecnologie non sono più nuove. Chi aspetta troppo corre il rischio di perdere i vantaggi dell’innovazione e della sua leva competitiva». Analogo il discorso su metodologie avanzate come il DevOps, i cui livelli di adozione sono però incoraggianti. «Il DevOps, finalizzato alla creazione di applicazioni sempre più time-to-market, vive un momento di forte riscoperta» – conclude Patano. «In un’altra survey europea, condotta su un campione di 280 aziende, il 51% dichiara di averlo già adottato, altri lo stanno valutando, ma con quali finalità? Innanzitutto per la agilità e la velocità, per rispondere meglio e in tempi ridotti alle richieste da parte del business e dei clienti, migliorando quindi la customer experience e incrementando le revenue».

In rappresentanza di gruppo UniCredit è Daniele Savarè, head of Service Line ICT Evolution di UniCredit Business Integrated Solutions a delineare le strategie cloud della banca di interesse nazionale. La maggior parte dell’infrastruttura UniCredit è in outsourcing attraverso una joint venture con IBM, spiega Savarè. «In un framework contrattuale da mezzo miliardo all’anno di spesa ICT, abbiamo avviato un piano di trasformazione che riguarda tutte le torri infrastrutturali tra cui la parte inerente ai servizi cloud. Il primo passaggio consiste nello strutturarci meglio anche a livello di processi e disciplina interni, per poter disporre di un private cloud». Nel contesto normativo al quale una banca è vincolata per legge, osserva Savarè, soluzioni di public cloud non sono altrettanto percorribili. Per UniCredit lo sforzo di normalizzazione anche architetturale serve a evitare di duplicare in cloud le decine e decine di piattaforme oggi esistenti nel fisico come nel virtuale.

Leggi anche:  Innovazione e controllo in banca. L’automazione dal volto umano

GOVERNANCE COMPLESSA

Questo non significa per UniCredit rinunciare del tutto a un approccio ibrido. «Sul public cloud sviluppiamo solo attività che non hanno necessità di memorizzazione di dati fuori dal data center. Per esempio, nell’high performance computing, dove aiuta molto disporre di grande flessibilità, abbiamo applicazioni in area rischi o gli ambienti di sviluppo dove tutti i dati sono anonimizzati e dove possiamo cogliere i vantaggi del DevOps». I benefici sono già evidenti, banalmente nel ridotto costo del consolidamento dei server ma soprattutto nella standardizzazione. «Il cloud ci consente di standardizzare molto la parte infrastrutturale e la parte applicativa. Questo – conclude Savarè – porta notevoli benefici indiretti, anche sul costo dell’operatività del data center». Come si procede dal punto di vista organizzativo e decisionale? «Quando il business manifesta un’esigenza, scatta un processo di demand management che stima i costi e disegna un’architettura, con un primo presidio da parte di un team infrastrutturale che decide quanto essa sia in linea con i nostri vincoli». Segue una fase di sviluppo per il provisioning di quanto definito e un’organizzazione interfacciata con l’outsourcer che controlla la riallocazione delle macchine. I progetti ultimati devono ricevere l’ok del “cliente” che li ha commissionati e prevedono un successivo piano di messa in produzione di release trimestrali. Un meccanismo di governance complesso, che permette di mantenere il corretto allineamento tra tecnologie e business.

In proporzione, interviene Moreno Carandente, IT manager di Edison, la complessità infrastrutturale e organizzativa della utility energetica è minore: «Anche Edison è in outsourcing con IBM e questo pone un limite – più di governance interna che di natura contrattuale – alle tecnologie utilizzate». In passato, Edison ha maturato diverse esperienze in ambito public cloud, ma il modello applicato alle infrastrutture software defined punta non tanto a soddisfare aspetti come la variabilità dei carichi computazionali, che sono piuttosto stabili, ma a rispondere a tematiche di agilità e velocità. «Abbiamo in pratica adottato un modello duale per affrontare con il cloud richieste estemporanee, che forse non arrivano neppure in produzione, ma che ci consentono di tamponare le richieste per poi strutturare un ambiente legacy più tradizionale». Edison, osserva ancora Carandente, ha attuato progetti di software defined network non tanto nelle connessioni al data center ma per esigenze di trasformazione legati ai nuovi contenuti multimediali poco compatibili alle precedenti infrastrutture MPLS. Per il futuro, è prevedibile una ulteriore evoluzione del cloud finalizzato al supporto di piattaforme di nuova generazione. «Nessuno si sognerebbe di configurare Hadoop su architetture non cloud, ma rimane l’esigenza di gestire queste nuove opportunità, quando su queste si è sviluppato del business».

Riccardo Garosi IT manager dell’Eco della Stampa – Alfredo Nulli CTO & EMEA cloud architect di Pure Storage – Giuseppe Pasceri CTO di Jobrapido – Roberto Contessa ICT manager di F.lli Branca Distillerie

IL CLOUD DIVENTA COGNITIVO

Massimo Calabrese, CEO di OPEN-V interviene, ribadendo l’importanza di due concetti espressi inizialmente da Sergio Patano di IDC. «Sono rimasto impressionato su due messaggi in particolare. Uno riguarda il software defined networking, ancora poco utilizzato, l’altro è il richiamo a una adozione più tempestiva dell’innovazione, che deve essere colta prima che diventi mainstream. Sono due messaggi assolutamente centrati». OPEN-V, prosegue Calabrese, è una engineering company la cui intelligenza è distribuita tra la California e la regione di Bangalore in India. I suoi giovanissimi sviluppatori producono una piattaforma completa open source – disponibile come appliance, on premises e as a service – che consente di costruirsi un’efficace infrastruttura cloud privata, “out of the box”. Il prodotto di OPEN-V  StackMax, implementa secondo Calabrese un approccio “cognitivo” al IaaS, adottando una virtualizzazione molto spinta anche per quello che riguarda quello che Calabrese considera il passo successivo dell’SDN, la Network Function Virtualization. «Tecnologie così avanzate, osserva Calabrese, oggi incontrano troppi freni dentro le aziende sia per fattori umani sia per l’attaccamento a processi ormai consolidati. Tutto questo rallenta l’adozione di strumenti come StackMax, che possono invece velocizzare il business, offrendo tra l’altro un dashboard centralizzato là dove occorre orchestrare risorse private e pubbliche in chiave di cloud computing ibrido».

La testimonianza di Riccardo Garosi, IT manager dell’Eco della Stampa, uno dei testimonial mondiali di OPEN-V, è in questo senso particolarmente istruttiva. Fondata nel 1901 e oggi leader assoluta del settore media monitoring, dove realizza servizi di rassegna stampa per radio e tv, web social media e supporti tradizionali, l’Eco della Stampa non è certo una organizzazione complessa o estesa. Pur essendo basata su una infrastruttura fortemente regionalizzata per assicurare la necessaria prossimità ai media locali – nel complesso – l’azienda conta solo 200 dipendenti. Il dipartimento IT, precisa Garosi, è di poche persone. «Disponiamo di due data center, uno dei quali dedicato al disaster recovery e abbiamo optato per il cloud in chiave IaaS per maggiore flessibilità, per poter superare certe necessità di elaborazione dei dati con forti carichi in determinate fasce orarie. OPEN-V ci ha consentito di semplificare al massimo la gestione». Pur essendo piccola, l’Eco della Stampa deve gestire una mole di dati davvero imponente: 150 canali televisivi, 400mila notizie web quotidiane, fino a 40mila pagine giornaliere di quotidiani e riviste. Il cloud computing, sottolinea Garosi, consente anche di essere particolarmente veloci nello sviluppo, con metodologie di tipo “Agile”, di nuovi servizi, con una catena organizzativa molto corta che, conclude il responsabile IT, favorisce la sintonia con gli obiettivi strategici. «Alcuni aspetti delle nostre applicazioni, per esempio l’identificazione automatica delle immagini televisive, realizzate con piattaforme GPU off-cloud, non è “cloudizzabile”. Ma è il business che guida tutto, sia l’adozione delle tecnologie sia lo sviluppo applicativo».

Leggi anche:  Business real-time, il dato entra in fabbrica

PROGRAMMARE PER IL SOFTWARE DEFINED

L’intimo legame tra il cloud computing e i framework applicativi più avanzati è la tematica affrontata da Alfredo Nulli, CTO & EMEA cloud architect di Pure Storage, specialista di sistemi di memoria di massa basati esclusivamente su tecnologia flash. Nulli spiega il ritardo nella diffusione di approcci software defined al networking con una considerazione che si rifà al Total Cost of Ownership degli apparati di rete: «Il motivo per cui molte aziende esitano davanti all’SDN è la presenza sul mercato di una generazione di dispositivi che hanno ancora molta intelligenza a bordo. Di fatto, scegliere SDN significa spendere due volte per una intelligenza che risiede nell’hardware e nel software». Nulli sottolinea anche l’importanza della demarcazione tra sistemi di archiviazione “software driven” – oggi la maggioranza – e “software defined”. «La vera infrastruttura software defined fatica a imporsi anche per problemi di scalabilità rispetto ai sistemi multipetabyte realizzabili attraverso le attuali piattaforme di virtualizzazione. Quando alle funzionalità software defined, devo aggiungere le prestazioni tipiche chieste dall’impresa, alta disponibilità, ridondanza, prestazioni, è ancora difficile raggiungere un TCO sostenibile rispetto a quello di modelli architetturali più tradizionali». Per Nulli però, al di là dei limiti tecnologici della componentistica, il vero salto di qualità arriverà quando il software defined riuscirà a colmare l’attuale vuoto formativo. «La Software Defined Infrastructure, a differenza di fenomeni del passato come Unix e lo stesso Linux, non emerge da una cultura universitaria, i giovani non ricevono sufficiente educazione superiore in materia». E infine si deve tener conto dei modelli applicativi, ancora fortemente radicati su infrastrutture fisiche o virtuali convenzionali. I processi aziendali, conclude Nulli, su applicazioni che non ammettono errori. «Bisogna ripensare questo approccio in ottica di microservizio per arrivare ad applicazioni per le quali le infrastrutture software defined saranno una logica conseguenza».

IL LAVORO IDEALE?

LO DECIDE IL MICROSERVIZIO

Un esempio estremamente calzante di questo approccio viene da Giuseppe Pasceri, CTO di Jobrapido, una “ex startup”, fondata nel 2004 da Vito Lomele, «la cui prima sede – racconta Pasceri – era davvero all’interno di un garage». Dopo una prima cessione al gruppo britannico editore del Daily Mail, il motore di ricerca di posti di lavoro è approdato sulle coste californiane con il fondo di private equity Symphony Technology. Con Pasceri, il search engine alla base di questo servizio, operativo in 58 nazioni e in 20 lingue, ha imboccato un percorso di cambiamento che lo ha traghettato verso il modello dei microservizi, con l’adozione di piattaforme come la ricerca distribuita di Elasticsearch e l’orchestratore di servizi Mesos. «Con un carico di un miliardo di visite all’anno – spiega il CTO di Jobrapido – siamo estremamente data driven e siamo partiti dalla convergenza dei data center per poi sviluppare in casa le tecnologie cloud. Oggi, stiamo scalando sia sulla parte di search engine sia sui microservizi da un mondo monolitico tradizionale al modello dei microsistemi e servizi, che oggi sono già più di trenta». Il progetto procede parallelamente a una trasformazione organizzativa che punta a creare team di lavoro cross-funzionali che grazie al cloud abbattono i normali concetti di silos tecnologici. «Il cloud elimina questi silos, ma l’aspetto organizzativo aziendale deve seguire su questa stessa traccia» – conclude Pasceri. In altre parole le linee di business devono essere orientate end-to-end su un determinato risultato e le decisioni non vengono prese perché c’è un silos che domina rispetto a un altro. «Quando c’è un team che si occupa dei livelli applicativi e infastrutturali, la metodologia DevOps è connaturata, non ha un DNA estraneo, da trapiantare». Forte di questa trasformazione, Jobrapido si sta orientando verso un motore di ricerca cognitivo, o come osserva Pasceri, “comportamentale”. «Non ci sarà bisogno di chiedere il curriculum vitae di un candidato: dai suoi comportamenti in rete, sapremo chi è e qual è il lavoro più giusto per il potenziale candidato senza neppure che lui lo sappia».

Da una Internet startup con meno di quindici anni di vita a un’azienda fondata nel 1905 e custode di una ricetta di famiglia per un liquore apprezzato in tutto il mondo, il passo tecnologico sembra essere molto lungo, ma Roberto Contessa, ICT manager di F.lli Branca Distillerie, ci ricorda come la trasformazione digitale sia davvero un comune patrimonio di idee e rinnovamento. F.lli Branca produce liquori, non software o prodotti ad alto contenuto tecnologico, osserva Contessa, ma non rinuncia al modello SaaS per le sue piattaforme strategiche ERP. «Come cambia il lavoro del CIO? Prima dovevamo fare “cherry picking” sui prodotti migliori, integrarli con i sistemi esistenti in azienda. Dieci anni fa, si lavorava per identificare il software più adatto e calibrare una intera infrastruttura hardware. Oggi, scegliamo un software erogato direttamente attraverso un cloud pubblico, un lavoro di natura più contrattuale per determinare i parametri per il rispetto di determinati SLA». Il cambiamento in Branca è iniziato da qualche anno e, sottolinea Contessa, è favorito da una dirigenza molto aperta al cambiamento. La “cloudizzazione” ha portato a un progressivo svuotamento della sala macchine Branca, a favore di un’infrastruttura basata sull’orchestrazione di applicativi e servizi, inclusa la messaggistica EDI su cui si basa la logistica esterna, anch’essa affidata a un intermediatore. «La complessità dalla gestione si è trasferita dalle macchine al networking tra i vari fornitori di servizio».

Giuseppe Ceglie responsabile del dipartimento Infrastrutture Tecnologiche di Lombardia Informatica – Dionigi Faccenda sales marketing director di OVH – Fausto Gentili IT manager di CRIF

SKILL E ANCORA SKILL

Proprio in rappresentanza di un fornitore di servizi hosting avanzati, si inseriscono a questo punto le considerazioni di Dionigi Faccenda, sales marketing di OVH. Il cloud provider francese, racconta Faccenda, è stato fondato nel 1999 da un giovane visionario di origini polacche Octave Klaba, nella sala prove del suo studio di musicista. La crescita recente di questa “azienda-data center”, testimonia l’enorme successo della virtualizzazione. «Solo tre anni fa, eravamo cinquecento. Oggi, siamo duemila persone e disponiamo in Europa, e non solo, di oltre venti data center, con l’obiettivo di raggiungere quota 27 entro fine anno e 50 entro il 2025. Per darvi un’idea: attualmente, la nostra capacità di messa in produzione è di cinquecento server al giorno, vantiamo più di un milione di clienti business e ospitiamo oltre 18 milioni di applicazioni. A conferma di quanto dice IDC, l’Italia è uno dei mercati più vivaci, e oggi conta 34mila clienti con una rete di partner molto efficace». Per lo sviluppo del suo public cloud, OVH utilizza la piattaforma OpenStack e la sua familiarità con le tecnologie VMware l’ha indotta pochi mesi fa, a rilevare dalla stessa VMware l’infrastruttura vCloud Air, realizzata su tecnologia vSphere. «La nostra ambizione, sottolinea Faccenda, è di diventare un punto di riferimento europeo, alla stregua di cloud provider come Amazon e Microsoft». L’argomento più caldo, per il responsabile commerciale di OVH, è quello delle competenze. «Per i nostri clienti, che da sempre danno priorità a questioni come la sicurezza e la privacy, le competenze stanno diventando un argomento chiave» – sottolinea Faccenda. Configurare una macchina virtuale, orchestrare un servizio cloud, richiede skills e grandi capacità di produrre codice e script. Da qui, la necessità di affidarsi a provider che affiancano la capacità di governo di tecnologie cloud avanzate, utilizzando al proprio interno metodologie di sviluppo agile, a una solida cultura di consulenza e progettazione infrastrutturale messa al servizio dei clienti.

Leggi anche:  Codice ESG, la sfida dell’IT sostenibile

VIRTUALIZZAZIONE E CONSOLIDAMENTO

Giuseppe Ceglie, responsabile del Dipartimento Infrastrutture Tecnologiche di Lombardia Informatica, la società in-house che eroga circa settecento servizi alla PA, alle aziende sanitarie e agli abitanti di Regione Lombardia, propone un’ulteriore articolazione del cloud come efficace strumento di consolidamento e razionalizzazione. «Negli ultimi tre anni, abbiamo portato avanti un consolidamento infrastrutturale, approcciando anche il cloud con due diverse visioni: una a uso interno, per la nostra piattaforma di erogazione di servizi, l’altra orientata alla razionalizzazione dell’informatica pubblica lombarda» – racconta Ceglie. In Lombardia esistono circa 600 centri di elaborazione, in genere molto piccoli ma “fatti in casa” con molte dispersioni. Ci siamo fatti promotori di un’iniziativa che ha approcciato il tema cloud prima su un numero limitato di Aziende Sanitarie Locali e oggi vogliamo estendere la razionalizzazione a tutto il territorio». Unificare il contesto infrastrutturale, aggiunge Ceglie, è la migliore premessa di una costruttiva messa a fattor comune di un patrimonio applicativo oggi enormemente variegato, con inevitabili conseguenze su una burocrazia che non riesce a presentare un volto uniforme ed efficiente. Ceglie precisa inoltre che il progetto, finalizzato inizialmente alla creazione di un private cloud, oggi è aperto a una visione cloud più ibrida, e non è un caso se, anche dal punto di vista organizzativo, è stato creato un team più vicino alle esigenze di una vera e propria gestione infrastrutturale. «Il dipartimento che nasce dalla riorganizzazione si definisce Infrastruttura Tecnologica proprio perché ci siamo posti il tema della governance di risorse che possono provenire anche dall’esterno del nostro perimetro classico». Anche la presa in carico di metodologie più avanzate, come DevOps e altre di cui sono stati realizzati i primi proof of concept. «Il tema è sicuramente di interesse per noi, perché è una risposta a una precisa richiesta dei clienti in termini di erogazione e sviluppo di nuove applicazioni».

La discussione, apertasi con l’intervento di UniCredit, si chiude con CRIF, società di informazione creditizia rappresentata al tavolo dal CIO, Fausto Gentili. La natura molto sensibile dei dati trattati da CRIF spiega, secondo Gentili, la relativa mancanza di una consolidata esperienza di cloud computing in chiave pubblica, almeno sul core delle attività dell’organizzazione. «Abbiamo esperienze collaterali in ambito di collaboration, e-learning, security in mobilità» – riferisce il CIO. «Utilizziamo però virtualizzazione e automazione sui nostri cinquemila server e stiamo entrando nella iperconvergenza e anche nel software defined, inglobando molte tecnologie che un tempo avevamo esternalizzato». I punti di criticità che Gentili dice di vedere ancora nel cloud computing riguardano ancora l’ambito contrattuale e legale, dove i fornitori non sembrano ancora aver raggiunto un sufficiente grado di maturità e ampiezza di copertura. Altra difficoltà, soprattutto per chi ha sviluppato molto al proprio interno, sta nella necessità di integrare e far interagire una volta entrati in un ambito infrastrutturale IaaS. «L’aspetto interessante del cloud, per quanto ci riguarda, è la capacità di calcolo. Noi stiamo ragionando su potenzialità di riconoscimento dei nostri processi, del nostro patrimonio informativo perché disponiamo di un grande bagaglio procedurale e siamo convinti di poter fare molto, per assimilare meglio le numerose acquisizioni, a livello di documentazione di disciplina di queste procedure». Un secondo aspetto è il potenziale da esplorare in area di gestione dei rischi e analisi predittiva. «Il patrimonio informativo di cui disponiamo ci permetterebbe di identificare dei pattern che all’analisi umana sfuggirebbero. Inoltre, stiamo pensando di lavorare con chi ha esperienza in intelligenza artificiale per valorizzare questo tesoro nascosto». È inevitabile – conclude Gentili, con un messaggio che vale per tutti i suoi colleghi preposti al governo delle tecnologie – che per poter scoprire e sfruttare questi giacimenti le infrastrutture evolvano verso il software defined. «Pur superando le varie forme di resistenza nei confronti di un dato da conferire sul cloud, resta al momento un grande problema di natura culturale, di conoscenza e di capacità che va dalla scrittura di codice all’interazione con un mondo profondamente diverso».