Come affrontare la complessità in un mondo sempre più multicloud

Il cloud come motore di innovazione e accelerazione del sistema impresa. Più sicurezza per le PMI, per i grandi meno vincoli nel passaggio da Capex a Opex. Per quanto complessa, l’iperconvergenza ha qualcosa da dire a tutti. E se certi modelli sono troppo avanzati è perché la rivoluzione non ha ancora toccato il modo di concepire e sviluppare le applicazioni

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

A ciascuno il suo cloud. Data Manager torna a riflettere sul cloud computing e le sue evoluzioni più recenti, sul loro impatto a livello di virtualizzazione e automazione del data center aziendale, sui livelli di adozione del modello “ibrido” di una infrastruttura che in misura crescente deve saper orchestrare, in modo sempre più fluido e automatico elementi proprietari e servizi pubblicamente accessibili, per capire come le organizzazioni stanno facendo leva sul cloud per aumentare la loro flessibilità decisionale e potenziare le strategie di go to market.  Non si ferma l’onda di rinnovamento che la virtualizzazione delle risorse di calcolo, la continua spinta di separazione degli aspetti funzionali di una applicazione dal suo substrato computazionale fisico, induce nei tradizionali modelli di digitalizzazione del business. Modelli un tempo legati a una diversa relazione con le infrastrutture e i device sia nel data center sia sul desktop.
Il cloud implica una nuova mentalità in tutti i risvolti dell’informatizzazione dei processi aziendali: dagli ambienti di sviluppo applicativo alla gestione delle risorse; dai ruoli preposti al governo dell’organizzazione fino a un team working che implica sempre maggiori dosi di condivisione, anche a livello decisionale; da una sicurezza che deve erigere barriere sempre più mobili e adattative, alla diversa relazione con i partner e con i clienti, anch’essi investiti, nella loro quotidianità, nei consumi, da una tecnologia pervasiva. Per non parlare dei modelli economici e commerciali nati sull’onda della informatica, con l’avvento di nuovi operatori, il riposizionamento dei grandi e piccoli provider di consulenza e servizi, la crescente importanza dello sviluppo open source di ambienti applicativi e componenti infrastrutturali, o dell’impatto che il cloud ha avuto e continuerà ad avere sulla standardizzazione e la regolamentazione.

 

TATTICO O STRATEGICO?

Ancora una volta Data Manager ha cercato di costruire intorno a queste tematiche una conversazione interattiva e spontanea, facendo leva su un modello ormai collaudato del dialogo tra pari, in cui faccia premio il proficuo scambio di esperienze, la “serendipity” della scoperta di spunti e percorsi inediti, spesso laterali rispetto a un modo tradizionale di vivere l’innovazione. I partecipanti hanno dialogato tra loro sulla base di una serie di spunti articolati sulle singole esperienze con il cloud. Quali sono i livelli di maturità dei vari modelli? In che misura si può parlare di progettazione “tattica”, sviluppata ad hoc su determinati progetti, o “strategica”, autenticamente trasformativa? Come avviene il governo delle varie iniziative, anche dal punto di vista organizzativo, quali sono le principali difficoltà? Come sta cambiando il mercato delle soluzioni e dei servizi di integrazione? Come si trasforma il comparto della sicurezza?

A IDC Italia spetta come sempre il compito di definire ulteriormente il perimetro della conversazione. Sergio Patano, senior consulting & research director, ricorda che pur essendo un argomento dibattuto da molto tempo, è ancora complicato individuare gli specifici vantaggi del cloud computing e calare il fenomeno nelle diverse realtà aziendali. Come noto, IDC riconosce nel cloud computing (insieme a big data, mobilità e social) uno dei quattro pilastri della cosiddetta Terza Piattaforma informatica. Circondata dal suo arsenale di innovazioni – dalla stampa 3D, capace di accelerare i tempi della prototipizzazione, fino all’intelligenza artificiale, la realtà aumentata l’Internet delle cose – essa viene considerata il punto di partenza di un business condotto in modo molto più dinamico e coerente con le aspettative di mercato, un business digitale. «Da anni – dice Patano – IDC postula l’esistenza di questo particolare contesto come base per la trasformazione della vecchia informatica aziendale e dei processi che vi insistono, una trasformazione che dà crescita, competitività e soprattutto capacità di inventare mercati completamente nuovi, come dimostrano in positivo i casi di aziende come Amazon, Google o Netflix e in negativo fallimenti di leader storici come Postal Market, Blockbuster o la stessa Kodak».

SETTORE IN CRESCITA

La storia del cloud computing si articola in tre grandi capitoli – prosegue Patano. La prima fase di sperimentazione è ormai conclusa anche in Italia ed è seguita da quella della cosiddetta “innovazione multipla”, in cui le aziende sono già in grado di far leva sulle proprie infrastrutture informatiche per supportare l’aumento del volume d’affari e il rapido sviluppo di prodotti e mercati innovativi. «Il terzo capitolo della nostra storia, la fase della autonomia, non arriverà prima di 5 anni e vedrà un grado di innovazione dell’IT che porterà a una maggiore automazione dei cicli di sviluppo anche in forza dell’intelligenza artificiale che ci aiuterà a prendere decisioni più informate, basate su dati certi». Se questo può sembrare un orizzonte molto lontano, l’analisi dei comparti in maggior crescita del mercato italiano dell’IT, ci dice che le aree critiche per la terza piattaforma mostrano indici di sviluppo che non si vedevano da 30 anni. Ci sono comparti come la realtà aumentata, la sensoristica, che pur generando fatturati modesti sono in crescita esponenziale. Grande è l’interesse nei confronti di fenomeni come il cognitive computing applicato, la valorizzazione dei dati attraverso l’analisi, le conseguenti strategie in ambito storage e dell’iperconvergenza verso un data center in cui il piano computazionale, quello della connettività di rete e quello appunto dello storage raggiungono livelli di automazione completamente software defined.

 

Interrogare le aziende italiane sul loro modo di interpretare il cloud garantisce molteplici risposte, osserva Patano. «Uno zoccolo duro di imprese afferma di non avere ancora piani specifici, forse aziende padronali che esitano a portare in cloud i propri dati, che ancora “coccolano” il loro ambiente ERP». Significativa è però anche la percentuale di chi usa o sta prendendo in considerazione uno o più aspetti del cloud computing. «Circa il 25% – per esempio – lo usa per un sottoinsieme di applicazioni, almeno le più semplici. Il 45% sta già accedendo a servizi IaaS e oltre il 60% a servizi PaaS come Microsoft Azure o SaaS come Salesforce. Lo stato di relativa immaturità di questi approcci si evince dai fattori che servono per misurarne l’efficacia. In più del 10% dei casi, non vengono addirittura applicati specifici KPI su progetti che vengono lanciati più sulla base di specifiche esigenze di business che per strategie pianificate sulla distanza. La convenienza dei costi del cloud è ancora un indice preso in seria considerazione, ma non è più così esclusivo. Diverse aziende misurano il ruolo del cloud in termini di efficacia in un processo di trasformazione, considerandolo una materia prima fondamentale, tre aziende su 10 mettono per esempio il cloud al primo posto come misuratore di performance di una implementazione».

PRIVACY GIUNTA A SCADENZA

Un riferimento di Patano al cloud – visto nella particolare ottica della compliance con la nuova direttiva europea sulla privacy (l’analista IDC sottolinea giustamente che si deve evitare di guardare al GDPR come mero problema di infrastruttura IT, bensì come questione relativa ai comportamenti delle persone coinvolte nel trattamento dei dati) – accende subito un primo scambio interessante. A Giovanni Gugliotta, ICT architecture & security manager di Consitex – Gruppo Ermenegildo Zegna, che chiede quale leva la sua azienda può avere in mano nel far valere una propria policy nei confronti di un servizio erogato da un cloud provider, arriva per esempio il parere scettico di Carlo Romagnoli, IT director di CRIF – secondo il quale – lo spazio di manovra per l’azienda cliente è limitato – e quello più possibilista di Luigi Altavilla, head of IT security & cyber threats di Assicurazioni Generali, che ritiene piuttosto che i livelli di personalizzazione e adattamento ci sono, ma spesso comportano dei costi aggiuntivi. Cauto, sulla questione, appare anche Mauro Cicognini, membro del direttivo e del comitato tecnico scientifico di CLUSIT, il quale – pur riconoscendo che in una normativa che interessa imprese proprietarie dei dati e il loro fornitori di servizi, questi ultimi sono tenuti a dare risposte puntuali e precise – invita a non fidarsi troppo delle proprie sensazioni. «Spesso chi si affida a servizi in outsourcing può avere la percezione di essere “compliant”, ma non è necessariamente così». Riprendendo il suo discorso introduttivo, Patano cita ancora i rilevamenti effettuati da IDC per osservare che se un terzo delle imprese sostiene di far affidamento sul service provider, altre preferiscono “far da sole” appoggiandosi per esempio sulle certificazioni ISO per definire i limiti della propria esposizione al rischio e misurare le contromisure da implementare. «Non dimentichiamo che per il GDPR l’aspetto fondamentale è l’adozione di misure appropriate e la trasparenza e la tempestività nel denunciare le violazioni subite.

Leggi anche:  Innovazione e controllo in banca. L’automazione dal volto umano

In conclusione, Patano mostra come, a fronte di una spesa in informatica infrastrutturale ormai stabile intorno ai 900 milioni di euro negli ultimi sette anni, la componente di IT più tradizionale, ha perso venti punti percentuali nel periodo, a favore di uno spostamento verso la spesa in infrastrutture “software defined” che nei prossimi tre o quattro anni riceverà un forte impulso anche grazie ai servizi che le aziende sperimentano o adottano già oggi. Si va verso quella che l’esperto di IDC definisce l’era del multicloud, contrassegnata da una modalità di accesso alle risorse virtualizzate molto composita, con l’alternanza tra modelli privato/pubblico che si arricchisce di nuance come “privato on premises”, “gestito privatamente ma in colocation presso un provider”, “private hosted off premises” e così via. Certo, il livello di maturità dei tre grandi assi dell’iperconvergenza non è uniforme e siamo molto lontani dalla soglia del 100 di automazione, ma il data center è sempre più software defined.

LA FIDUCIA È TUTTO

L’intervento di esordio di Luigi Altavillahead of IT security & cyber threats di Assicurazioni Generali, affronta fin da subito la problematica che è anche uno dei messaggi forti lanciati da questa discussione. «In generale, la spinta verso il cloud computing è molto forte» – specifica Altavilla. «Una spinta giunta dopo una prima fase di esitazione motivata da perplessità in ordine alla sicurezza e alla maturità delle soluzioni. In questa nuova fase, prevalgono anche le spinte più innovative, che non guardano solo al cost saving, ma a nuove modalità di lavoro e di business, con un occhio agli sviluppi dell’AI». L’interesse di tutto il comparto nei confronti del cloud, che non a caso posiziona il finance, secondo le valutazioni di IDC, tra i settori più avanzati della trasformazione digitale. «Oggi, il principale vincolo percepito non riguarda la sicurezza, perché in molti casi il cloud è molto più sicuro» – dichiara Altavilla. C’è per le grosse realtà un tema di trust, ma tutto può essere gestito. Il tema vero è che molti hanno approcciato il cloud in ottica di risparmio e razionalizzazione, ma questo risparmio si raggiunge solo ripensando per il cloud il patrimonio applicativo. E questo ha un costo». Un conto, prosegue quindi Altavilla, è sfruttare la virtualizzazione per entrare in mondi completamente diversi, per testare nuove soluzioni. Un altro è migrare in un diverso contesto infrastrutturale applicazioni come l’identity management: non per questioni di sicurezza, ma perché è molto complesso. Sull’aspetto decisionale e organizzativo, Altavilla riconosce che il successo di una iniziativa dipende molto dalla forza e dalla motivazione del management che deve fare da collante a cambiamenti caratterizzati dalla “multilateralità” delle strategie, da decisioni che sono frutto di continue mediazioni. «La security, infine – dice Altavilla – si trova troppo spesso a rincorrere i vari progetti, scompigliando i piani e facendo lievitare costi che sarebbero sicuramente più contenuti se la sicurezza stessa fosse una base di partenza».

MARGINI DI MANOVRA

Le perplessità di Giovanni Gugliotta, responsabile dell’IT e della sicurezza del Gruppo Zegna riguardano proprio questo punto. Uno scetticismo che arriva a includere uno dei fondamenti della direttiva europea: la privacy by default. «Uno degli aspetti più utopistici dell’intero impianto GDPR» – sottolinea Gugliotta. Il celebre gruppo del tessile e della moda si concentra sull’informatica necessaria al supporto di una filiera produttiva integrata che va “from sheep to shop”, dalle pecore da tosare ai negozi, dove gli abiti Zegna vengono venduti attraverso un’esperienza ancora molto legata alla relazione umana. Tutte applicazioni customizzate ancora appoggiate su un nucleo AS/400, che Gugliotta definisce «non facile da portare sulle nuvole». Nel corso del tempo, il Gruppo non si è tirato indietro, arrivando a pianificare l’implementazione di un piano di disaster recovery centrato su un operatore cloud, ma nelle fasi successive il piano è stato accantonato per relativa scarsità di opzioni e valutazioni di costo non incoraggianti. In seguito, per la produttività in ufficio è stata scelta la suite Microsoft. «È questa la mia perplessità» – ribadisce Gugliotta. «A parte il mondo applicativo della produttività individuale, della posta e le soluzioni per la vendita, il mondo applicativo a mio parere è ancora sottorappresentato sul cloud». E sulla scia di queste parole, anche Giuliano Franceschi, direttore data center & cloud dell’Internet provider regionale emiliano Lepida, conferma di vedere nel modello SaaS un’evoluzione moderna del vecchio concetto di full outsourcing. La richiesta di soluzione IaaS – invece – sta diventando uno standard nelle imprese.

APPLICAZIONI DA SMONTARE E RIMETTERE INSIEME

Che le aziende siano caute nell’approcciarsi ai nuovi trend tecnologici con grande prudenza è normale, osserva però Sergio Patano di IDC Italia. Il primo approccio puntava soprattutto alla trasformazione della spesa Capex in costi operativi Opex. «Così, mentre in altre nazioni SAP, le soluzioni CRM venivano implementate in cloud, qui eravamo impegnati a conquistare il primato, sancito addirittura da Istat, del numero di app individuali su terminali mobili» – osserva l’analista. Oggi, sul costo fanno premio fattori come velocità, scalabilità, affidabilità. Il lavoro più grosso, ancora da venire, «consisterà nel ridisegnare le applicazioni business smontandole e rimettendole insieme per mezzo di microservizi ed esponendole sotto forma di API, come vediamo sta già succedendo sul mercato globale». Lepida, racconta Gugliotta, ha sempre rivestito un ruolo più infrastrutturale nei confronti di una clientela, le amministrazioni locali, che costituisce anche l’azionista di riferimento del provider. «Dopo aver costruito la rete che ha permesso ai comuni emiliani di andare su Internet, ci siamo accorti che disporre semplicemente di 2.600 chilometri di cavidotti ha un po’ meno senso» – aggiunge. «Così ci siamo focalizzati sul dare fibra per superare la scarsità di banda e contribuire a superare l’ostacolo primario di adozione del cloud». Lepida ha realizzato tre data center federati che oggi sono l’host di riferimento del “private cloud” utilizzato da pubblici uffici, scuole, sanità e ospedali, per la crescita delle città, dei territori e delle comunità in Emilia-Romagna, in particolare per la attuazione dell’Agenda Digitale.

Leggi anche:  Lavoro flessibile, il connubio vincente tra ibrido e smart

«Il primo criterio è il costo – sottolinea Gugliotta del Gruppo Zegna – perché così dice la normativa sugli appalti». Il prezzo di un server su Lepida deve restare inferiore a quello di analoghe soluzioni erogate da Amazon o altri cloud pubblici. «Allo stesso tempo, ci sarebbero molti problemi ad affidare a infrastrutture pubbliche che risiedono in Michigan dati che riguardano le analisi radiografiche dei nostri ospedali. Per almeno altri dieci anni – conclude Gugliotta, precisando di nutrire, come programmatore, un vivo interesse nei confronti dell’evoluzione applicativa sul cloud – avremo applicazioni che prospereranno nel perimetro che abbiamo definito. La latenza conta ancora quando il sistema ERP deve dialogare con il suo database relazionale». La visione di uno scenario ancora dominato da un certo tatticismo è condivisa da Camillo Moratti, key account manager di Talend una società che sviluppa una piattaforma di integrazione dati completamente open source. «Sul mercato italiano – afferma Moratti – assistiamo al moltiplicarsi di progetti di business analytics che poggiano sulla piattaforma Talend per assicurare la piena disponibilità e qualità dei dati». Per questo tipo di applicazioni, le risorse flessibili del cloud sono particolarmente indicate, ma al tempo stesso diventa necessario un ambiente in cui le diverse sorgenti informative possano essere “distillate” e rese più omogenee. «Una trasformazione digitale intesa in chiave più strategica – fatichiamo ancora a vederla – e chi è partito in molti casi deve affrontare anche problematiche di sicurezza tutt’altro che scontate».

IL FUTURO È NELLE NUVOLE

Problemi che Carlo Romagnoli di CRIF conosce molto bene e ai quali pone grande attenzione. Il percorso di virtualizzazione di CRIF è interessante ed esemplificativo del pragmatismo con cui devono procedere certe organizzazioni. Fino a una quindicina di anni fa, la società specializzata in informazioni sul credito era ancora basata su ambienti mainframe, affidati in outsourcing. Alla fine del primo decennio del secolo, la migrazione verso un sistema informativo in parte open, con Java e Microsoft e l’adozione di un database relazionale mainstream. «A un certo punto, ci siamo interrogati su quale debba essere il nostro primo obiettivo nei confronti del cliente» – osserva Romagnoli. «Per affiancarci in modo propositivo al business, abbiamo preso decisioni abilitanti in direzione di un approccio Agile, della continuous delivery». Gradualmente, CRIF si è mossa verso un modello di cloud privato partendo – sottolinea Romagnoli – dalle prime forme di automazione delle infrastrutture e un primo livello di iperconvergenza. «Da cui – precisa il direttore IT – è rimasto in parte escluso il database. Oggi, eroghiamo i nostri servizi in base a questa logica, con il cloud pubblico utilizzato per servizi tipicamente corporate come Office 365». Le applicazioni core di CRIF resistono ancora all’adozione di modelli completamente ibridi, anche per i vincoli di ownership imposti dai clienti. «Un pensiero su come fare servizi sul credito e il rischio in modo completamente innovativo c’è – conclude Romagnoli – e la spinta principale è la necessità di individuare oggi i meccanismi che potranno generare valore in futuro».

Ci sono geografie come l’Asia e la Cina che stanno ripensando radicalmente il concetto di reputation, basata anche sui comportamenti e non solo sulla solvibilità. L’attenzione ai nuovi modelli di revenue generation, a oggi uno dei migliori alleati della trasformazione digitale, è propria anche di una società di servizi ingegneristici come Italdesign Giugiaro, rappresentata dal suo responsabile dell’IT, Luca Jozzo. «La nostra è una informatica molto legata al business. E nel distinguere tra tradizionale e innovativo, devo sempre pensare ai sistemi che richiedono soluzioni più comprovate». D’altro canto però, i fenomeni della consumerizzazione, della personalizzazione e, oggi, della connected car, investono con forza l’industria dell’automotive. «Qui in realtà, il tema più forte è la competenza. All’ultima edizione del Salone di Ginevra, Giugiaro ha presentato un concept di mobilità nella smar city per il quale ci siamo cimentati con la nuova realtà dei microservizi» – racconta Jozzo. Per questa sperimentazione, è stato messo a punto un sistema di riconoscimento facciale in grado di dare accesso a una serie di specifiche funzionalità. Ma l’ingrediente segreto è stata la collaborazione con un giovane universitario che ha seguito la scelta e l’implementazione di servizi di tipo cognitive. «Oggi, l’IT manager fa molta fatica nel gestire il vecchio e il nuovo» – spiega Jozzo. «Il nostro settore va incontro a una ulteriore compressione dei costi e spesso un server con una applicazione stabile ha un TCO più sostenibile».

Leggi anche:  TrasformAzione, la costante del cambiamento

IT(A) MISSA EST

Forse, a livelli di maturazione diversi, la pervasività delle nuove metafore dell’IT traspare anche nelle situazioni apparentemente più “conservatrici”. Il caso di IDS & Unitelm, insourcer informatico per conto della Conferenza Episcopale (CEI), viene analizzato dal COO della società, Carmelo Battaglia. La scelta di sostituire un patrimonio di informatica “parrocchiale” frammentato e obsoleto con una logica di cloud privato ha imposto – spiega Battaglia – di applicare un modello il più possibile “trusted”, isolando fisicamente nel data center, le risorse destinate alle varie sedi vescovili. Su tutti i servizi che si possono basare su cloud pubblico – aggiunge il COO di Unitelm – prevalgono invece considerazioni di costo in funzione però di livelli qualitativi elevati. «Le applicazioni riguardano l’area amministrativa, la gestione delle anagrafi, la rendicontazione dei compensi destinati agli insegnanti di religione, che il MIUR affida alla CEI che a sua volta le instrada verso il diretto percettore. Accanto al day by day, c’è tuttavia spazio per una progettualità più avanzata. «Alla Conferenza, fanno capo quattro milioni di beni censiti e oggi un importante gruppo italiano è pronto a destinare fondi che serviranno ad alimentare una banca dati artistica, primo passo verso un museo virtuale aperto non solo ai visitatori, ma ad aziende e organizzazioni – pensiamo solo al turismo religioso – che potrebbero convertirlo in servizi» – conclude Battaglia.

Proprio il riferimento ai dati anagrafici, fa da gancio all’intervento di Luca Nilo Livrieri, manager sales engineering di Forcepoint Italy & Iberia. Le statistiche elaborate dagli analisti, osserva Livrieri, non tengono conto del fenomeno della Shadow IT, l’insieme di applicazioni e dati di natura personale ma anche professionale, che oggi sono direttamente presenti nel cloud. «Tutto del resto è in questa nuvola: anagrafiche, CRM, la guida satellitare, i sistemi di prenotazione dei treni. Non tutto è italiano, ma spesso siamo chiamati a mettere un livello di sicurezza e personalizzazione in più» – avverte l’esperto. Esiste un framework trasversale che può dare questo tipo di sicurezza? «Il primo strato attraverso cui accedere alle varie applicazioni si chiama Forcepoint CASB, Cloud and Security Broker» – afferma ancora Livrieri. La sicurezza come servizio è una tematica sempre più sentita da parte di aziende che, secondo Livrieri, mettono meno contenuti meramente tecnologici nei loro progetti di sicurezza di nuova generazione (una spesa che nelle stime di IDC raggiungerà un picco nel 2019), affidandosi a terze parti indipendenti anche quando si tratta di assicurare la compliance normativa.

MOTIVI DI OTTIMISMO

«Specie pensando al caso della PMI – osserva Mario Cicognini di CLUSIT – migrare sul cloud comporta un aumento dei livelli di sicurezza. Acquistare infrastrutture IaaS spesso equivale a installare un firewall che prima non c’era, aggiungendo strutturalmente nuove barriere che è sufficiente attivare». Dal suo osservatorio, il consulente CLUSIT è arrivato alla conclusione che per queste e altre ragioni il quadro generale in Italia non è così negativo per quanto concerne l’esposizione al rischio. «Spesso siamo abituati a confrontarci con chi riesce sì a essere più bravo di noi, ma in condizioni di minore complessità. Il ritardo su determinate scelte è anche dovuto al nostro grande individualismo» – conclude Cicognini. «Ossia alla incapacità di costruire il sistema, verso cui la cultura di condivisione delle infrastrutture, tipica del cloud, ci sta portando». La conversazione al tavolo è ancora molto accesa quando prende la parola Giuseppe Ceglie, responsabile dipartimento infrastrutture tecnologiche di Lombardia Informatica, azienda regionale omologa di Lepida ma con una vocazione più applicativa. «Il cloud è al centro delle politiche di questo service provider fin dal piano strategico del 2015» – sottolinea Ceglie. «Abbiamo analizzato le quattrocento applicazioni e servizi business, l’80% dei quali non trattano dati sensibili, catalogandoli proprio in base alla criticità dell’informazione» – spiega il responsabile dipartimentale. «Questo ci ha permesso di adottare un approccio differenziato al cloud ibrido».

Una difficoltà in più, per un’azienda pubblica soggetta al codice degli appalti, è data dalla metodologia di procurement e da tempi burocratici che si scontrano con la velocità di obsolescenza della tecnologia. Come sono stati reinterpretati certi vincoli? «Abbiamo gettato le basi per acquisire, oltre che in modalità tradizionale, anche attraverso la metodologia IaaS, che ci aiuta ad affrontare temi come la lentezza nella decisione, e a passare da investimenti in capitale a formule Opex» – risponde Ceglie, osservando tra l’altro come questo passaggio ha un impatto positivo su risorse economiche che non risultano bloccate in piani di investimento di lunga durata. Ceglie conclude il suo intervento con una interessante riflessione sulle persone e le loro competenze, che oggi devono essere schierate non tanto sugli aspetti della gestione, quanto della governance complessiva e sul controllo di qualità di un servizio erogato in modalità diverse rispetto al passato. «Crescono l’attenzione e la formazione al controllo, ai KPI, ai rischi come un eccessivo lock-in rispetto alle tecnologie. È una fase di grande transizione, molto stimolante dal punto di vista professionale» – dice Ceglie. Un cambiamento che riecheggia nei commenti del suo collega di Lepida, Franceschi, che ricorda come la trasformazione digitale non è una questione solo tecnologica. «Certi passaggi sono obbligati. La virtualizzazione è partita in massa proprio negli anni della crisi». Non tutto deve essere cloudizzato, evidentemente. «Ci sono cose che possiamo portare in cloud, altre che necessitano piuttosto di un re-platforming, altre ancora la cui migrazione risulterebbe troppo cara. Deve però cambiare il mio approccio come IT director: devo diventare un broker, implementare in senso esteso la governance». E se ci chiediamo che fine faranno i venditori di hardware – conclude Franceschi – non esisteranno come li conosciamo oggi. Ma tutti svilupperanno servizi cloud.


Le videointerviste ai protagonisti

Forcepoint, come migrare al cloud senza paura, bilanciando agilità e protezione

Talend, agilità e integrazione a 360 gradi