Banca e Information Technology, il futuro è in vista

massimo messina_unicredit

Il responsabile Group ICT di UniCredit spiega le prossime evoluzioni architetturali di una tecnologia sempre più aperta a un business di relazione, basato su data center elastici e sempre più “software defined”, per carichi di lavoro ad alta dinamicità

La spinta della virtualizzazione e della trasformazione digitale impatta anche sulle geometrie delle architetture informatiche in banca. Mobilità del cliente, funzionalità 24 ore su 24, carichi di lavoro estremamente dinamici, necessità di innovare continuamente processi e servizi, assicurando al tempo stesso la costante operatività del back office, sono le sfide di un cambiamento le cui basi tecnologiche vengono affrontate in questa intervista da Massimo Messina, responsabile Group ICT di UniCredit.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

«Negli ultimi anni, social network e motori di ricerca hanno introdotto nuove architetture di riferimento sia di tipo infrastrutturale sia di tipo applicativo, per fornire servizi basati su tempi di risposta veloci, ottimi livelli di servizio, grande scalabilità – a fronte di carichi di lavoro imprevedibili – e costi marginali sempre più ridotti». Uno scenario che secondo Messina impone trasformazioni radicali, anche nel modo di scrivere il software. Si parla per esempio di architetture reattive ispirate alla nuova filosofia shared nothing, contrapposte allo shared everything che caratterizza gli applicativi eseguiti sugli attuali cluster di server e potenzialmente alla base delle architetture di riferimento del futuro.

Contenitori applicativi

«Un elemento differenziante», che sta aumentando notevolmente la fattibilità di utilizzo di queste soluzioni – spiega Messina – è il concetto di «container» di cui Docker è un esempio. «Il contenitore software di Docker permette di isolare in ambienti componibili le applicazioni e le infrastrutture, “portandole” dinamicamente su data center o su cloud diversi. Questa opzione sta diventando percorribile anche per sistemi informativi molto articolati e complessi» – continua Messina. «La sfida ulteriore è quella di abilitare un “elastic computing” che, oltre a gestire “elasticamente” carichi di lavoro con grandi oscillazioni in termini di volumi, sia anche resiliente alla perdita di singoli componenti, che vengono replicati più volte e sono quindi sostituibili in automatico, offrendo grande scalabilità orizzontale».

Leggi anche:  Mezzi di pagamento: in Italia rallenta il digitale e torna il contante

Altri aspetti fondamentali da tenere in considerazione sono la nuova centralità del dato e la strutturazione delle soluzioni in componenti modulari che interagiscono tra di loro attraverso messaggi asincroni ed eventi. «La centralità del dato richiederà una rivisitazione anche del ruolo dei database e delle loro geometrie». Per quanto riguarda la problematica dell’apertura al mondo esterno, Messina osserva una transizione verso sistemi informativi di tipo federativo, che sfrutteranno le “Open Api” per essere accessibili dall’esterno o per accedere a servizi terzi. In questa prospettiva – sottolinea Messina – «la logica dei microservizi assicura un buon equilibrio tra la necessità di strutturare il sistema informativo secondo criteri a componenti con poche dipendenze, ottime prestazioni e la flessibilità richiesta per poter aprire i servizi verso l’esterno in modo progressivo, senza dover rivisitare un codice appena riscritto». Obiettivi raggiungibili attraverso nuove modalità di sviluppo software e con l’integrazione tra le attività di sviluppo e quelle operative, il discusso “DevOps”.

Essere cloud ready

L’hardware dei data center, prosegue ancora Messina, si sta ridefinendo sulla base di nuovi paradigmi. L’obiettivo finale è disporre di architetture fisiche completamente “cloud ready”. I data center, in altre parole, dovrebbero poter eseguire in modalità cloud on-premise, container software che ospitano applicativi scritti secondo i principi dell’architettura reactive-shared nothing (RSNA). Il data center così impostato potrà in futuro sfruttare le possibilità offerte da qualsiasi forma di cloud, senza ulteriori cambiamenti e con l’ulteriore vantaggio di un modello di sviluppo già ispirato al DevOps. «In questo scenario, sarebbe preferibile avere server il più possibile uguali tra loro, il cosiddetto “computer as data center”, come tanti pistoni di un unico motore, piuttosto dell’avere server virtualizzati, ma personalizzati e configurati ad hoc a seconda della soluzione».

Leggi anche:  Core IT Systems, la ricetta per la modernizzazione

Secondo Messina, l’iperconvergenza si può articolare in due modi. Il primo, come ingrediente dell’intero data center, in un’ottica nella quale ciascun virtual data center iperconvergente rappresenta un insieme di potenza di calcolo, storage e rete. Un unicum architetturale, da valutare in termini di business case costituito di hardware, software e costi operativi, a differenza del tradizionale approccio basato sul concetto di virtual-machines farm. Il secondo è quello di operare una virtualizzazione di una parte del proprio data center, segregandolo in termini di contenuto applicativo, ma senza utilizzare soluzioni cloud on premise. «Questo utilizzo potrebbe essere un valido punto intermedio nel percorso verso l’RSNA» – osserva Messina. «Consente di creare un’isola applicativa che magari opera ancora in modo tradizionale a cluster, dandogli respiro in termini di espandibilità infrastrutturale e gestendola con più flessibilità operativa grazie all’integrazione e la configurabilità software». Una visione, questa, che assicura una buona scalabilità orizzontale, senza tutti i benefici del vero “shared nothing”, ma non costringe a intervenire immediatamente sulle applicazioni.

Sviluppo social

Anche in un primario gruppo bancario inserito nel solco di una tradizione fatta di grandi soluzioni proprietarie, il ruolo del software open source comincia ad avere un peso rilevante. «È una risorsa ormai indispensabile» – riconosce Messina. «Non solo perché negli ultimi anni è stato la sorgente di innovazione più rilevante nel comparto IT, ma anche perché consente di mettere in connessione interessi e talenti diversi focalizzandoli su un obiettivo preciso». La qualità dei vari progetti non è uniforme e bisogna procedere con estrema prudenza nel valutarne ed eventualmente abbracciarne le potenzialità, ma gli esempi di tecnologia open source oggi inserita in ambienti di produzione complessi ci sono e sono destinati ad aumentare. «Non definirei l’open source come un’alternativa rispetto allo sviluppo tradizionale di soluzioni in-house, ma piuttosto come uno strumento da utilizzare in funzione delle opportunità». L’approccio open può essere preso inoltre ad esempio come modello di sviluppo di applicazioni aziendali. Più che di sviluppo software “collaborativo”, Messina preferisce parlare di “social development”, una definizione che enfatizza la creatività e la competenza tipiche degli sviluppatori dell’ambiente social, con modalità replicabili anche in una organizzazione su vasta scala come UniCredit.

Leggi anche:  CBI completa la migrazione della rete del Corporate Banking Interbancario sulla nuova architettura CBI Hub Cloud

Il cloud computing, afferma in conclusione il responsabile tecnologico di UniCredit, fa evidentemente parte della strategia IT del gruppo bancario. Ma come porre correttamente il governo di questa complessa problematica dal punto di vista di processi e dei flussi informativi, specie nel contesto della compliance normativa? «Il punto principale è avere chiaro il percorso e dividerlo in passi successivi, ognuno dei quali consistenti e fattibili. La possibilità di utilizzare tecnologie cloud on-premise è già oggi una realtà che consente di iniziare in modo completo un processo di trasformazione infrastrutturale e applicativa, muovendosi verso soluzioni architetturalmente diverse rispetto alle attuali e cogliendone gran parte dei benefici promessi per noi e per i nostri clienti». In questo scenario vanno comunque fatti dei percorsi esperienziali graduali e finalizzati anche per conoscere il comportamento dei nuovi approcci architetturali nel settore bancario. Messina sottolinea per esempio di aver condotto da tempo con successo una serie di test su applicativi complessi installati all’interno di container ed eseguiti su cloud privato. I buoni risultati fanno intravedere un utilizzo ravvicinato in produzione.