Scomponibilità, flessibilità e microservizi: nel 2024 l’IT si fa sempre più on-demand

Scomponibilità, flessibilità e microservizi: nel 2024 l’IT si fa sempre più on-demand

Kirey Group indica la direzione verso cui si muoveranno i cambiamenti tecnologici nel 2024: protagonisti IA, cloud e composability

Siamo ormai pienamente entrati nell’era dell’“Everything as a Service”, dove connettività a velocità sempre maggiori e latenze sufficientemente basse hanno permesso ai service provider digitali di offrire ogni genere di prodotti, in una logica scalabile e on-demand. A trainare la crescita di questo approccio, secondo l’Osservatorio Cloud Transformation del Politecnico di Milano, sono in particolare i servizi infrastrutturali (IaaS), che nel 2023 toccano 1,511 miliardi di euro di valore di mercato (+29% sul 2022), raggiungendo il volume rappresentato dai servizi Software (SaaS), storicamente più presenti. Senza contare l’enorme sviluppo della generative AI, che ha aperto un mondo applicativo completamente nuovo e il cui apporto economico potenziale, secondo McKinsey, oscilla fra 2,6 a 4,4 migliaia di miliardi di dollari all’anno, cifra pari al PIL di un paese come il Regno Unito.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Ma quali saranno le maggiori implementazioni IT del 2024? E da che logica saranno guidate? Kirey Group, azienda tra i principali IT system integrator italiani, condivide la propria visione in 3 trend identificati da Manuel Zini, Senior Manager & Solution Architect, Distributed Architectures & New Technologies.

  1. L’IA sarà sempre più dialogica grazie all’ “In-context Learning”

La capacità dei modelli di intelligenza artificiale di apprendere e comprendere il contesto sta diventando sempre più importante, accelerando esponenzialmente l’evoluzione dell’IA conversazionale.

Nel campo dell’elaborazione del linguaggio naturale (NLP), uno degli sviluppi più concreti è la capacità dei modelli linguistici (LLM) di generare risposte basate sul contesto. Questo concetto, noto come “In-context Learning,” consente di ottenere risposte dai modelli ‘contestualizzate’ sulla base di informazioni specifiche senza ricorrere necessariamente al riaddestramento, sfruttando le capacità linguistiche generali già apprese dall’LLM. Per esempio, possiamo aspettarci a breve che sempre più aziende utilizzeranno l’IA per l’estrazione automatica di informazioni dai documenti. E ancora, un esteso utilizzo di strumenti che integrano IA e coding, per scrivere quello che prima si sarebbe scritto in codice attraverso prompt in linguaggio naturale”, spiega Zini. “Per le aziende che vogliono introdurre l’IA nei propri processi nel 2024, la strada più efficace e semplice sarà quella di utilizzare un LLM di terze parti. Ad oggi, si tratta della scelta più ragionevole anche in termini di costi legati al progetto di implementazione, anche se va considerato che probabilmente questi modelli pre-addestrati saranno in futuro estremamente diffusi, e che non rappresenteranno una risorsa differenziante per l’azienda nel lungo periodo”.

  1. Il cloud rimane alla base dei servizi, che diventano “cloud-native”

Mentre in una prima fase le aziende si sono concentrate su un approccio lift and shift, prendendo il workload on-prem e spostandolo nel cloud, nel 2024 assisteremo a un nuovo shift verso il cloud-native, termine che riguarderà sempre di più non solo le applicazioni, ma le architetture IT stesse.

Leggi anche:  Benetton Group sceglie Google Cloud per fornire raccomandazioni personalizzate ai propri clienti

“Oggi le architetture cloud-native hanno la possibilità di gestire i workload come servizio, non più come insieme di macchine configurate, attraverso una progettazione che assomiglia sempre più a quella di un ecosistema. Fattori quali scalabilità, disponibilità, disaster recovery e business continuity, da realizzarsi prima tramite hardware on premise, sono oggi ottenibili per composizioni di servizi cloud, che grazie alla propria flessibilità e velocità di evoluzione rappresentano un vero e proprio cambio di paradigma”, dichiara Zini.
“Un esempio è il data lakehouse, una nuova architettura di data management che combina la flessibilità, l’efficienza dei costi e la scalabilità dei data lake con la capacità di gestione dei dati dei data warehouse, abilitando business intelligence e machine learning”.

  1. Composability, il paradigma abilitante di un mondo sempre più modulare

Il passaggio al Cloud, l’adozione di SaaS, l’utilizzo di marketplaces e dell’IA sono infine sia un driver che un’opportunità per agevolare il “Design For Change” che è alla base della composability, il paradigma coniato da Gartner per cui ogni azienda, nel futuro, dovrà essere capace di modificarsi attraverso la ricomposizione delle capacità aziendali e il cambiamento dei processi in risposta a variazioni nelle condizioni di mercato esterne o nel contesto generale.

“La composability nasce non tanto dalla preoccupazione di andare a scomporre i vecchi monoliti aziendali, ma dal fatto di poter usare i nuovi servizi offerti dal cloud, che richiedono modularità nell’architettura e nel pensiero” dichiara Zini. “Le aziende per essere veramente adattabili e pronte al cambiamento, dovranno saper gestire e scegliere prodotti composti da moduli riusabili e facilmente integrabili, le cosiddette Packaged Business Capabilities. In questo modo sarà possibile definire e governa il software come “prodotto” in stretto allineamento con i bisogni di Business, per composizione di PBC”.

Leggi anche:  L’Industria 4.0 cambia il modo di lavorare, produrre e vendere