2026, l’inizio di una nuova era per i dati?

2026, l’inizio di una nuova era per i dati?

A cura di Sergio Gago, CTO, Cloudera

Il 2026 sarà ricordato come il primo anno di una nuova era: quella della vera convergenza. Negli ultimi dieci anni abbiamo vissuto nell’“era del cloud”, un periodo caratterizzato da astrazione e flessibilità. Prima ancora, l’“era del controllo” aveva portato scalabilità, ma anche silos separati tra loro. Ciò che ci attende ora non è un ritorno ai data center né una fede cieca nel cloud, ma appunto l’“era della convergenza”: una realtà ibrida in cui entrambi coesistono e dialogano continuamente grazie a strumenti unificati di controllo.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Le aziende si stanno rendendo conto che, se alcuni workload devono rimanere on-premise per ragioni di sovranità, latenza o costi, altri trovano un ambiente più favorevole nel cloud pubblico. La differenza sostanziale è che gli utenti non si devono più preoccupare di dove venga eseguito un workload, ma solo che sia eseguito in modo sicuro, efficiente e conforme alle policy. Vediamo allora in che modo questa era della convergenza prenderà forma.

AI, l’efficienza diventa la nuova frontiera

Con l’aumento dei costi delle infrastrutture di intelligenza artificiale e la crescita vertiginosa della domanda energetica, il 2026 segnerà l’inizio di un’era di AI ad alta efficienza energetica. La chiave per il successo non sarà sfruttare i modelli più grandi, ma piuttosto puntare su quelli di dimensioni appropriate. Verranno adottati su larga scala modelli più piccoli, specifici per dominio e ottimizzati per l’edge, in combinazione con i più recenti progressi nel quantum computing, nel pruning – ossia l’ottimizzazione dei modelli volta a eliminare gli elementi superflui – e nel calcolo adattivo. L’efficienza energetica diventerà quindi un indicatore chiave di performance per le aziende, non più un elemento secondario.

Leggi anche:  ARXivar Next Year 2026: workflow smart, business più agile

Inoltre, se in passato era la “data gravity” a determinare dove avvenisse l’elaborazione, nel nuovo anno saranno risorse energetiche, capacità computazionale e storage il nuovo “centro di gravità” che orienterà le decisioni di calcolo, puntando naturalmente verso fonti di energia più economiche. L’AI non sarà valutata solo per la sua precisone, ma anche per la sua efficienza energetica. Le aziende dovranno orchestrare una varietà di modelli ben governati, controllando dove vengono eseguiti e come performano, con benchmark ben definiti su precisone, completezza e allineamento.

L’ascesa delle aziende “data-first”

Gli anni dal 2023 al 2025 sono stati segnati dalla sperimentazione. Nonostante la crescente popolarità dei chatbot, in realtà erano ancora poche le aziende che disponevano dei dati necessari per alimentarli. La fase successiva richiede un ritorno alle basi: ottenere i dati giusti prima di implementare l’AI su larga scala e controllare come questi alimentano i modelli. Le aziende si concentreranno quindi sugli aspetti fondamentali legati ai dati: qualità, tracciabilità, osservabilità e governance.

Senza solide pipeline di dati, l’AI non è altro che un’automazione del rumore. Alimentare un chatbot con qualche centinaio di documenti PDF per consentirgli di dialogare con i dati è facile; integrarlo con una pipeline completa di informazioni sui clienti per creare un agente predittivo efficace richiede una preparazione ben più complessa. Nel 2026 assisteremo all’ascesa di pipeline di competenze agentiche, in cui l’AI non si limita a consumare dati, ma li migliora, correggendo autonomamente eventuali derive degli schemi, rilevando i bias e ottimizzando i costi. Le pipeline di dati non saranno più sistemi amministrativi che operano in background, ma sistemi vivi e in continuo apprendimento. Gli agenti diventeranno i nuovi colleghi digitali e le aziende ne avranno a disposizione un intero marketplace con cui interagire.

Leggi anche:  Automazione intelligente: la nuova era della rivoluzione digitale

Il 2026 vedrà quindi la nascita di un vero data lake AI in grado di alimentare gli agenti.

L’era dell’intelligenza interoperabile

Infine, con il moltiplicarsi degli agenti, sarà l’interoperabilità a diventare essenziale. Le aziende avranno bisogno di un linguaggio comune per promuovere la collaborazione tra i loro agenti, in modo sicuro e oltre confini e fornitori. Potranno così sfruttare dati (e agenti) di diversi provider. Framework e specifiche come MCP o A2A matureranno e abiliteranno queste comunicazioni tra agenti.

I fornitori giocheranno qui un ruolo centrale: quello di orchestrare ecosistemi multi-agente, connettendo sistemi di AI interni ed esterni tramite API governate. Dovranno passare da isolate applicazioni di AI a un’intelligenza federata, in cui le informazioni fluiscono liberamente ma in sicurezza tra sistemi, cloud e aree geografiche.

La convergenza tra AI e calcolo quantistico

Guardando oltre il 2026, le pipeline quantistiche e di AI si integreranno gradualmente con il calcolo quantistico, che migliorerà ottimizzazione, simulazione e scoperta di materiali.

Calcolo ad alte prestazioni (HPC) e AI inizieranno a fondersi in sistemi ibridi distribuiti, consentendo alle aziende di risolvere problemi prima ritenuti impossibili, dalla scoperta di farmaci all’ottimizzazione delle reti energetiche. L’architettura ibrida deve essere pronta per questo paradigma, integrando alla fine simulatori quantistici, GPU e CPU sotto un unico livello di orchestrazione. Il quantum può agire come un acceleratore di modelli e risolvere problemi prima impossibili. Sebbene questo ultimo non sia allo stesso livello di maturità dell’AI, la convergenza di queste due tecnologie potrà portare vantaggi competitivi estremi alle imprese.

In sostanza, il tema dei dati porta automaticamente con sé quello delle connessioni: dai cluster distribuiti di Hadoop alla portata elastica del cloud, fino all’odierna intelligenza distribuita dell’AI. E nell’era della convergenza non siamo chiamati a scegliere da che parte stare (cloud o on-premise, umano o macchina), bensì a sviluppare le capacità di unire tutte queste componenti sotto un’architettura comune che abbia come fondamenta fiducia, efficienza e intelligenza. Affinché i progetti di AI siano implementati con successo in tutta l’impresa, devono poter accedere a tutti i dati, ovunque si trovino: nel cloud, nei data center o all’edge. E deve essere possibile sfruttarli con bassa latenza e disporre di un vero e proprio “data fabric” che aggiunga governance al sistema, chiarendo chi vi accede e perché, e fornendo adeguata tracciabilità. Questi sono alcuni dei principi dell’AI privata.

Leggi anche:  Insurance as a Platform, dal codice alla fiducia