Nuove acquisizioni, intelligenza artificiale, cloud ibrido e sovrano. L’amministratore delegato di IBM Italia Alessandro La Volpe interviene sui temi caldi di un 2025 da record, anticipando le prossime mosse strategiche sul fronte del quantum computer
Il 2025, il quinto anno dell’era Arvind Krishna, non poteva concludersi in modo più positivo per IBM. «Il quarto trimestre e l’intero 2025 si sono chiusi con risultati molto solidi» – dichiara il 28 gennaio l’amministratore delegato di IBM Italia Alessandro La Volpe, dopo la pubblicazione dei risultati della corporation. Risultati che confermano la forza della direzione strategica intrapresa, il valore del portfolio di offerta e la capacità di integrazione tra IBM Technology, IBM Consulting e l’ecosistema dei partner.
A monte dei risultati finanziari e della coerenza del portafoglio, emerge la visione strategica di Krishna. Già artefice dell’acquisizione di Red Hat – operazione da 34 miliardi di dollari completata nel 2019 – il CEO ha impresso una direzione chiara a IBM. Cloud ibrido e intelligenza artificiale rappresentano i due pilastri su cui si fondano tecnologia, ricerca e posizionamento di mercato di Big Blue. Alessandro La Volpe delinea a partire dai risultati finanziari e dalle soluzioni recentemente annunciate, il presente e l’immediato futuro di IBM. Soffermandosi sulle prospettive che l’attuale percorso dell’azienda – tra i big dell’IT quella più concretamente impegnata sul fronte dell’informatica quantistica – potrebbe aprire sia a livello globale sia per l’ecosistema tecnologico italiano.
L’AI ALIMENTATA DA DATI REAL-TIME
«Dalla nomina di Krishna, la scelta di concentrarsi sulla tecnologia e di valorizzare soluzioni e servizi ci ha fatto diventare un unicum sul mercato, dove la consulting è parte integrante della nostra identità». Se l’acquisizione di Red Hat getta le basi del posizionamento di IBM nel campo del cloud ibrido, quella che è stata annunciata proprio alla fine del 2025 dice molto della strategia dedicata all’intelligenza artificiale e dell’impegno sul fronte dei nuovi modelli di approccio al problema dell’informazione per le aziende data-driven. La nuova operazione, che dovrebbe chiudersi entro la metà del 2026, riguarda Confluent, significativa realtà della Silicon Valley fondata nel 2014 dai creatori di Apache Kafka come progetto open source all’interno di LinkedIn, e oggi una delle principali piattaforme per la gestione di dati in tempo reale.
Qual è l’interesse di IBM in questa tecnologia? «Confluent si inserisce in un contesto che oggi è determinante» – spiega l’AD di IBM Italia. «La capacità di gestire in tempo reale, a bassissima latenza, imponenti volumi di dati provenienti da fonti diverse e destinati a supportare i processi di automazione e di trasformazione digitale dei clienti è un fattore chiave. Questa acquisizione, il cui valore stimato è di 11 miliardi di dollari, rappresenta la seconda operazione più importante dopo Red Hat».
L’informazione real-time è la grande sfida nell’evoluzione degli attuali modelli di addestramento dell’intelligenza artificiale generativa e del machine learning, perché permette di colmare l’attuale gap tra dati statici e dinamici e apre la strada a un aggiornamento delle basi di conoscenza dell’AI in modo molto più rapido e compatibile anche con le informazioni che viaggiano continuamente su Internet. In più, Confluent condivide pienamente il paradigma open source che da tempo caratterizza l’offerta di IBM e ne guida le scelte. In virtù di questa omogeneità, è possibile garantire l’integrazione end-to-end di applicazioni, analisi, ecosistemi di dati e agenti AI per promuovere l’intelligence e la resilienza negli ambienti cloud ibridi. Secondo Arvind Krishna, con l’acquisizione di Confluent, IBM fornirà una data platform intelligente per l’IT aziendale, progettata appositamente per l’AI.

UN MAINFRAME PER L’AI
Tornando ai risultati, Alessandro La Volpe evidenzia che il buon andamento dell’ultimo trimestre si è tradotto in cifre di tutto rispetto lungo l’arco dell’anno. IBM chiude il 2025 con un fatturato di 67,5 miliardi di dollari, pari al 6% di crescita a valuta costante sul 2024 e le aspettative per il 2026 sono altrettanto favorevoli. L’ultimo quarto vede crescere molto bene il software per il cloud ibrido, e benissimo quello per i dati. Ancora più soddisfacente l’andamento del comparto infrastruttura ibrida: i dati corporate parlano di un 67% in più per il business generato dalla nuova generazione dei mainframe, la famiglia IBM Z.
«Il nuovo mainframe z17 è uno dei motori di questa crescita» – osserva La Volpe. «Questi sistemi sono il pilastro della strategia IBM e consentono di far girare le macchine transazionali dei clienti con grandi performance e con ogni tipo di workload in ambito pubblico o privato. Sempre con riferimento al mainframe c’è da segnalare una significativa novità pensata per adattare l’architettura transazionale dello z17 alle necessità di calcolo dell’AI. «Abbiamo rilasciato una nuova famiglia di schede di accelerazione compatibili con z17 e LinuxONE 5, proprio per assicurare scalabilità verso l’AI generativa e i language model più complessi, senza costringere l’utilizzatore a trasferire i workload dell’AI all’esterno del mainframe».
Le schede Spyre Accelerator sono ottimizzate per il calcolo inferenziale e dispongono di 32 core ciascuna. Un singolo z17 può accogliere fino a 48 schede di accelerazione, raggiungendo una capacità di elaborazione pari a 450 miliardi di inferenze al giorno. Le aree applicative target sono quelle dell’AI generativa e agentica, nonché i modelli ad alta precisione usati per la valutazione in tempo reale dei rischi, l’individuazione dei tentativi di frode e per la cosiddetta “ingestione” dei dati.
Le architetture hybrid cloud su cui IBM ha investito negli ultimi anni sono ormai uno standard di fatto – come spiega La Volpe – perché consentono di addestrare ed eseguire modelli analitici e soluzioni di intelligenza artificiale dove risiedono i dati: all’interno dei confini aziendali, nei siti produttivi o nel cloud pubblico. «Riteniamo che il 2026 porterà alla definitiva affermazione dell’intelligenza artificiale “in produzione” e dell’AI effettivamente capace di gestire i processi di business. Questo è sicuramente un momento di svolta» – ribadisce l’AD di IBM Italia. «Ci stiamo liberando da quella che chiamo la “palude” del prototipo, di casi d’uso fini a se stessi e che non si integrano nei processi aziendali».
Tutto ciò di cui si è parlato finora – streaming in tempo reale dei dati, cloud ibrido, confluenza di transazionale e inferenziale, salto di qualità dell’AI che entra direttamente nella gestione del business – contribuirà a rendere ancora più urgente il tema della giurisdizione sul dato: la sovranità digitale. Nel corso degli anni, al problema della regolamentazione della privacy e della ownership, è stata data una risposta geografica: a discriminare, il luogo fisico dei server dei data center privati e del cloud pubblico. «IBM sta pensando a una soluzione diversa con il rilascio della piattaforma software chiamata Sovereign Core, che sarà disponibile verso l’estate, e che vuole risolvere il classico dilemma tra controllo e innovazione, ma senza correre il rischio di perdere la sovranità su dati, applicazioni e infrastruttura IT». L’intelligenza artificiale oggi sposta il focus dalla sovranità geografica a un modello più ampio di sovranità digitale. Questi sistemi operano continuamente in modalità di esecuzione, dipendono da dati e modelli altamente sensibili e introducono nuovi obblighi normativi in materia di responsabilità, verificabilità e governance. Parlare di sovranità significa avere visibilità e controllo su chi gestisce le piattaforme, dove i modelli di AI vengono eseguiti e come viene gestita l’inferenza, l’accesso amministrativo ai sistemi e il modo in cui le varie conformità possono essere dimostrate e documentate.

SOVRANITÀ BY-DESIGN
La risposta a un problema così complesso è la “sovranità by design”, l’approccio che Sovereign Core rende operativamente possibile. In questo modo, la sovranità diventa, come è stato per la sicurezza by-design, una proprietà intrinseca delle piattaforme software. La nuova soluzione IBM punta a fornire, attraverso un’architettura open source basata su Red Hat OpenShift, una piattaforma per la sovranità digitale gestita direttamente dal cliente, senza intermediazioni. Identità degli utenti e relative chiavi di autenticazione, autorizzazione, crittografia e gestione degli accessi rimangono all’interno dei suoi confini. All’interno dei quali vengono generati, archiviati e gestiti i dati operativi completi, la telemetria del sistema e i registri compilati con i dati rilevati. Sotto il pieno controllo dell’owner restano anche la distribuzione dei modelli AI e l’esecuzione dell’inferenza, con tracciabilità e supervisione complete.
«Questo approccio non si limita più a costruire semplicemente il proprio data center in Europa» – spiega La Volpe. «Ma permette di mantenere il controllo delle proprie chiavi di casa, ovunque si trovino asset applicativi e dati. Sovereign Core dispone di strumenti che consentono di validare la compliance delle applicazioni, senza delegare ad altri la gestione della sovranità».
IL QUANTUM COMPUTING
In mezzo a tanti argomenti, il quantum computing è forse l’elemento più caratterizzante della vision di IBM sul piano competitivo. Soprattutto perché, quando si parla di informatica quantistica e delle sue dirompenti capacità, convergono molte delle problematiche affrontate sin qui. Prima tra tutte la questione della sicurezza crittografica di chiavi universalmente ritenute inviolabili (almeno nei tempi resi mediamente possibili dai calcolatori convenzionali), ma che non potrebbero reggere alle prestazioni di un computer quantistico. La Volpe osserva che per quanto sia avanzata la posizione “quantistica” di IBM, nell’orizzonte tracciato dal piano strategico 2020, ci sono ancora due giri di boa.
Il 2026 che segnerà la certificazione dei primi casi di “quantum advantage”: applicazioni in cui il calcolo quantistico supera, in modo misurabile, le capacità dei sistemi tradizionali. «È un’aspettativa molto concreta in campi come i modelli finanziari o la ricerca di nuovi materiali» – afferma La Volpe. «Una prima comunicazione è già arrivata a fine 2025 dalla società finanziaria britannica HSBC che in collaborazione con IBM ha risolto un problema di ottimizzazione nel trading obbligazionario con un’accuratezza migliore del 34% rispetto al calcolo convenzionale». L’altro traguardo, che secondo le stime verrà raggiunto nel 2029, è la fault tolerance. Al momento nei computer quantistici non è ancora possibile eliminare del tutto il rumore di fondo dell’elaborazione, che a sua volta genera incertezza nei risultati con troppi margini di approssimazione. «Il problema è di natura tecnologica, non algoritmica, ma prevediamo che entro quel termine verrà superato» – dichiara La Volpe.
Il dominio di IBM nel nascente mercato dell’IT quantistica, uno dei più promettenti nell’arco dei prossimi decenni, inizia nel 2016, con la dimostrazione dei primi circuiti della IBM Quantum Platform. Il computer quantistico non è una scatola o un mainframe standalone, ma un insieme di circuiti in un sistema molto complesso intorno al quale va costruito un data center e un intero ecosistema di scienziati, ricercatori, programmatori e linguaggi. Questo è il ruolo della IBM Quantum Network, la rete mondiale di 300 università, istituzioni e aziende che raggruppa gli sperimentatori in grado di accedere alle risorse non ancora commerciali che IBM mette a disposizione della sua rete attraverso il cloud. Sebbene formalmente facciano capo alla rete globale dei laboratori di ricerca IBM, secondo La Volpe queste risorse hanno già generato negli ultimi anni contratti per un valore complessivo di un miliardo di dollari.

L’IT PER IL FUTURO
Alla base delle applicazioni – che spaziano dallo sviluppo di nuove molecole in campo farmacologico e ingegneristico alla previsione del rischio meteorologico e climatico, passando per l’ottimizzazione finanziaria, della logistica, della generazione e distribuzione dell’energia elettrica – c’è un kit di sviluppo open source, Qiskit, che è l’equivalente quantistico di CUDA, lo strumento che NVIDIA mette a disposizione di chi vuole costruire applicazioni avanzate per le GPU. Dal 2016 IBM ha messo a disposizione 89 processori quantistici. Oggi ne sono attivi più di 15, tutti da oltre 100 qubit, alcuni dedicati ad accordi nazionali, altri nei due quantum data center di IBM: quello di Poughkeepsie negli USA e quello di Ehningen in Germania, voluto fortemente dall’ex cancelliera Merkel e inaugurato nel 2024. Sono inoltre in funzione nove computer quantistici “on site”, l’ultimo e più potente dei quali è l’IBM-Euskadi Quantum Computational Center di Donostia-San Sebastián, nei Paesi Baschi, un gigante da 156 “qubit”, l’unità fondamentale del calcolo quantistico. Il sistema – il più potente costruito finora da IBM – è operativo dallo scorso ottobre ed è impiegato principalmente nella ricerca in ambito molecolare.
Nella creazione del futuro mercato dell’informatica quantistica e dello sviluppo del suo indispensabile bacino di nuove competenze, IBM ritrova quella che era stata la sua missione formativa ai tempi dell’invenzione tecnologica del mainframe. Vocazione che Big Blue non ha mai abbandonato. Ancora prima di raggiungere la piena maturità, il computer quantistico richiede molto lavoro, per il quale occorre formare una nuova generazione di “programmatori”. Uno degli aspetti da coprire è proprio la sicurezza degli algoritmi in uno scenario in cui i sistemi di crittografia tradizionale sono a rischio. Il National Institute of Standards and Technology (NIST) ha già certificato tre algoritmi “quantum safe” in ambito cybersecurity e due di questi sono targati IBM.
Inoltre, il programma IBM Impact Accelerator certifica diversi percorsi formativi orientati allo sviluppo delle nuove competenze. IBM promuove anche una nuova cultura della sicurezza attraverso la Cyber Academy, realizzata in Italia con la collaborazione dell’Agenzia per la Cybersicurezza Nazionale. Mentre strumenti come AI Toolkit for z e l’ambiente di sviluppo Project Bob vengono rilasciati ai coder per promuovere la creazione di software agentico e modernizzare le applicazioni legacy in chiave AI.
«In ambito quantum siamo attivi anche in Italia, dove in occasione di ComoLake 2025 Digital Innovation Forum, abbiamo presentato “Quantum Lake” l’iniziativa che ha l’obiettivo di portare i nostri quantum ambassador nelle scuole secondarie per introdurre il tema ai futuri universitari» – spiega Alessandro La Volpe, che vede nella nuova informatica e nel potenziale indotto una grande occasione di rilancio economico, industriale e culturale dell’Europa e dell’Italia in particolare.
Se l’installazione dell’IBM Quantum System Two ha posto la Spagna sul nodo europeo della tecnologia quantistica, è lecito chiedersi se anche l’Italia possa ritagliarsi un ruolo analogo. «I modelli sono diversi: i Paesi Baschi hanno saputo muoversi nell’ambito di un governo regionale molto forte, mentre in Italia la situazione è più frammentata» – risponde La Volpe. «Prima bisogna individuare i giusti driver. Sono già aperte diverse interlocuzioni a più livelli, insieme alle tante realtà italiane che utilizzano i sistemi quantistici di IBM in cloud. Diverse università stanno portando avanti iniziative promettenti». L’auspicio è che i frammentati interessi delle numerose parti in gioco possano convergere in un ecosistema nazionale focalizzato su una tecnologia ad altissimo potenziale.


































