Intelligenza artificiale generativa, opportunità reale o solo paura di restare indietro?

L’AI per CxO e LoB. Ecco come sbloccare il potenziale dell’intelligenza artificiale

Le aziende puntano sugli agenti autonomi come nuova frontiera dell’automazione. I governi trattano l’AI come una priorità geopolitica. Dietro le demo e i titoli ad effetto, si nasconde una realtà più complessala. La GenAI non è qui per rubarvi il lavoro, ma per sfidarvi

Chi non vive in una grotta sa sicuramente che l’intelligenza artificiale generativa, la GenAI, si è evoluta da semplice chatbot creativo a priorità strategica per i vertici aziendali. Strumenti come ChatGPT di OpenAI, Gemini di Google, Claude di Anthropic e DeepSeek R1 sono ormai diventati elementi culturali di riferimento a livello globale. Il CEO Study 2025 realizzato da IBM Institute for Business Value rileva che il 64% degli amministratori delegati ammette di essere spinto a investire in nuove tecnologie più per il timore di restare indietro che per una reale comprensione del valore che possono generare per l’organizzazione. Questo è particolarmente vero per l’AI, ambito in cui ho riscontrato che molti manager fraintendono o trascurano il cambiamento fondamentale introdotto dalla GenAI, in particolare il suo comportamento non deterministico rispetto all’IT tradizionale. Sebbene sia normale che un manager esperto includa nel proprio portafoglio decisionale anche scelte ad alto rischio, questo livello di adozione cieca è insolitamente elevato.

Come accade con la maggior parte delle tecnologie “disrupting”, spesso l’adozione sopravanza la strategia. E la spesa in infrastrutture tende a superare di gran lunga i ritorni effettivi. Nel mio ruolo di consulente e advisor in ambito AI, sento regolarmente i manager chiedersi sempre come trasformare la GenAI e i Large Language Model (LLM) in valore concreto per il business. Mary Meeker, storica esperta del web dell’era dot-com, è recentemente tornata alla ribalta con un report monumentale di 340 pagine sull’AI, che rappresenta una delle analisi più complete finora pubblicate sul panorama della GenAI, anche se sorprendentemente sorvola su alcuni rischi e svantaggi significativi.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Adozione, infrastruttura e competizione

ChatGPT ha raggiunto 800 milioni di utenti attivi settimanali in soli 17 mesi. Si tratta di un tasso di crescita più rapido rispetto a quello degli smartphone o dei social media. Sebbene non sia del tutto corretto confrontare le curve di adozione tra epoche diverse, visto che le infrastrutture tecnologiche di oggi sono ancora più avanzate, questo mette comunque in evidenza un punto importante: una rapida adozione non si traduce automaticamente in valore di business.

Leggi anche:  Intelligenza Artificiale e lavoro: un nuovo studio di Jabra collega l'IA a una maggiore felicità

I grafici di Mary Meeker enfatizzano l’enorme “superficie” di utilizzo della GenAI, ma, a mio avviso, la maggior parte di questo utilizzo riflette sperimentazioni personali più che un impiego stabile e in produzione a livello aziendale. Tuttavia, molti team e i loro CFO stanno iniziando a equiparare l’attività sui chatbot (misurata in token di testo, che di fatto corrispondono più o meno a una parola) al ritorno sull’investimento. Se le dashboard della GenAI mostrano enormi volumi di prompt, mentre i ricavi, l’efficienza o la soddisfazione dei clienti rimangono invariati, forse si sta misurando la cosa sbagliata: il volume non equivale a valore per l’azienda. L’opportunità della GenAI per le imprese non consiste nel cercare di replicare la curva di crescita di ChatGPT, Gemini, Llama o Claude. Consiste nell’identificare casi d’uso concreti in cui l’AI supporti i team, acceleri il processo decisionale o automatizzi attività che migliorino il risultato operativo. Questo può includere assistenti interni alla conoscenza, workflow intelligenti per i clienti, operazioni sui contenuti o strumenti di sviluppo ad alta efficienza. Ma tutto deve essere misurabile, tracciabile e allineato con gli obiettivi aziendali.

La “corsa agli armamenti” della GenAI

Soltanto lo scorso anno, le cosiddette aziende AI “hyperscaler”, cioè OpenAI, Alphabet (Google), Nvidia, Microsoft, Amazon e Meta, hanno investito oltre 210 miliardi di dollari in spese in conto capitale. Dove è finito tutto questo denaro? È stato investito nell’infrastruttura necessaria per addestrare, distribuire e scalare i Large Language Model su scala globale: chip, data center enormi, connessioni ad alta velocità e cluster AI ad alto consumo energetico.

Questo livello di investimento mi ricorda il periodo in cui lavoravo come consulente per banche d’investimento, dove i budget per l’infrastruttura crescevano costantemente per migliorare la posizione competitiva. Nel suo report, Mary Meeker evidenzia il salto prestazionale della nuova generazione di hardware AI, portando come esempio il chip Blackwell di Nvidia: rispetto al corrispettivo del 2014, garantisce un’efficienza computazionale superiore di 105mila volte per token elaborato. Un’accelerazione esponenziale che riflette la trasformazione in atto: la GenAI non è più solo software, ma un terreno di competizione infrastrutturale ad altissimo impatto. I principali hyperscaler non si accontentano più di utilizzare GPU Nvidia: stanno verticalizzando la propria stack hardware per ottimizzare prestazioni, costi e controllo strategico. Google con le sue TPU, Amazon con Trainium, e Microsoft con Maia 100 stanno costruendo pipeline proprietarie per l’addestramento e l’inferenza di LLM su scala. Non si tratta di iniziative sperimentali, ma di scelte di posizionamento per evitare il lock-in da vendor unici come Nvidia. La recente adozione delle TPU di Google da parte di OpenAI conferma la validità di questa strategia.

Leggi anche:  FUJIFILM Business Innovation lancia Apeos Connect

Cosa implica tutto questo per le imprese? Che prendere sul serio il potenziale di lungo periodo della GenAI significa andare oltre la semplice creazione di un’interfaccia chatbot o l’implementazione di un sistema RAG (Retrieval-Augmented Generation) basato su LLM remoti. Non basta un’integrazione superficiale per parlare di strategia. Seguendo l’esempio degli hyperscaler, molte aziende stanno investendo in infrastrutture AI dedicate – on-premise o in cloud privato – per riprendere il controllo su modelli, dati e pipeline operative. In questo scenario, i modelli linguistici non sono commodity, ma veri e propri asset strategici: rappresentano la codifica operativa, culturale e informativa del business stesso.

La strategia che crea valore

L’enfasi sui vantaggi dei modelli AI “di frontiera” per casi d’uso specifici (come finanza o medicina), ha portato molte realtà a valutare l’ipotesi di addestrare un modello AI di frontiera da zero. In questo caso occorre prepararsi a investire tra 500 milioni e un miliardo di dollari. Un impegno di tale portata impone una rigorosa due diligence, prima di decidere di fare il salto.

Parallelamente, negli ultimi due anni, i costi dell’inferenza AI – ossia l’utilizzo di modelli pre-addestrati – si sono ridotti di circa il 99%. Questa drastica diminuzione ha aperto nuove opportunità: i grandi modelli linguistici open source possono essere eseguiti su hardware economico di largo consumo, accessibile anche alle realtà meno strutturate. Un ulteriore vantaggio è rappresentato dall’esecuzione locale di questi modelli, che rimangono confinati all’interno del perimetro di reti protette da firewall, mitigando così i rischi legati alla privacy e alla sicurezza dei dati sensibili. In quest’ottica, si consiglia di esplorare Ollama, uno strumento che semplifica notevolmente l’installazione e la gestione di modelli generativi AI locali, favorendo l’adozione in ambienti aziendali protetti.

Leggi anche:  Aruba PEC ottiene la certificazione per la propria soluzione di Remote Automatic Identity Proofing basata su IA

I costi ridotti per l’uso dei modelli AI avvantaggiano certamente le imprese e gli sviluppatori. Ma è un’arma a doppio taglio, perché apre la porta a una concorrenza sempre più agguerrita caratterizzata da capacità “copia e incolla” rapide, margini compressi e una pressione crescente sul mercato. Un servizio clienti eccellente è spesso ciò che distingue le aziende migliori dal resto del mercato. Semplicemente distribuire un chatbot basato sulla RAG senza strumenti di valutazione automatica e tracciamento delle performance non è una strategia vincente e sicuramente non guadagnerà la fiducia degli utenti in questo nuovo mondo incentrato sull’AI. Occorre monitorare e valutare costantemente l’efficacia della propria AI: prompt, modelli, parametri del modello, dataset per la RAG, strategia di suddivisione (“chunking”), comportamento degli agenti e, naturalmente, l’impatto sul valore aziendale.


Frank Greco

Punto di riferimento internazionale nel campo dell’AI e del ML, del cloud/mobile computing e della comprensione del valore aziendale dell’IT. Formatore e manager, ma anche prolifico scrittore con numerose pubblicazioni all’attivo. Imprenditore innovativo e pensatore strategico con forti capacità di leadership e team leader, il suo background spazia da Google a lunga lista di startup tecnologiche. Oratore di grande esperienza, per il suo contributo alla comunità Java, è stato insignito del titolo di “Java Champion”. Coautore della specifica JSR381 Visual Recognition, l’API standard di integrazione del ML per sviluppatori Java, attualmente è presidente del NYJavaSIG, il più grande gruppo di utenti Java del Nord America.

Frank Greco presenterà per Technology Transfer “L’Intelligenza Artificiale per l’impresa moderna” il 14-15 ottobre 2025, e “Introduzione all’Intelligenza Artificiale Generativa per Sviluppatori Java” il 16-17 ottobre 2025. I seminari si terranno online Live Streaming