GenAI oltre le promesse. Quello che le previsioni market-driven non dicono

GenAI oltre le promesse. Quello che le previsioni market-driven non dicono

Molte aziende stanno correndo verso l’AI senza sapere dove stanno andando. Sotto la superficie dell’entusiasmo, mancano governance, policy e comprensione tecnica. Gli agenti autonomi crollano al primo impatto con la realtà. Il rischio? Trasformare l’innovazione in instabilità

Le offerte di lavoro per ruoli legati alla GenAI sono in forte aumento. Non si tratta di un’allucinazione dell’AI: è un segnale reale. Le pipeline LLM richiedono data engineering, orchestrazione, logiche di retrieval, raccolta di metriche, valutazione e instradamento degli agenti. Far partecipare gli sviluppatori a un semplice bootcamp di prompt engineering non li renderà pronti a gestire i problemi reali di operazioni in produzione.

Mary Meeker, figura di riferimento dell’era dot-com, è tornata sulla scena con un report monumentale di 340 pagine dedicato all’intelligenza artificiale. Un’analisi tra le più approfondite finora disponibili sul panorama GenAI, che offre una visione chiara e strutturata delle opportunità emergenti, ma che sorvola sorprendentemente su rischi critici e implicazioni etiche. Mary Meeker sembra suggerire che il capitale da solo possa colmare il divario di talento. Ma, sulla base della mia esperienza nella gestione di team e nella guida di startup tecnologiche, serve un approccio più strategico e completo. Senza competenze specialistiche, anche un ingegnere potrebbe non accorgersi che il calo di performance del proprio chatbot RAG è dovuto a una suddivisione errata dei testi (“chunking”). Un problema tecnico all’apparenza marginale, che si traduce in un’esperienza frustrante per gli utenti.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Nel suo lavoro, Mary Meeker considera l’integrazione dell’AI determinante nella didattica: chi resta indietro rischia l’irrilevanza entro dieci anni. Università e centri di formazione sono avvisati. A mio avviso, la previsione appare un po’ iperbolica e semplicistica, soprattutto se si calcola la lentezza con cui si evolve il sistema educativo tradizionale – realtà che conosco bene in prima persona – avendo insegnato all’università. Sicuramente, sarebbe un grosso errore ignorare l’impatto della GenAI sull’apprendimento degli studenti e la formazione degli insegnanti. Eppure, Mary Meeker sorvola su un punto critico: integrare la GenAI nella didattica presuppone che gli insegnanti la comprendano a fondo, dedicando tempo e risorse. Se a parole può suonare convincente nella pratica è tutt’altra musica: molti docenti sono già sottopagati e privi del supporto necessario per sobbarcarsi un’ulteriore responsabilità di questo peso. Nel suo report, Meeker cita la Stanford University ben 41 volte: pochissime realtà al mondo possono permettersi budget e strutture simili.

Leggi anche:  Accenture Technology Vision 2025: gli agenti IA ridisegnano il futuro delle imprese

Lezioni sull’implementazione

Quando si pensa alla GenAI in produzione, spesso si immaginano innovazioni futuristiche sbalorditive e demo spettacolari. Ma la verità è che le implementazioni di maggior successo sono tutto tranne che appariscenti. Anzi, sono persino noiose, ed è proprio per questo che funzionano. Nel suo report, Mary Meeker cita alcuni casi: Kaiser Permanente impiega scribi AI per supportare diecimila medici nella documentazione delle visite; Waymo gestisce il 27% delle corse taxi a San Francisco con veicoli autonomi; Wayfair utilizza agenti AI per smistare in modo efficiente le richieste di assistenza clienti. Tutti questi esempi sono stabili, controllati e integrati nelle attività core dell’azienda. I veri casi di successo non fanno rumore, ma sono stabili, controllati e integrati nelle attività core dell’azienda· risolvono problemi reali senza rischiare il caos.

La “tecnologia agentica” è l’ultima buzzword dell’intelligenza artificiale, spesso evocata in conferenze e report trimestrali più per colpire gli investitori che per descrivere implementazioni reali. Inutile dire che gli agenti non sono una tecnologia nuova. Come molti colleghi, anche io ho avuto una startup basata sugli agenti durante l’era della bolla dot-com, decenni fa. Purtroppo non riuscimmo a ottenere finanziamenti perché un importante fondo di venture capital californiano decise che eravamo “sulla costa sbagliata” (noi eravamo a New York, non nella Silicon Valley). L’attuale concetto di AI agentica nasce come evoluzione dei modelli di ragionamento, una classe di LLM in grado di scomporre problemi complessi in passaggi gestibili. Questi modelli possono pianificare e descrivere in testo una strategia risolutiva, ma non eseguirla direttamente. Per colmare questo limite, gli LLM utilizzano il cosiddetto function-calling, che consente di attivare codice esterno quando serve passare all’azione. Combinando i modelli di ragionamento con il function-calling, un agente diventa un’astrazione di livello superiore: sistemi esperti in grado di gestire errori, mantenere il contesto conversazionale e orientarsi a obiettivi specifici per svolgere compiti al posto dell’utente.

Sulla carta suona benissimo. In alcuni casi semplici, dove i compiti sono ben definiti e il rischio è basso, gli agenti dimostrano di funzionare piuttosto bene in produzione, generalmente in applicazioni interne. Mary Meeker nel suo lavoro afferma che stiamo entrando in una nuova era di “infrastruttura azionabile” grazie agli agenti. Peccato che molte aziende dispongano già da tempo di sistemi capaci non solo di elaborare informazioni, ma anche di avviare azioni autonome (actionable infrastructure).

Leggi anche:  NetApp ridefinisce lo storage a blocchi per i carichi di lavoro moderni

In passato, sono stato consulente tecnologico per diverse banche d’investimento. Tutte utilizzano da decenni sistemi di messaggistica aziendale (Tibco, JMS, Kafka, Aeron, Chronicle…). Per esempio, un messaggio generato come trigger deterministico da un algoritmo di trading può avviare un’azione di acquisto o vendita su un server in millisecondi. L’unica novità è che oggi il trigger non è più generato da un algoritmo deterministico, ma da un modello linguistico, con un approccio probabilistico e meno prevedibile.

Nonostante l’entusiasmo di Mary Meeker, la verità è un’altra: la maggior parte degli “agenti autonomi” crolla davanti alla complessità del mondo reale. Ecco cosa accade in produzione: le context window si saturano, mandando in confusione i modelli; i limiti di token vengono superati con facilità; le chiamate agli strumenti si trasformano in un caos di orchestrazioni; i modelli di ragionamento allucinano più spesso di quanto si ammetta; la spiegabilità cala drasticamente, rendendo il debug un incubo. E come se non bastasse, quando si scala, emergono gravi problemi di sicurezza.

Governance e policy

Sorprendentemente, Mary Meeker sembra sorvolare sul lato oscuro della GenAI: nel suo report si trovano pochissimi riferimenti a bias, disinformazione o rischi per la sicurezza. La sua visione resta saldamente market-optimistic, dando quasi per scontato che l’innovazione finirà per correre più veloce della regolamentazione. Lo sviluppo della GenAI supera la capacità di governo della maggior parte delle organizzazioni: un aspetto che nessun manager può permettersi di ignorare.

Eppure, molti leader hanno avviato progetti pilota e primi deployment di AI, per poi accorgersi che le policy aziendali per un utilizzo etico, conforme e responsabile sono quasi inesistenti. Questo rappresenta un rischio strategico significativo. Senza una governance trasparente ed efficace, le iniziative basate sull’AI rischiano di generare più esposizione che valore, specialmente in applicazioni esterne o in decisioni aziendali critiche.

Leggi anche:  Cisco: al via “Programma in Rete”, il laboratorio virtuale per imparare a programmare

Come le banche d’investimento, storicamente attente alla gestione del rischio, valutano ogni decisione finanziaria e strategica in base all’impatto potenziale sul portafoglio e sull’azienda, così le aziende devono oggi valutare attentamente i rischi operativi, legali e reputazionali legati agli LLM. Questi sistemi, essendo probabilistici e non deterministici, sono intrinsecamente soggetti a errori e “allucinazioni”, che possono avere conseguenze rilevanti se non gestite con attenzione.

La saggezza batte l’intelligenza

La GenAI è uno strumento potente, con un potenziale enorme. Nessuno mette in dubbio questo fatto. La pressione competitiva spinge le aziende a muoversi rapidamente. Ma, esistono limiti che sarebbe meglio tenere in considerazione: gli LLM, essendo modelli probabilistici e non deterministici, sono soggetti a frequenti allucinazioni. I meccanismi di governance attuali sono fragili o inesistenti. Mentre ciò che genera valore reale per il business non è mai semplice da individuare. È facile lasciarsi travolgere dall’hype di vendor e media. Pazienza e buon senso rimangono qualità che non dovrebbero fare difetto ai manager chiamati a decidere.


Frank Greco

Punto di riferimento internazionale nel campo dell’AI e del ML, del cloud/mobile computing e della comprensione del valore aziendale dell’IT. Formatore e manager, ma anche prolifico scrittore con numerose pubblicazioni all’attivo. Imprenditore innovativo e pensatore strategico con forti capacità di leadership e team leader, il suo background spazia da Google a una lunga lista di startup tecnologiche. Oratore di grande esperienza, per il suo contributo alla comunità Java, è stato insignito del titolo di “Java Champion”. Coautore della specifica JSR381 Visual Recognition, l’API standard di integrazione del ML per sviluppatori Java, attualmente è presidente del NYJavaSIG, il più grande gruppo di utenti Java del Nord America.

Frank Greco presenterà per Technology Transfer “L’Intelligenza Artificiale per l’impresa moderna” il 14-15 ottobre 2025, e “Introduzione all’Intelligenza Artificiale Generativa per Sviluppatori Java” il 16-17 ottobre 2025. I seminari si terranno online Live Streaming