L’AI oltre la bolla, i limiti strutturali dei LLM

L’AI oltre la bolla, i limiti strutturali dei LLM

Capire la tecnologia per capire il mercato. Nel dibattito pubblico sull’intelligenza artificiale si continua a porre una domanda apparentemente centrale: l’AI è davvero una bolla finanziaria?

La domanda è legittima, ma formulata nel modo sbagliato. Prima ancora di interrogarsi sugli esiti di mercato, bisognerebbe chiarire che cosa sia oggi l’intelligenza artificiale dal punto di vista tecnologico e solo partendo da questa comprensione è possibile valutare in modo razionale le implicazioni economiche, industriali e finanziarie. Un passaggio chiave per capire dove siamo arrivati è il salto qualitativo tra GPT‑2 e GPT‑3.

GPT‑2 rappresentava un’evoluzione dei chatbot tradizionali, ma produceva risposte spesso incoerenti, casuali e prive di una struttura argomentativa stabile. Con GPT‑3 emerge invece qualcosa di diverso, una capacità di generare sequenze di output che, dal punto di vista statistico, assomigliano a un ragionamento. Non perché il modello “ragioni” nel senso umano del termine, ma perché la distribuzione di probabilità appresa è sufficientemente ricca da produrre catene di testo coerenti e contestualmente plausibili. È questo salto qualitativo, più che la semplice crescita dimensionale, ad aver portato l’AI al grande pubblico e ad aver reso l’idea di “assistente universale” credibile per utenti e imprese.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Il secondo punto, meno discusso ma cruciale, riguarda i limiti strutturali delle architetture attuali. Gli approcci oggi dominanti, basati su grandi modelli autoregressivi, mostrano rendimenti marginali decrescenti perché ogni incremento di scala richiede ordini di grandezza in più di dati e calcolo per ottenere miglioramenti via via più piccoli sulle metriche standard. Aumenti incrementali di parametri e di potenza di calcolo non garantiscono né un miglioramento sostanziale dell’accuratezza né soprattutto una riduzione sistematica delle cosiddette allucinazioni, che vengono ormai riconosciute come un effetto intrinseco del modo in cui questi modelli generano testo, ossia predicendo il token più probabile, considerato il contesto, non la “verità” del mondo.

Leggi anche:  Quale sviluppo per la moderna movimentazione intralogistica?

LO “SCALING WALL” DEI MODELLI AI

Un vero salto qualitativo, sempre più spesso, viene quindi collegato alla necessità di nuove architetture e di una diversa formalizzazione del ragionamento, non al semplice scaling delle soluzioni esistenti. Questa percezione è condivisa anche al di fuori dei circuiti accademici. Nelle comunità tecniche online, su piattaforme come Reddit, in particolare nei forum frequentati da ricercatori e ingegneri, emergono osservazioni difficilmente rintracciabili nella comunicazione ufficiale delle aziende.

In thread molto discussi su r/MachineLearning e r/LocalLLaMA vari sviluppatori si chiedono se non si sia raggiunta una sorta di “scaling wall” nei modelli base, notando come i costi crescano più rapidamente dei benefici marginali sulle prestazioni reali. Su r/artificial un post dal titolo “The real reason LLMs hallucinate –  And why every fix has failed” evidenzia che le allucinazioni non siano un bug localizzato, ma una conseguenza strutturale del fatto che il modello deve comunque “indovinare” quando manca evidenza sufficiente, qualunque patch si applichi attorno. Allo stesso modo, discussioni su r/singularity insistono sul fatto che, senza un meccanismo esterno di verifica o “retrieval”, le allucinazioni rimarranno intrinseche ai LLM e ne limiteranno l’uso in contesti critici.

Pur non costituendo letteratura scientifica, queste discussioni rappresentano una forma di recensione tecnica informale della promessa industriale dell’AI e un osservatorio privilegiato sul divario tra aspettative di marketing e utilizzo concreto. Da qui nasce una delle domande più ricorrenti tra investitori e analisti, ovvero se serviranno ancora tutte queste GPU di NVIDIA? Nel breve–medio periodo la risposta è verosimilmente sì.

La fase attuale è caratterizzata da un’intensa sperimentazione: l’evoluzione verso architetture multi-agentiche rende il fabbisogno di calcolo molto oneroso. Nel lungo periodo, tuttavia, lo scenario potrebbe cambiare in modo significativo. Perché se dovessero emergere modelli realmente più efficienti, in grado di ottenere le stesse prestazioni con un ordine di grandezza in meno in termini di parametri e calcolo, potrebbe affermarsi un ecosistema hardware più leggero e specializzato.

Leggi anche:  Europa sotto assedio, la disruption può ancora essere un’opportunità?

In questo quadro è rilevante il caso di Google, che sta ottenendo risultati competitivi facendo leva su architetture proprietarie come le TPU e per alcuni workload stabili di larga scala le TPU di ultima generazione offrono un rapporto costo‑prestazioni e un’efficienza energetica superiori a molte GPU generaliste. Parallelamente, NVIDIA è consapevole di questo rischio strategico e sta cercando di difendere il proprio posizionamento lungo la catena del valore non solo con hardware sempre più potente, ma anche attraverso l’integrazione verticale dello stack software, librerie ottimizzate e acquisizioni mirate nell’ecosistema AI.

IL RISCHIO FINANZIARIO DELL’AI

Dal punto di vista finanziario, il quadro resta delicato. OpenAI e altre realtà di frontiera hanno assunto impegni pluriennali molto rilevanti sul fronte degli investimenti infrastrutturali e delle partnership industriali, in un contesto in cui il mercato continua a scontare scenari di crescita estremamente ottimistici. Se l’evoluzione tecnologica dovesse rallentare o cambiare direzione – per esempio privilegiando modelli più efficienti e meno compute‑intensive rispetto a quelli “brute‑force” – alcune valutazioni basate sull’idea di un ciclo infinito di CapEX e di monetizzazione rapida dell’AI potrebbero rivelarsi eccessive.

In questo contesto si inserisce una linea di ricerca emergente che esplora soluzioni alternative allo scaling puro, come meccanismi di memoria esterna, sistemi di retrieval strutturato o una separazione più netta tra memoria statica e ragionamento dinamico. L’obiettivo non è costruire modelli semplicemente “più grandi”, ma consentire loro di allocare le risorse computazionali dove realmente servono, attivando percorsi di calcolo più profondi solo quando necessario e appoggiandosi a basi di conoscenza esterne per i fatti.

Il segnale di fondo è chiaro: una parte rilevante del progresso futuro potrebbe derivare dall’efficienza algoritmica, dall’ingegneria dei sistemi e da nuove architetture orientate al reasoning, più che dalla sola forza bruta di calcolo. È inoltre realistico aspettarsi che, come in ogni grande ciclo tecnologico, molte società oggi attive nel settore dell’intelligenza artificiale non sopravvivranno. Alcune falliranno, altre vedranno crollare drasticamente le proprie valutazioni quando le aspettative di mercato si confronteranno con limiti tecnologici più duri del previsto, costi infrastrutturali persistenti e modelli di business non sostenibili. Non è un’anomalia, ma una dinamica storicamente ricorrente in tutte le grandi ondate di innovazione dalle ferrovie all’elettricità, fino a Internet e alle dot‑com. La tecnologia di fondo continua a diffondersi, ma non tutte le realtà che cavalcano l’hype iniziale arrivano all’equilibrio di lungo periodo.

Leggi anche:  ICT sostenibile, la sfida del ROI

Proprio per questo diventa sempre più evidente la necessità di strumenti di valutazione specifici per l’AI. Non semplici metriche finanziarie di breve termine, ma vere forme di rating tecnologico, basate su audit indipendenti e processi di due diligence capaci di valutare architetture, qualità e provenienza dei dati, robustezza dei modelli, scalabilità operativa e governance tecnica. Un ecosistema di questo tipo ridurrebbe il rischio per gli investitori e contribuirebbe a una migliore allocazione del capitale, premiando le aziende con fondamentali tecnologici solidi e limitando gli effetti distruttivi delle inevitabili fasi di correzione del mercato, in cui la narrativa tende a oscillare tra euforia e rigetto.