Large Language Model, siamo sicuri che siano intelligenti?

Large Language Model, siamo sicuri che siano intelligenti?

A cura di Mirko Gubian, Global Demand Senior Manager & Partner di Axiante

L’intelligenza artificiale continua a raccogliere adesioni entusiastiche, ma emergono in maniera crescente anche analisi più critiche e ponderate. Se inizialmente l’attenzione si concentrava principalmente sulle potenzialità rivoluzionarie di queste tecnologie, a ciò oggi si affiancano riflessioni più mature. In questo contesto ci si pone sempre più una domanda fondamentale: quello che chiamiamo “intelligenza artificiale” è davvero intelligente?

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Questo quesito si fa strada soprattutto quando parliamo di Large Language Model (LLM), una delle soluzioni che sta maggiormente alimentando il dibattito sulla differenza tra “comunicazione artificiale” e “intelligenza artificiale”.

Ben poco artificiali, non intelligenti

Iniziamo con il dire che i LLM non sono completamente “artificiali”, almeno nel senso tradizionale del termine. La loro “conoscenza” ha infatti origini non artificiali dal momento che proviene dalla mole di dati con cui sono stati addestrati; dati raccolti dal web e altre fonti create da esseri umani. Pertanto in senso stretto si tratta più di una forma sofisticata di riciclaggio informativo, non di creazioni originali.

Ma soprattutto sono essenzialmente sistemi per creare risposte, frasi, testi combinando le parole che statisticamente è più probabile che si presentino insieme, che si combinino fra loro. Gli analisti più critici definiscono queste soluzioni “pappagalli stocastici” perché, osservando le parole presenti per esempio in una domanda, aggiungono quelle successive in quanto le più probabili, non perché frutto di un ragionamento, di un pensiero vero e proprio.

Modelli statistici e illusione percettiva

Indubbiamente i LLM sono straordinari nella loro capacità di generare testi coerenti e “apparentemente” sensati, capacità, peraltro, in continua evoluzione. Ma questa abilità nasce da un processo puramente statistico. In altre parole sono tecnologie per generare testi basati su asset statistici, non su vera comprensione.

Leggi anche:  Microsoft AI Tour: l’era dell’AI è appena cominciata

Per questo motivo sarebbe più opportuno parlare di “comunicazione artificiale”, indubbiamente molto efficace ma comunque non “intelligente”. Un Large Language Model non ha conoscenza e consapevolezza del contenuto e del contesto a cui si riferisce. Siamo noi a interpretare come coerenti, significative e soprattutto pensate le risposte dei LLM, ma si tratta di un’illusione percettiva.

Emily Menon Bender – nota linguista americana, professoressa e direttrice del Laboratorio di Linguistica Computazionale presso l’Università di Washinton – sottolinea come i LLM non sono altro che “modelli statistici per la distribuzione delle forme delle parole in un testo, impostati per produrre sequenze dal suono plausibile, la cui percezione è condizionata dalla nostra competenza linguistica”, ovvero proiettiamo un significato e una intenzione dove in realtà esistono solo pattern statistici.

Mancanza di caratteristiche cognitive fondamentali

I LLM mancano completamente di intenzioni e di una vera comprensione. Non hanno quella capacità di perseguire obiettivi che caratterizza l’intelligenza umana. Se, per esempio, diciamo a qualsiasi chatbot o software di AI Generativa che ha sbagliato, lo ammette immediatamente e cambia strada senza ribattere. Al contrario l’essere umano, invece, è naturalmente portato a voler perseguire ciò in cui crede e ha dichiarato, anche di fronte a repliche e contraddizioni.

Questa mancanza di quella che potremmo definire “testardaggine” o “resistenza” alle critiche non è un difetto tecnico, ma la conferma delle assenze fondamentali. In primo luogo non hanno obiettivi intrinseci, anche se possono essere stimolati a produrre testi che sembrino convincentemente motivati da essi.

Inoltre non sono dotati di una vera comprensione. Un recente sondaggio ha esaminato le prestazioni dei modelli su un’ampia gamma, confermandone le crescenti e indiscusse capacità, tra cui comprensione e ragionamento, ma evidenziando anche che i LLM continuano a presentare capacità limitate nel ragionamento astratto e a essere inclini a confusione o errori in contesti complessi, oltre a presentare la forte tendenza a ripetere gli schemi osservati nei dati di addestramento.

Leggi anche:  Reti supporta un primario istituto bancario nell’aggiornamento delle postazioni di lavoro informatiche

Un LLM, anche se avanzato, manca anche di interazione fisica e sensoriale diretta con il mondo; una incapacità che ne inficia ulteriormente le capacità di comprensione.

Inoltre nessun LLM potrà mai essere davvero empatico come l’essere umano. È possibile simulare l’empatia, ma senza coscienza e vera contestualizzazione rimane qualcosa di superficiale, poco utile perché poco autentico. Senza sottovalutare che mentre un essere umano con esperienza in un campo specifico può “leggere tra le righe” e quindi cogliere sfumature e contraddizioni implicite, un LLM si limita a produrre risposte statisticamente plausibili basate sui pattern che ha memorizzato.

Verso una terminologia più precisa (e utile)

In questa direzione, i Large Language Model sono quindi certamente acceleratori di produttività in grado di fornire un prezioso supporto in termini di velocità, meno (o molto meno in alcuni casi) di qualità o accuratezza dal momento che, senza la supervisione critica umana, possono produrre contenuti plausibili ma errati, perpetuando bias e disinformazione anche su ampia scala.

È quindi importante che quello che oggi chiamiamo ormai indistintamente “intelligenza artificiale” sia più accuratamente definita come “comunicazione artificiale”: sistemi molto efficaci di generazione di testi e risposte coerenti, linguisticamente pertinenti ma privi di intelligenza, almeno nel senso tradizionale del termine.

Va infine aggiunto che questa precisazione terminologica non sminuisce il valore di questa tecnologia bensì aiuta a valutarli e approcciarli in modo più consapevole. Riconoscere questa distinzione è il primo passo per un suo utilizzo maggiormente maturo ed efficace, evitando sia l’entusiasmo acritico che la critica semplicistica.