I limiti dell’intelligenza artificiale

I limiti dell’intelligenza artificiale

Tutti parlano di intelligenza artificiale (AI). È l’argomento del momento. Il tema ha assunto rilevanza politica, economica, sociale, psicologica, etica e filosofica. Se ne occupano, quindi, giustamente, le istituzioni, le aziende, le scuole, i mass media e anche i cittadini. Al grande pubblico, in particolare, viene presentata una AI per certi versi strabiliante, panacea per risolvere qualsiasi problema. Non occorre più spiegare le capacità e le funzionali dei sistemi informatici: basta usare l’aggettivo “intelligente” per fagli assumere un carattere taumaturgico.

Yuval Noah Harari, storico e filosofo israeliano, sostiene addirittura che essa rappresenti una delle più grandi rivoluzioni della storia, con il potenziale di trasformare radicalmente la nostra società. Egli ritiene che l’AI sia già oggi in grado di svolgere compiti riservati agli esseri umani e continuerà a migliorare a un ritmo esponenziale. Entro il 2050, è possibile che le AI siano in grado di superare gli esseri umani in quasi tutte le attività cognitive. Questa prospettiva solleva, naturalmente, una serie di questioni. Cosa succederà al lavoro? Come potremo garantire che l’AI sia usata in modo responsabile ed etico? Come gestire gli inevitabili errori insiti in ogni sistema? Occorre, quindi, sicuramente riflettere su queste domande. Uno dei preconcetti da evitare, ad esempio, è la “distorsione da interpretazione”, come avvenne all’inizio del Novecento con il cavallo “Clever Hans”, che si riteneva sapesse contare. Hans dava sempre la risposa corretta, alzando la zampa e battendo lo zoccolo fino ad arrivare alla soluzione aritmetica. L’analisi scientifica dimostrò che Hans era in grado di “leggere” l’atteggiamento degli esseri umani che gli stavano intorno e quindi di indovinare.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Leggi anche:  Adobe migliora l'accessibilità dei PDF con Adobe Sensei AI

Da allora, è stato dato il nome al pregiudizio noto come “effetto Clever Hans”, assolutamente da escludere nella ricerca scientifica, e che potrebbe riguardare anche l’AI. John Searle, noto filosofo americano, sostiene, poi, che l’AI e un computer non possano in alcun modo ragionare o comprendere. A supporto di questa tesi ha ideato il test della stanza cinese da contrapporre al più famoso test di Turing, che in effetti andrebbe aggiornato. Il test di Searle ipotizza un uomo all’interno di una stanza che riceve messaggi scritti in cinese. L’uomo, non conosce il cinese, ma ha un manuale enorme con le risposte già pronte o componibili per ogni messaggio. All’esterno, le persone vedrebbero i messaggi in uscita e potrebbero dedurre che dentro la stanza ci sia qualcuno che capisce il cinese e gli argomenti trattati. In realtà, l’uomo sta solo eseguendo istruzioni. Di pari passo, bisogna anche tenere presenti i limiti intrinseci di ogni elaborazione informatica, anche di AI. Negli anni 60 del secolo scorso si è scoperto che essere computabili non è sufficiente.

La risoluzione di alcuni problemi computazionali sembra richiedere quantità eccessive di risorse (tempo e memoria). Alcuni problemi sembrano suscettibili solo di una ricerca esaustiva che diventa impraticabile man mano che le istanze problematiche crescono. La teoria matematica della complessità computazionale è stata quindi sviluppata per comprendere questo fenomeno. La teoria della complessità computazionale NP – dove NP sta per “Non deterministico Polinomiale” – ha preso forma all’inizio degli anni 70 e mira proprio a spiegare la difficoltà della elaborazione esaustiva. I problemi cosiddetti “NP-completi” sono i problemi più difficili, in senso formale. E la “soddisfacibilità booleana”, il vero punto cruciale del ragionamento deduttivo, è stata dimostrata da Stephen Cook e Leonid Levin come “NP-completa”.

Leggi anche:  Brother Italia, dalla parte dell’ambiente al fianco delle aziende

Al momento, i problemi NP-completi sono quindi intrattabili anche con l’AI. Nel 1979, basandosi sulla teoria della completezza NP, Cook e Robert Reckhow furono finalmente in grado di rispondere alla domanda fondamentale su cosa sia una dimostrazione matematica, una prova così rigorosa da poter essere verificata computazionalmente. Dopotutto la matematica non trascende il calcolo e l’elaborazione. Piuttosto, questi sono al centro della matematica. In definitiva, non bisogna mai dimenticare che l’informatica e l’AI nelle loro basi teoriche e scientifiche sono figlie della matematica.