E adesso dobbiamo correre. C’è una scena dei cartoni animati che tutti ricordiamo: Willy il Coyote, lanciato all’inseguimento di Beep Beep, corre oltre il bordo di un burrone. Per un istante resta sospeso nel vuoto, le gambe ancora in movimento, poi si accorge del vuoto sotto di sé e precipita.
Secondo il neuroscienziato Chris Summerfield, è esattamente ciò che sta accadendo alla nostra civiltà nel rapporto, solo ai primordi, con l’intelligenza artificiale. Nel suo nuovo libro, “These Strange New Minds”, il messaggio non è “stiamo per cadere”, ma “siamo già caduti”. L’AI ha oltrepassato un punto di non ritorno: è diventata capace di generare conoscenza, una prerogativa che per millenni è stata esclusiva dell’essere umano. La svolta è avvenuta nel linguaggio. I cosiddetti Large Language Models – come ChatGPT o Gemini – non si limitano a ripetere contenuti. Costruiscono frasi nuove, ragionano in linguaggio naturale, mettono insieme idee in modi originali. Non sappiamo se e in che misura “capiscano” nel senso profondo del termine, ma il risultato è che parlano come noi. E questo basta, spesso, per farci dimenticare che sono algoritmi.
Ci si chiede se l’AI sarà mai cosciente o senziente. Già oggi però la trattiamo come se lo fosse. Ci affidiamo a lei per decidere, creare, chiedere un parere, chiarirci le idee. Quando siamo soddisfatti la ringraziamo, e quando non accade, ci sforziamo di formulare domande più precise, articolando le nostre richieste proprio come se fosse una persona. Dimenticando che l’AI non ha emozioni, valori e interessi, se non quelli che noi – o le aziende che la gestiscono – le attribuiamo. Con l’irrompere degli AI agent – assistenti intelligenti progettati per raggiungere un obiettivo in modo autonomo, prendendo decisioni in base all’ambiente in cui si trovano – il processo di delegare potrebbe subire un’accelerazione.
Summerfield mette in guardia da alcuni rischi immediati: l’automazione che distrugge il lavoro umano, la concentrazione di potere nelle mani di poche big tech, la disinformazione personalizzata, l’uso malevolo delle tecnologie e l’impatto ambientale della corsa all’intelligenza computazionale. Ma cosa accadrà quando le AI inizieranno a interagire tra loro in maniera sempre più autonoma? Uno dei rischi è che sviluppino forme di cooperazione e linguaggi propri, escludendoci progressivamente dai processi decisionali.
Come esseri umani, la nostra intelligenza si è sviluppata grazie ai legami sociali. Da soli, non siamo molto più svegli di uno scimpanzé. È nella rete di relazioni che costruiamo cultura, etica, politica. Ma cosa succede se reti artificiali, progettate per automigliorarsi, iniziano a decidere in autonomia, e soprattutto sbagliare senza alcun bisogno di interagire con noi? Microsoft 365 Copilot, l’agente AI integrato nelle app Office e in Teams, può essere violato senza nemmeno un clic. La vulnerabilità, battezzata Echoleak e scoperta dalla startup israeliana Aim Security, rappresenta il primo attacco zero-click noto contro un’intelligenza artificiale generativa. La gravità del bug? Basta un’email: l’utente non deve fare nulla. Copilot può essere trasformato in un cavallo di Troia digitale, con accesso a file, mail e chat riservate. Permettendo a chi attacca di accedere a informazioni sensibili semplicemente sfruttando i collegamenti con app e fonti dati.
Se l’agente AI agisce in autonomia, l’errore diventa invisibile, sottraendosi a ogni forma di controllo. Non è fantascienza, ma una transizione concreta, che potrebbe compiersi sotto i nostri occhi. L’AI, oltre a sostituirci nella produzione della conoscenza – fatto già sufficiente a cambiare per sempre il nostro ruolo nel mondo – rischia di innescare decisioni autonome dal potenziale catastrofico. L’unico vero antidoto, come spesso si ripete, non è tecnologico ma culturale: tornare a chiederci cosa significa essere umani, quale società vogliamo costruire e chi controlla gli strumenti che possono influenzare il nostro pensiero. Ma siamo davvero in grado di dare un’applicazione concreta e tempestiva alle nostre riflessioni?