“La libertà di disporre della tecnica, che ne è il presupposto; la credenza che esistano porzioni del nostro mondo che non sono altro che mezzi, a cui si possono assegnare ad libitum scopi buoni, sono pure illusioni. Radio e televisione stesse sono realtà; e realtà che ci plasmano. E questo dato di fatto, che ci plasmano, qualunque sia lo scopo al quale le impieghiamo, non viene eliminato soltanto perché noi le degradiamo verbalmente a mezzi”.
Parola di Günther Anders, nel famoso “L’uomo è antiquato”, pubblicato nel 1956. Ma cosa direbbe oggi il filosofo allievo di Husserl e voce scomoda del secondo dopoguerra a proposito del dibattito attuale sull’intelligenza artificiale? Se negli anni 50 del secolo scorso già la radio e la tv rappresentavano fattori di forte cambiamento, come dobbiamo considerare oggi l’AI? La verità – come dice Günther – è che “lo scindere grossolanamente la vita in mezzi e scopi non ha nulla a che vedere con la realtà quando si tratta della ‘“totalità” della vita nel suo insieme”.
È l’eterno problema della tecnica che – lo si voglia o no – da sempre, ha una parte rilevantissima sulla nostra esistenza. Dello stesso avviso è l’esperto di management James Muldoon che, con il suo recente “Love Machines” (Faber & Faber, 2026), sostiene che l’AI può influenzarci e manipolarci pesantemente. Yuval Noah Harari, storico e filosofo israeliano, sostiene addirittura che l’AI rappresenta la più grande rivoluzione antropologica della storia, con il potenziale di trasformare il nostro modo di essere e di agire. Seguendo tali suggestioni, taluni arrivano addirittura a ipotizzare sistemi di “digital authoritarianism”.
Prendiamo la burocrazia digitale, che è cosa diversa da quella tradizionale. Nel modello classico, regole, protocolli e procedure devono essere interiorizzati da funzionari e dirigenti: qualcuno li applica, li interpreta, se necessario li spiega. La responsabilità è umana e visibile. Con l’AI il meccanismo cambia radicalmente. Gli algoritmi possono concedere o negare un diritto, un accesso, un servizio in modo automatico, senza che chi subisce la decisione abbia accesso ai criteri che l’hanno generata. E spesso nemmeno chi gestisce il sistema è in grado di spiegarla in modo comprensibile. Di contro, al grande pubblico l’AI viene presentata come strabiliante panacea per risolvere qualsiasi problema. Non occorre più spiegare le capacità e le funzionalità dei sistemi: basta usare l’aggettivo “intelligente” per fargli assumere un carattere taumaturgico.
Quindi è legittimo chiedersi: come potremo garantire che l’AI sia usata in modo responsabile, controllato ed etico? Come gestire gli inevitabili errori insiti in ogni sistema?
Con l’AI Act, l’Europa ha adottato un approccio che va proprio in questa direzione per consentire la competitività responsabile, accrescere la fiducia degli utenti e, in ultima analisi, facilitare la più ampia diffusione dell’AI. Ne dovremmo andare fieri. Alle accuse di essere un freno all’innovazione dovremmo invece rivendicare un modello diverso, in cui la competitività non cancella le garanzie ma le integra.
L’AI deve essere un modo per aumentare il benessere delle persone, dell’economia e della società ed essere allo stesso tempo trasparente e interpretabile dagli umani che rimangono gli unici veri controllori e responsabili finali. Per questo avrebbe più senso parlare di AI come augmented intelligence: un’intelligenza aumentata e realmente umano-centrica, non un sostituto opaco del giudizio umano. La tecnologia potenzia, assiste, accelera ma non surroga la responsabilità. La lezione di Günther Anders resta attuale: «Quali che siano i benefici che la tecnica può apportare all’umanità, nulla può giustificare che si mettano a rischio i valori fondanti e la tutela delle libertà e dei diritti».


































