Ottant’anni fa, l’Assemblea Costituente trasformava i cittadini in protagonisti attivi della democrazia italiana. Oggi, ci troviamo davanti a un bivio analogo: siamo sudditi o manager capaci di governare strumenti che possono plasmare mercati, opinioni e strategie aziendali?
Il dibattito sull’intelligenza artificiale generativa ha superato i confini dei laboratori di ricerca per entrare nei board di tutto il mondo e anche nei “peggiori bar di Caracas”, mescolando alto e basso. Da GPT a Claude – i Large Language Model (LLM) – promettono di trasformare il modo in cui le aziende operano. Non è solo una questione di numeri ma di consapevolezza. Così come la Costituzione del ‘46 richiedeva educazione e partecipazione per trasformare i cittadini, le aziende devono sviluppare governance dei dati e comprensione critica degli algoritmi per non diventare un nuovo teatro di marionette.
L’illusione di trasparenza e neutralità cela rischi concreti di distorsione e asimmetria. Come per la creatura di legno di Carlo Collodi, nel bicentenario della nascita dell’autore, si tratta di un percorso di consapevolezza e verifica continua delle scelte. Benedetto Croce scrisse che “l’umanità è il legno in cui è intagliato Pinocchio”, un’umanità che non può illudersi di delegare il giudizio ai modelli linguistici di grandi dimensioni, in cambio di qualche promessa nella “città di Acchiappacitrulli”.
Il giudizio non può essere delega e non può essere disarticolato dalla responsabilità. La plausibilità superficiale non può sostituire la verifica – come avverte Walter Quattrociocchi, professore ordinario di Informatica all’Università La Sapienza di Roma e direttore del Center for Data Science and Complexity for Society. L’AI generativa è una scorciatoia e come ogni scorciatoia permette di risparmiare tempo, ma può essere pericolosa: tutti la usano, ma molti dimenticano che il suo funzionamento è statistico, non cognitivo. Macchine parlanti più che intelligenti – come spiega Alessandro Lenci, direttore di Dipartimento di Filologia, Letteratura e Linguistica dell’Università di Pisa insieme alle ricercatrici Serena Auriemma e Martina Miliani nel loro ultimo lavoro (“Linguistica computazionale. Natural language processing e intelligenza artificiale” – Hoepli, 2025).
In termini di business significa che questi modelli non possono sostituire l’intelligenza umana, ma la possono solo affiancare. Le aziende devono pianificare investimenti realistici, ma senza illudersi che siano la chiave definitiva. Inoltre, tutte le volte che ai CIO, CTO o COO viene chiesto di adattare le procedure ai limiti delle macchine, si inverte il rapporto tra tecnologia e lavoro, tra soggetto e oggetto.
Il problema – avverte Luciano Floridi, direttore del Digital Ethics Center dell’Università di Yale – è progettare città, servizi e istituzioni ottimizzati per l’efficienza degli agenti artificiali, più che per i bisogni delle persone. Questo switch sopravanza la realtà del mondo. Per dirla con Wittgenstein, i limiti del mio linguaggio sono i limiti del mio mondo. La conoscenza non è un workflow riducibile a energia, materia e informazione come mi ha insegnato Luigi Lombardi Vallauri in uno dei primi seminari di informatica giuridica. La vera sfida è quindi una sfida di design sia degli ambienti in cui questi sistemi operano sia dei sistemi stessi.
Nel frattempo troveremo parole nuove per chiamare questo tipo di capability senza generare equivoci o alimentare false promesse. E forse i benefici dell’adattamento saranno reciproci. In questa fase di passaggio, parlare di design significa soprattutto parlare di responsabilità. Una cosa che nessuno vuole mai. Neppure le grandi compagnie di riassicurazione del rischio. La grande tentazione? Se qualcosa va storto, dare la colpa alla macchina. Oppure ai manager quando non serviranno più per decidere, ma non è questo ancora il momento. Mentre si giura e si scongiura che, dopotutto, non esiste una bolla dell’AI, è sicuro che qualcuno perderà una montagna di soldi in progetti sbagliati o per aver creduto di tagliare il ramo su cui era seduto. Ma la spinta dell’AI generativa è così forte che dovremmo farci i conti comunque.


































