L’intelligenza artificiale riflette chi la guida. Dal Politecnico di Torino ai mercati finanziari e ai Large Language Models: Luigi Simeone (IIEC) racconta il percorso che unisce fisica, dati e AI applicata alla strategia
«La tecnologia non è mai neutrale ma riflette la visione di chi la costruisce e di chi la guida». Parola di Luigi Simeone, senior project leader all’Italian International Economic Center (IIEC), esperto indipendente di intelligenza artificiale e machine learning, CTO e chief AI Officer con focus su modellistica matematica e AI-driven strategy. Sì, abbiamo lo stesso cognome. Ma no, non siamo parenti. Secondo Heisenberg, padre del principio di indeterminazione, uno dei pilastri della meccanica quantistica, Premio Nobel per la Fisica nel 1932, ciò che osserviamo non è la natura in sé, ma la natura esposta al nostro metodo di interrogazione. Lo stesso vale oggi per l’intelligenza artificiale: ogni volta che formuliamo una domanda, che costruiamo un prompt per un LLM, non dovremmo mai dimenticare che la risposta riflette anche il modo in cui abbiamo scelto di interrogare il sistema. «L’AI non è un oracolo, ma uno specchio delle nostre domande, delle nostre ipotesi, delle nostre speranze» – spiega Luigi Simeone.
«Il compito di chi guida l’innovazione è fare in modo che questo specchio non distorca, ma illumini, mostrando ciò che ancora non vediamo, senza mai perdere il legame con la realtà. Il ruolo del leader tecnologico è prima di tutto etico e culturale. L’innovazione è reale solo se produce fiducia, e la fiducia si costruisce unendo rigore scientifico e immaginazione».
Qual è stato il punto di partenza del tuo percorso professionale?
«Il mio percorso è iniziato con lo studio della Fisica e una laurea in Ingegneria Meccanica al Politecnico di Torino, che mi ha dato un metodo di pensiero rigoroso, per scomporre sistemi complessi, comprenderne le leggi e costruire modelli predittivi da principi primi. Questa ricerca di profondità mi ha portato a un dottorato in elaborazione dei segnali e dinamiche non-lineari a Southampton, dove dimostrai come introdurre non-linearità nei sistemi di recupero energetico potesse migliorarne le prestazioni. Già allora capii che le soluzioni più efficaci spesso stanno fuori dai modelli lineari e semplificati, e che la creatività nasce dall’accettare la complessità del reale».
Quali sono state le prime esperienze sul campo?
«Ho iniziato a lavorare nel settore automotive e aerospaziale, dove il margine di errore è nullo. Ho sviluppato e validato modelli matematici, supportando clienti con tecniche avanzate di signal processing. Lavorare su sistemi mission-critical, come il Mars Rover, mi ha insegnato che i modelli devono essere robusti, verificabili e spiegabili. Non basta dire “la rete neurale penso che reggerà” ma bisogna dimostrarlo con le leggi della fisica. Oggi, nell’era delle black box dell’AI, questa prospettiva è cruciale, perché ci ricorda che la scienza non può abdicare al principio della trasparenza».
A un certo momento hai scelto di cambiare rotta: Perché?
«Sì, ho sentito la necessità di affrontare sistemi governati non da leggi fisiche, ma dall’incertezza e dalla psicologia umana, ovvero i mercati. I modelli deterministici non bastavano più, serviva un approccio probabilistico e guidato dai dati, capace di riconoscere pattern deboli in spazi ad alta dimensionalità. La finanza è stata la mia “forgia”, l’ambiente che mi ha spinto ad abbracciare pienamente il machine learning e a misurarmi con un contesto in cui i margini di errore si traducono immediatamente in valore o perdita».
Come descriveresti la tua attuale traiettoria?
«All’intersezione di due mondi: quello deterministico della fisica e quello probabilistico dei dati. Un background nella modellistica fisica offre un “controllo di realtà” nel machine learning, evitando errori come confondere correlazione e causalità. Per esempio un data scientist puro potrebbe correlare la vendita di gelati con gli attacchi di squali senza cogliere il fattore estate. Oppure, un fisico puro rischierebbe di ignorare il rumore del mondo reale. Io cerco continuamente di unire i due approcci: sono convinto che sia proprio nella loro sintesi che si trova la vera innovazione».
Questa specializzazione porta un nome preciso: Scientific Machine Learning. Puoi spiegarci di cosa si tratta?
«Significa sviluppare AI più robuste ed efficienti, vincolate dalle leggi fisiche, quindi più affidabili. È un campo in rapida crescita, ci chiediamo se la previsione di un algoritmo violi i principi fondamentali, e al tempo stesso sfruttiamo le reti neurali per apprendere ciò che i modelli classici non stimano bene. Non si tratta solo di migliorare le performance, ma di costruire un’AI che rispetti la logica del mondo reale, e non una sua caricatura statistica».
Da lì il passo verso il ruolo di CTO: come è avvenuto questo passaggio?
«Sì, e la sfida più stimolante è guidare team multidisciplinari – matematici, data scientist, ingegneri – diventando un ponte intellettuale tra approcci diversi. L’obiettivo è una cultura integrata, dove il rigore dei modellisti e l’empirismo dei data scientist generano soluzioni innovative. Un leader che comprende un solo paradigma rischia di creare silos o di favorire involontariamente un approccio a discapito dell’altro. Il compito di un CTO non è semplicemente coordinare progetti, ma costruire un linguaggio comune, una visione condivisa che permetta a discipline diverse di dialogare e di creare valore. Questo significa anche spingere la Ricerca e Sviluppo verso frontiere nuove, come l’AI Generativa e i Large Language Models, senza dimenticare le basi metodologiche che garantiscono solidità».
In che modo vedi evolvere oggi la figura del CTO? Hai un esempio concreto?
«Un esempio concreto, durante la mia esperienza in consulenza, è stata la creazione e la pubblicazione di modelli linguistici (LLM) open source specificamente addestrati per la lingua italiana, che abbiamo reso disponibili alla comunità attraverso piattaforme come Hugging Face. Non è stato solo un risultato tecnico, ma un contributo all’ecosistema nazionale, perché la tecnologia non cresce in isolamento ma ha bisogno di comunità, di condivisione e di apertura. Credo infatti che un leader tecnologico debba rafforzare non solo la propria azienda, ma l’intero contesto.
Quale ruolo giocano la ricerca scientifica pura e la formazione continua?
«Al lavoro di consulenza affianco attività accademiche e di advisory, come il mio ruolo di senior advisor del Laboratorio Quantum & AI dell’Università Luiss Guido Carli, e l’insegnamento di corsi avanzati focalizzati su LLM e AI generativa applicata alla finanza. Formare nuovi talenti non è un progetto accessorio, ma un investimento strategico».
Guardando al futuro, su quali progetti o innovazioni stai lavorando in questo momento?
«Oggi sono senior project leader all’Italian International Economic Center (IIEC), dove applichiamo l’intelligenza artificiale ai sistemi più complessi, ovvero le economie nazionali. Con il mio team abbiamo depositato due brevetti statunitensi, uno su un sistema di previsione economica basato su AI per PIL e inflazione, e uno su un sistema multi-agente per la valutazione del rischio di startup e imprese. Diversi agenti autonomi analizzano aspetti tecnici, legali e di mercato, producendo una valutazione olistica che supera i limiti dei modelli tradizionali».
E per chi aspira a diventare CTO: quali consigli ritieni davvero strategici?
«Un CTO non deve essere solo un ottimizzatore di processi aziendali. Ma architetto del futuro, un costruttore di strumenti che possono orientare politiche economiche e strategie di investimento di un Paese. L’AI non è soltanto uno strumento di business, ma una leva strategica nazionale, capace di trasformare il potenziale tecnologico in progresso concreto per aziende e società».