Dai copiloti agli agenti decisionali, dall’automazione all’autonomia, la fase due dell’AI secondo SAS
Ogni rivoluzione tecnologica attraversa il suo momento di vertigine. Quello dell’hype, del “circo AI”, come lo ha definito non senza una punta di ironia Véronique Van Vlasselaer, AI & Data Science Manager EMEA di SAS, in apertura del suo intervento Raising Trusted AI Agents in a Rapidly Evolving Tech World. Una giostra di definizioni – ambient AI, cognitive AI, reasoning AI – che rischia soprattutto di disorientare. Eppure, sotto a questa superficie scivolosa «stiamo iniziando a vedere sistemi AI che generano davvero valore» sottolinea Van Vlasselaer.
La discontinuità ha un nome preciso: AI agent. «Già ben oltre i copiloti di oggi. Perché non si limitano a suggerire ma iniziano a orchestrare decisioni, integrando dati, modelli e contesto». Veri e propri nodi attivi del processo decisionale. Agenti capaci di interrogare simultaneamente dati strutturati e non strutturati, attivare modelli predittivi e generare insight operativi. E soprattutto, elemento decisivo, «spiegare come il modello è arrivato a quella decisione».
Sul tema del ritorno sull’investimento si snoda la discussione del panel introduttivo “Executive Perspectives: from AI adoption to AI value” volto a scandagliare le allettanti potenzialità del binomio dati+AI. Gli AI agent offrono una risposta interessante perché il loro impatto non è solo operativo. Nei casi d’uso citati da Angelo Tenconi, Senior Director Customer Advisory, SAS – dal contrasto alle frodi alla farmacovigilanza – l’intelligenza artificiale non si limita ad automatizzare singoli passaggi, ma ridefinisce l’intero processo decisionale.
«Gli AI agent accelerano e potenziano i processi decisionali automatizzati e semi-automatizzati», conferma Van Vlasselaer. Il che si traduce in maggiore velocità, accuratezza e capacità di integrare fonti informative diverse. Producendo decisioni migliori. Un ROI che non si esaurisce nella riduzione dei costi, ma si estende alla capacità di anticipare i rischi e di cogliere opportunità prima invisibili.
«L’obiettivo è passare dall’automazione all’autonomia». Ovvero prendere decisioni in modo sempre più indipendente. Senza perdere mai di vista il nodo della responsabilità. «Perché l’autonomia degli AI agent sia sicura, dobbiamo educarli. Preparare gli AI agent è molto simile a crescere dei figli» afferma Van Vlasselaer in uno dei passaggi più efficaci dell’intervento. Durante il quale il linguaggio tecnico lascia spazio alla metafora universale della genitorialità. «Tutto inizia dalla definizione di regole chiare. Le organizzazioni devono essere cristalline sui rischi legati all’utilizzo di determinati dati, modelli e strumenti. Evitando ambiguità che nel mondo dell’AI si trasformano rapidamente in rischi operativi o reputazionali. Allo stesso tempo, gli agenti devono essere inseriti in ambienti adeguati. Fatti di dati, strumenti e modelli affidabili».
Educare significa anche insegnare a riconoscere quali limiti non superare. Gli AI agent devono perciò essere addestrati per fermarsi quando si rende necessario il controllo umano. Una componente strutturale e non residuale dei sistemi più evoluti, soprattutto in quelle zone di incertezza dove la decisione automatica rischia di diventare arbitraria.
A questo si aggiunge il tema dell’accountability. «Non basta che un sistema funzioni. Dobbiamo sapere come una decisione è stata presa» insiste Van Vlasselaer. «Trasparenza e tracciabilità sono condizioni essenziali per costruire fiducia. Nei sistemi basati su modelli linguistici si tratta di garantire che la logica sottostante sia coerente e affidabile».
Gli agenti infine devono poter crescere e gestire situazioni non previste. Ma questa autonomia non può mai diventare assoluta ma dipendere dal contesto in cui si trovano ad operare, dal livello di rischio, dagli obiettivi di business. Soprattutto non elimina la necessità di supervisione.
Alla fine, il discorso torna al punto di partenza: il valore. Non quello gridato, ma quello dimostrabile. «Crescere AI agent affidabili definirà il vantaggio competitivo di domani. Nell’economia dell’intelligenza artificiale, conclude, la fiducia non può essere un effetto collaterale. Ma l’infrastruttura invisibile su cui poggia tutto il resto».


































