L’approccio di Axiante ai progetti generativi: concretezza, obiettivi e qualità del dato al centro
Quando si parla di intelligenza artificiale, spesso cade in secondo piano un dibattito ugualmente importante, che pervade la terminologia della tecnologia più “hype” del momento. La differenziazione di cui parliamo è quella che c’è tra “comunicazione artificiale” e “intelligenza artificiale”, un cambio di paradigma necessario per evitare aspettative irrealistiche e investimenti strategici mal orientati. Spesso, nel linguaggio comune e anche in certi ambiti professionali, questi termini vengono usati in modo intercambiabile o con una sovrapposizione concettuale che può generare ambiguità e, in ultima analisi, delusioni. Approfondire la loro differenza non è un mero esercizio semantico, ma una necessità per affrontare le sfide e le opportunità che l’evoluzione tecnologica ci presenta.
Se l’intelligenza artificiale, nella sua accezione più ampia e rigorosa, si riferisce alla capacità delle macchine di emulare processi cognitivi tipicamente umani, la comunicazione artificiale si concentra sull’abilità delle macchine di interagirsi con gli esseri umani in modo comprensibile e funzionale, utilizzando il linguaggio naturale o altri mezzi di comunicazione. Non necessariamente implica una profonda comprensione o un’intelligenza di tipo cognitivo nel senso dell’IA.
“Noi continuiamo a parlare di intelligenza artificiale ma bisogna ricordare che, in un Large Languege Model, c’è ben poco di intelligente” ci dice Mirko Gubian, Global Demand Senior Manager di Axiante. “Un LLM è una tecnologia per generare testi coerenti e testuali ma basati su asset statistici. L’IA, almeno tra quelle presenti oggi, non ha conoscenza del contenuto, intesa come consapevolezza del contesto. Quindi è più opportuno parlare di “comunicazione artificiale”, indubbiamente molto efficace ma comunque non “intelligente”.
Può qualcosa di poco intelligente prendere il posto di una creatura senziente? La risposta è banale ma non di rado dimenticata. Considerando lo scenario, è sempre più evidente l’utilità di un affiancamento dell’IA al lavoratore moderno piuttosto che una sua sostituzione tout-court. “Nessuna IA potrà mai essere empatica come l’uomo e, checché se ne dica, questo è un tratto distintivo che può ancora fare la differenza in un contesto lavorativo, soprattutto in alcuni” prosegue Gubian. “Ovviamente è possibile simulare l’empatia ma senza coscienza e contestualizzazione sarebbe qualcosa di fine a sé stesso, poco utile perchè poco coinvolgente”.
Nessuna negoziazione
Un’altra caratteristica dell’essere umano è l’ambizione a voler raggiungere obiettivi. Se si mira ad un traguardo di comunicazione, entra in gioco una caratteristica essenziale di negoziazione. “Se diciamo a qualsiasi chatbot che ha sbagliato, lui non cerca molte scuse, lo ammette e cambia strada. L’uomo, nella sua essenza, è invece naturalmente portato a voler perseguire ciò che si è prefissato, anche in termini di opinione e punto di vista”. Inoltre, prosegue il manager di Axiante: “Se prima, con i tradizionali motori di ricerca, cercavamo informazioni deducendo le migliori dal nostro punto di vista, con l’IA generativa la sintesi diventa un modo veloce, ma anche rischioso, del prendere per buono delle risposte, che non sempre sono corrette. Nessuna intelligenza artificiale, se non correttamente indirizzata, può dedurre qualcosa di più ampio di ciò che ha dinanzi”.
È ormai anche chiaro come il difficile equilibrio nell’implementazione delle tecnologie IA si giochi non solo dal punto di vista tecnico ma quanto più etico. “Un LLM è un abitatore della produttività che ragiona, soprattutto, in termini di velocità e non proprio di qualità”. Oramai è risaputo che, usata in contesti aziendali, l’IA aumenta anche di molto l’efficienza delle persone. Ma anche nelle organizzazioni c’è bisogno di saper governare e orchestrare tali strumenti, per non caderne vittima. “È essenziale che gli LLM siano impiegati in modo strategico ovvero con l’obiettivo di accrescere la la qualità del lavoro e dei processi, non per ridurre le risorse umane. L’intelligenza artificiale deve potenziare il capitale umano, non sostituirlo: solo così può diventare un alleato della produttività e della competitività e non di un pericoloso depauperamento professionale” aggiunge Gubian.
Nel nostro Paese, lo scenario adottivo dell’IA generativa è tuttora frammentato. “Ci sono aziende che si avvicinano con cautela, chiedendo semplicemente di inserire un chatbot in una sezione pubblica del sito, e altre che invece spingono al massimo sull’integrazione dell’IA, spesso tuttora condizionati dall’hype” osserva il manager: “Il successo di ChatGPT ha alimentato infatti grandi aspettative su cosa l’IA sia in grado di fare, spingendo molte imprese a sperimentare con progetti pilota, spesso piccoli e circoscritti, che prevedono l’uso di un modello generative. Questo però può diventare un limite: l’IA, da sola, difficilmente porta valore se non viene inserita in un disegno strategico più ampio”. Come orientarsi, allora? “È importante che i decision maker approccino l’IA con oggettività concentrandosi su casi d’uso concreti e coerenti rispetto a obiettivi strategici altrettanto chiari. Uno degli errori più comuni, e rischiosi, che tuttora le aziende commettono è infatti quello di adottare l’IA senza una chiara comprensione dei problemi di business. In altre parole, si parte dalla tecnologia e non dagli obiettivi” conclude Gubian.
L’approccio di Axiante
L’approccio strategico è un diktat che Axiante mette dinanzi ad ogni avvio progettuale basato sull’IA. “L’intelligenza artificiale è uno strumento potente, ma, come per ogni strumento, il ROI dipende interamente dalla chiarezza dell’obiettivo. Serve quindi partire da domande fondamentali come “Quali sono le aree critiche di miglioramento?”, “Dove sono le maggiori inefficienze informative o decisionali?” e “Quali processi potrebbero beneficiare di maggiore automazione, accuratezza e personalizzazione? E solo dopo ci concentriamo sugli aspetti strettamente tecnologici a partire dalla centralità del dato” afferma il manager di Axiante.
Infatti Axiante ha una caratteristica: dall’arrivo nel 2006, quando l’IA era un termine usato solo in determinati contesti, l’azienda era già focalizzata sulla qualità del dato molto più che sull’elaborazione di miriadi di informazioni che, senza valore, producono caos e non beneficio. “Questo rappresenta uno dei nostri elementi di differenziazione chiave. Già nei primi anni, quando ci occupavamo di reportistica contabile e finanziaria, la precisione dell’informazione non era negoziabile: mai approssimazioni, sempre esattezza. Questo rigore è oggi fondamentale per sviluppare modelli di IA realmente ottimizzati ed efficaci. Peraltro, il machine learning e l’IA generativa ci permettono ora di valutare con maggiore precisione l’utilizzabilità di un dataset o di generare sinteticamente dei dati. Ma il principio resta immutato: un dataset corretto è la base imprescindibile per qualsiasi progetto di successo. Senza dati solidi, anche la tecnologia più avanzata produce risultati mediocri o delude”.