Etica e intelligenza artificiale, SAS guida la rivoluzione

Etica e intelligenza artificiale, SAS guida la rivoluzione

Modelli e algoritmi di intelligenza artificiale hanno il potenziale di creare innovazione ma solo tenendo l’uomo al centro. Stefano Maggioni di SAS: «Il tema dell’etica collegata al machine learning sta assumendo un’importanza crescente tra aziende, organizzazioni e professionisti»

Due facce della stessa medaglia: intelligenza artificiale ed etica. Non sono lontani i tempi in cui gli esperti del settore ponevano come fondamentale la questione del controllo sui sistemi avanzati di AI. Il rischio non era, e non è ancora, quello di assistere inermi alla scalata elitaria delle macchine, in stile colossal hollywoodiano, ma complicare, invece che semplificarle, operazioni quotidiane, associandole a maggiore complessità. Qualche esempio? Uno su tutti: l’auto che si guida da sola. Da quando il tema è balzato agli onori della cronaca, con i primi sviluppi reali della tecnologica, ci si è subito chiesti chi e come è responsabile in caso di incidente. E ancora di più: quale comportamento assumerà il computer di bordo in alcune situazioni? Quando un pedone attraversa con il rosso, l’AI sarà in grado e, soprattutto, vorrà fermarsi? La risposta è ovviamente sì, ma a ogni modo lo scenario apre a interpretazioni differenti, sia filosofiche che fattuali.

Una delle compagnie che da sempre crede agli sviluppi avanzati degli algoritmi è SAS, che a inizio 2021 ha lanciato la nuova release della piattaforma cloud native SAS Viya, per una gestione più semplice degli analytics. L’obiettivo è di dare ai professionisti un vantaggio competitivo sia sulla concorrenza che sull’incertezza economica del mondo che ci circonda, con la pandemia di cui sentiamo ancora le conseguenze che ne è espressione massima recente. SAS Viya, così come tutti i progetti di SAS, si basa sull’innovazione dei processi di business, senza dimenticare l’etica. «Il tema dell’etica collegata nello specifico al machine learning sta assumendo un’importanza crescente tra aziende, organizzazioni e professionisti» – spiega Stefano Maggioni, presale manager, Advanced Analytics & AI di SAS. «Il motivo è che sempre più soluzioni impattano sull’organizzazione del lavoro di oggi e di domani».

Leggi anche:  Dynatrace ottiene lo status di Machine Learning Competency di AWS per le sue capacità nell’Applied AI

Ridurre il gap

In questo clima di accelerazione nell’adozione di applicazioni di intelligenza artificiale, l’etica è diventata una preoccupazione reale. Qual è il rischio che porta con sé un set di semplici istruzioni matematiche? La risposta è che l’artificial intelligence espande il livello di portata, ampiezza e velocità delle azioni che un soggetto può intraprendere. I database, la potenza di calcolo e la capacità di imparare e agire sono caratteristiche che rendono l’AI non solo un game-changer, ma un vettore di trasformazione globale, perché in grado di accelerare notevolmente il ritmo e l’impatto degli effetti sulla società, sia positivi che negativi. «Pensiamo al gap tra il sapere e il non sapere» – continua Maggioni. «Spesso quello che gli algoritmi fanno è aumentare ancora di più tale divario. E ciò è vero anche all’interno della stessa azienda quando un gruppo ristretto di persone, data analyst o data scientist, detengono un know-how superiore degli altri sui dati, ponendoli potenzialmente in una posizione di privilegio». Nell’accezione di SAS, più ci affidiamo all’intelligenza artificiale per prendere decisioni informate, maggiore è la preoccupazione su come il modello fornirà risultati, allineati o meno ai nostri intenti e ai relativi usi culturali e sociali. «L’obiettivo è evitare di costruire sistemi che creino o rafforzino le disuguaglianze, come l’accesso all’assistenza sanitaria o al lavoro. Purtroppo, proprio come gli esseri umani possono mostrare pregiudizi – siano essi consapevoli o inconsapevoli – così può accadere per le applicazioni di AI, programmate da esseri umani con certe convinzioni o percezioni errate. Se la sorgente del software è parziale, la conseguenza potrebbe essere quella di rafforzare tali convinzioni».

I tre livelli di comprensione dell’AI

«Il limite più grande che pervade ancora i modelli artificiali è quello di non saper cambiare posizionamento a seconda delle situazioni» – spiega Maggioni. «Si tratta di modelli che presentano spesso problemi di distorsione, in generale riconducibili a tre momenti. Il primo è nella replica dei comportamenti: se alleniamo un algoritmo all’interno di una società con determinati bias, questo continuerà a operare secondo tali presupposti e credenze». Il secondo livello è insito nell’essenza stessa dell’algoritmo. «Il tema risiede nel capire quali sono le logiche che il modello segue nel prendere decisioni. Ad oggi, possiamo avere un algoritmo molto performante ma poco interpretabile, oppure l’opposto, qualcosa che sia spiegabile ma con performance limitate. Pensiamo alle modalità dietro l’RC Auto. In questo caso, l’algoritmo è volutamente trasparente: se in generale vale la regola che meno danni o incidenti l’automobilista provoca, più scende il premio da pagare, dall’altro il modello garantisce una classificazione degli automobilisti in profili a seconda del contesto in cui si vive e della classe di appartenenza, così come di altri parametri, che garantiscono da un lato la spiegabilità al cliente e dall’altro il meccanismo della mutualità. Arriviamo allora al terzo livello: il deploy. «La distribuzione è un punto fondamentale che permea tutta la piattaforma SAS. Il modello non deve essere il punto finale della ricerca e dell’applicabilità ma un elemento utile a prendere una decisione ragionata. In questo modo, è possibile raggiungere una certa eticità, con un flusso sicuramente automatizzato ma che prevede comunque una presa di coscienza umana. Pensiamo all’override nei processi di forecasting, dove i modelli avanzati sono a supporto delle operazioni prese poi dai forecaster e non indicazione ultima imprescindibile».

Leggi anche:  SAS Viya: innovazione e analytics per tutti

Problema di business

Molte delle applicazioni di artificial intelligence – secondo Maggioni – non cambiano i processi di business ma ne sostituiscono parti con l’automazione. Questo pone in forte evidenza il problema della correttezza e della trasparenza delle scelte, perché delega alle macchine procedimenti che non dipendono più dall’uomo. Un panorama che da un lato velocizza i compiti ma dall’altro crea incertezza e instabilità nella conoscenza delle informazioni. «Si crea maggiore distanza e poca interoperabilità tra gli step di un’azienda e tra fornitori e clienti. L’utente di business, molto conservativo, non è quasi mai propenso a scoprire nuove tecnologie. Lo spostamento delle logiche verso un utilizzo di tecnologie self-service pone ancora maggiore rilevanza sul bisogno di accompagnare i clienti verso la scoperta di soluzioni avanzate, con decisioni prese insieme, che non neghino l’innovazione ma tengano ancora al centro la persona».

Trovare un equilibrio

Il percorso che ha portato ad aprire un cospicuo dibattito sull’etica legata all’intelligenza artificiale è culturale ma anche informatico. «Negli anni, siamo passati dalla scrittura di codice allo sviluppo di strumenti auto-documentati per le analisi. Questa è una grande conquista, in termini di standardizzazione e di utilità. Una volta che abbiamo messo nelle mani del business nuove potenzialità, si è raggiunta una democratizzazione massima della tecnologia. Semmai, il rischio è comprendere quanto l’apertura favorisca un utilizzo scorretto delle innovazioni». È urgente ampliare le normative che regolino lo scenario applicativo di soluzioni come quelle di machine learning. «C’è un punto centrale per le aziende, che è quello di ridurre la distanza tra i data scientist e l’utente di business, ossia tra coloro che hanno la competenza per costruire sofisticate applicazioni di AI e coloro che sanno come tradurne i risultati in reali vantaggi di business. Troppo spesso, infatti, l’innovazione ha luogo solo nell’aggiunta di flussi esterni, che si affiancano a quelli interni, senza che questi vengano modellati o migliorati. Se non sono questi a cambiare, è difficile ottenere “intelligenza” nei processi aziendali, che è il vero snodo a cui dar seguito da qui ai prossimi anni».

Leggi anche:  Decisioni data-driven? L’intolleranza ai dati è il problema

Di Etica e AI se ne parlerà anche durante l’evento di SAS “Be Curious. Be Innovative. Le domande di oggi, rivoluzione per il futuro” che si terrà il 4 novembre.