Cosa succede quando l’Intelligenza Artificiale sbaglia?

Industria 4.0: la convergenza tra IT e OT richiede la supervisione dell'intero sistema informativo

Quando le macchine prendono decisioni che hanno un impatto sulla vita delle persone, il minimo che ci si possa aspettare è di poter esaminare come siano state effettuate queste decisioni. “Explainable AI” (“Intelligenza Artificiale spiegabile” o XAI) è un’intelligenza artificiale programmata per descrivere il suo scopo, la logica e il processo decisionale. Sarà fondamentale per garantire la responsabilità degli algoritmi, la correttezza e la trasparenza, nonché l’uso etico dei dati

A cura di Pier Giuseppe Dal Farra, IoT Industry Business Expert Orange Business Services

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

IA “post-aumentata”

La maggior parte dell’IA del mercato di massa amplia e potenzia l’attività umana, ottimizzando un’immagine, stimando il tempo per raggiungere una destinazione o gestendo l’allocazione della larghezza di banda della rete. L’intelligenza artificiale ha anche applicazioni in ambito aziendale: un’indagine Vantage Partners del 2018 conferma che il 97 percento delle aziende Fortune 1000 investe in intelligenza artificiale e big data, dal retail al settore medico e oltre.

In ogni settore, il modello di intelligenza delle macchine sta passando dal semplice riconoscimento di pattern a quello del deep learning applicato, in grado di analizzare scenari complessi e prendere decisioni. Si ritiene che la prossima generazione di macchine intelligenti sarà in grado di raccogliere informazioni sui problemi che ha il compito di risolvere e successivamente trovare e implementare le soluzioni.

Dean Pomerleau, professore di robotica della Carnegie Mellon, è incappato per la prima volta nel problema mentre era al lavoro per sviluppare un’auto a guida autonoma. L’intelligenza artificiale (allenata utilizzando una rete neurale che apprendeva durante la guida) ha iniziato a commettere errori, e sono stati necessari numerosi test per capire perché. Le macchine intelligenti elaborano più insiemi di dati, emettono giudizi di valore multipli e considerano approcci diversi mentre lavorano per convergere su una decisione. Per raggiungere questo obiettivo, valutano un numero elevato di variabili ed informazioni. Il problema è che la maggior parte delle tecnologie di rete neurale esistenti fornisce risultati basati su una serie di passaggi complessi quanto il processo di pensiero umano ma meno trasparenti. Come si può ricostruire in che modo la macchina ha preso una decisione nel caso in cui commetta uno sbaglio?

Leggi anche:  5 principi per orientarsi nella nebbia digitale dell'intelligenza artificiale all'interno della supply chain

Dobbiamo essere in grado di fidarci delle macchine

In un articolo per Forbes, Bernard Marr sottolinea: “Per raggiungere il suo pieno potenziale, l’IA deve essere affidabile: dobbiamo sapere cosa sta facendo con i nostri dati, perché e come prende le sue decisioni, quando si tratta di problemi che riguardano il nostro vite.”

Questo non è solo un problema etico. Il regolamento europeo sulla protezione dei dati (GDPR) in Europa prevede che i cittadini siano protetti dalle decisioni prese dalle macchine che abbiano un impatto “legale o di altro tipo” sulle loro vite. Ciò significa che le aziende che utilizzano l’intelligenza artificiale ne sono anche ritenute responsabili.

Il problema è che l’intelligenza artificiale riflette la distorsione intrinseca delle fonti di dati utilizzate e delle persone che le hanno selezionate, quando è stata addestrata. Questo polarizzazione di base viene riflessa nel comportamento delle macchine intelligenti e può portare successivamente ad errori. Ci sono già stati casi in cui i sistemi di autoapprendimento hanno imparato termini razzisti o sviluppato altre forme di pregiudizio.

Tenendo presenti questi timori molto concreti, il settore è alla ricerca di strumenti per garantire che i processi decisionali basati su IA siano trasparenti, e che le decisioni che essi raggiungono possano essere verificate. Ciò significa trasparenza dell’algoritmo e misure per controllare qualsiasi pregiudizio incorporato nelle macchine stesse.

Creare dei track record

Il problema è la complessità dell’IA. “Questi modelli sono davvero complicati e non è possibile osservare come si ottiene il risultato”, spiega Ulf Schönenberg, responsabile Data Science presso Unbelievable Machine Company, parte di Orange Business Services.

Questa complessità comporta che i criteri utilizzati dalle macchine per raggiungere le decisioni non siano necessariamente facili da verificare o da comprendere, in parte perché gli output sono troppo difficili da interpretare manualmente per gli esseri umani.

Leggi anche:  Il 74% dei manager che utilizza l’AI risparmia una o più ore al giorno di lavoro

Tutto ciò ha delle implicazioni: “Di sicuro i chirurghi non metterebbero un paziente sotto i ferri senza sapere perché un computer abbia suggerito di farlo. Inoltre, il top management della finanza sarebbe molto riluttante a basare le decisioni su una macchina senza sapere su quali basi si è sviluppata l’analisi del computer”, afferma Schöneberg.

Oggi che l’intelligenza artificiale diventa più profondamente radicata nei sistemi essenziali (salute, trasporti e altro), le decisioni prese da queste macchine intelligenti possono avere conseguenze molto gravi, perciò è essenziale che esistano rapporti trasparenti e comprensibili del loro processo decisionale.

Organizzazioni come Open AI e Partnership for AI stanno lavorando per evangelizzare l’intelligenza artificiale e per garantire pratiche etiche nel suo sviluppo. Vediamo anche un impegno nel settore tecnologico per sviluppare Explainable IA, che fornisce informazioni generali su come un programma IA prende una decisione rivelando:

  • I punti di forza e di debolezza del programma
  • I criteri specifici utilizzati dal programma per arrivare a una decisione
  • La ragione per cui un programma prende una decisione particolare rispetto alle alternative
  • Il livello di fiducia che è considerato come rilevante per i vari tipi di decisioni
  • A che tipo di errori il programma è più soggetto
  • Come possono essere corretti gli errori

La Blockchain può fornire una soluzione al problema dell’accesso al processo decisionale sottostante utilizzato dai dispositivi intelligenti. Al livello base, questo significa che l’IA registra all’interno della blockchain ogni passo compiuto per arrivare a una decisione, e questo dovrebbe consentire agli esseri umani di valutare dove si sono verificati eventuali errori nella catena logica.

“Solo quando possiamo esaminare i modelli e capire come funzionano, possiamo applicare lo strumento per risolvere problemi nel mondo reale. Vogliamo semplicemente sapere perché gli algoritmi suggeriscano una specifica soluzione”, ha detto Schönenberg.

Leggi anche:  Intelligenza Artificiale, un equilibrio di giudizio per guidarne il successo