Intelligenza artificiale. C’è da fidarsi?

Intelligenza artificiale. C’è da fidarsi?

Nel 1956, John McCarthy, Marvin Minsky, Claude Shannon e Nathaniel Rochester hanno fondato la disciplina dell’intelligenza artificiale (AI), definendola come “l’abilità di un computer di svolgere funzioni e ragionamenti tipici della mente umana”.

La nuova scienza poggia sulle basi teoriche definite ancora prima dal matematico Alan Turing che, tra l’altro, aveva introdotto il famoso “test” per capire se una macchina fosse in grado di imitare il ragionamento umano. Nel tempo, sono state proposte diverse varianti del test di Turing, alcune con criteri più stringenti di altre.

Al di là dei proclami, intorno a molti bot e sistemi AI, si è creato un “effetto alone” che finisce per considerare AI ogni applicazione IT. In effetti, ci sarebbe molto da dire su che cos’è intelligenza artificiale e cosa non lo è. Sulla differenza tra algoritmo e “reasoning”, sui modelli deterministici, stocastici e inferenziali. Il rapporto uomo-robot è da sempre uno dei temi più avvincenti che riguardano la scienza e l’epistemologia e l’AI ha la capacità di generare enormi vantaggi per gli individui e per la società, ma comporta anche enormi rischi. La Commissione europea, lo scorso 8 aprile, ha ufficialmente presentato il “Progetto di orientamenti etici per un’AI affidabile” in cui si delineano gli elementi per la creazione di una AI “trustworthy”, basata sui seguenti sette requisiti fondamentali.

Azione e sorveglianza umana: i sistemi AI devono promuovere lo sviluppo di società eque sostenendo l’azione umana e i diritti fondamentali, senza ridurre, limitare o sviare l’autonomia dell’uomo. Robustezza e sicurezza: le applicazioni AI debbono essere sicure, affidabili e robuste per far fronte a inevitabili errori e incongruenze. Riservatezza dei dati: i cittadini devono avere il pieno controllo dei propri dati personali e questi non devono essere utilizzati per danneggiarli o discriminarli. Trasparenza: deve essere garantita la tracciabilità dei sistemi di AI. Non discriminazione ed equità: i sistemi AI devono tenere in considerazione tutte le capacità, le competenze e i bisogni umani ed essere accessibili. Benessere: i sistemi AI devono essere utilizzati per promuovere i cambiamenti sociali positivi e accrescere la sostenibilità e la responsabilità ecologica. Responsabilità: deve essere garantita la responsabilità intesa come accountability. L’Europa propone – quindi – un approccio antropocentrico all’AI, che obbliga a tenere presente che questa non deve essere un obiettivo di per sé, ma un mezzo per aumentare il benessere. Anche a livello scientifico internazionale, sempre di più si parla di XAI – eXplainable AI, oppure di Human-Understandable o Explainable AI.

Leggi anche:  IRI sceglie Veeam per la gestione intelligente dei dati

Secondo Hani Hagras dell’University of Essex – essere “spiegabile”, cioè comprensibile e decifrabile, significa dare risposte che riguardano la trasparenza, la causalità, la parzialità, l’equità e la sicurezza. In definitiva, un sistema XAI deve essere trasparente e interpretabile dagli umani che rimangono gli unici veri controllori della tecnologia. Tutto ciò significa prestare attenzione alle situazioni che coinvolgono gruppi più vulnerabili, come i bambini, le persone con disabilità o le minoranze, o a situazioni in cui si verificano asimmetrie di potere o di informazione, per esempio tra datori di lavoro e lavoratori, o tra imprese e consumatori. In tal modo, si vuole diffondere un approccio fondamentale per consentire la competitività responsabile, per accrescere la fiducia degli utenti e facilitare una più ampia diffusione dell’AI. Con tale contributo che pone al centro l’etica e la fiducia, l’Unione europea mira a proporre standard su scala globale, così come ha fatto con pieno successo, nella protezione dei dati personali con il GDPR.