Promuovere l’innovazione senza dimenticare le persone: il ruolo etico dell’AI

Promuovere l’innovazione senza dimenticare le persone: il ruolo etico dell’AI

A cura di Yari Franzini, Group Vice President Southern Europe di Cloudera

Nonostante l’intelligenza artificiale sia sempre più integrata nella nostra quotidianità, la fiducia in questa tecnologia rimane limitata. Una ricerca di KPMG rivela che, sebbene il 66% delle persone ne faccia uso regolarmente, solo il 46% si fida pienamente dei sistemi di AI. Senza una stretta supervisione, gli stessi strumenti destinati a promuovere il progresso possono distorcere i risultati e aggravare la presenza di informazioni pregiudizievoli. Con una spesa europea per l’AI che secondo IDC raggiungerà i 144,6 miliardi di dollari entro il 2028, con un tasso di crescita annuale del 30,3%, definire un quadro etico diventa una priorità strategica.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Quadro che si fonda su tre pilastri: responsabilità, equità e trasparenza.

Partire dalla responsabilità. La responsabilità è il fondamento di un’implementazione etica dell’AI. Se una banca utilizza un algoritmo per negare un prestito, è l’istituto stesso ad assumersi la responsabilità di quella decisione. Per questo è vitale sviluppare un approccio di “Responsabilità-by-Design” che integri i principi di progettazione etica fin dall’inizio definendo chiaramente attività e ruoli degli agenti umani che creano e supervisionano il ciclo di vita dell’AI e stabilendo precise catene di equità e controllo che promuovano la fiducia.

Affrontare i pregiudizi e promuovere l’equità. Dal software di riconoscimento facciale che identifica erroneamente alcune etnie, agli strumenti di reclutamento che discriminano in base al genere, i sistemi di AI hanno dimostrato l’urgente necessità di tecnologie più eque. Per assicurarsi che le decisioni automatizzate siano informate non solo dalla logica, ma anche dall’etica e dall’empatia, è imperativo mantenere un approccio “human in the loop”. La supervisione umana, che può intervenire nelle operazioni dell’AI, è cruciale per garantire che i risultati siano imparziali e per sostenere standard accettabili, dando vita a un campo di gioco paritario in cui ogni individuo abbia la stessa opportunità di successo.

Leggi anche:  Siemens e Snowflake abilitano la convergenza IT/OT in ambito industriale

La fiducia cresce quando la trasparenza è evidente. La fiducia richiede trasparenza. Immaginate di presentarvi per un lavoro e scoprire che la vostra candidatura è stata scartata da un sistema di AI senza mai raggiungere un selezionatore umano. Questa mancanza di trasparenza mina la fiducia nel processo. Le organizzazioni devono essere in grado di mostrare chiaramente i principi di valutazione dei sistemi di AI, fornendo spiegazioni complete degli standard implementati e disponendo di canali accessibili per commenti o ricorsi. Rafforzare la governance interna, ad esempio con comitati etici, è un passo fondamentale per garantire che l’AI operi in modo giusto e rispettoso dei diritti individuali.

Privacy e sicurezza in primo piano. L’AI può analizzare enormi volumi di dati, ma questo potere comporta un elevato rischio per la privacy. Una ricerca di McKinsey ha rilevato che 8 cittadini europei su 10 esprimono preoccupazione su chi possa accedere ai loro dati personali. La protezione dei dati sensibili deve essere una priorità assoluta nello sviluppo dell’AI, andando oltre la semplice conformità legale.

L’adozione di standard etici non è più differibile. La diffusione dell’AI supera spesso la capacità delle normative esistenti. Ritardare l’azione espone a rischi concreti in aree vitali come sanità, lavoro e sicurezza. Pregiudizi e disinformazione possono colpire milioni di persone. L’Unione Europea, con iniziative come il Codice di Condotta per l’AI, sta già tracciando la rotta per uno sviluppo responsabile. Il più grande potenziale dell’AI, infatti, non risiede in ciò che può realizzare, ma in quanto responsabilmente la usiamo.