Artificial intelligence, l’Europa propone regole rigorose

Azione, senso, calcolo e autonomia. Non chiamate robot una lavastoviglie

Lo sviluppo di un’intelligenza artificiale equa ed etica è diventata una delle questioni più controverse nella Silicon Valley. La proposta della Commissione europea avrebbe un impatto di vasta portata sulle principali aziende tecnologiche che hanno investito nello sviluppo dell’AI

Negli Stati Uniti, i rischi dell’intelligenza artificiale sono al vaglio anche delle autorità governative. Il 21 aprile 2021, la Commissione europea ha reso pubblica una proposta di regole (“Harmonised rules on artificial intelligence”) che fisserebbe limiti all’uso dell’intelligenza artificiale in una serie di attività dalle auto a guida autonoma alle decisioni di assunzione, al prestito bancario, alla selezione delle iscrizioni scolastiche e al punteggio degli esami. La proposta legislativa nota come Artificial Intelligence Act, è la prima iniziativa, a livello mondiale, che fornisce un quadro giuridico per l’intelligenza artificiale.

Le nuove regole saranno applicate direttamente allo stesso modo in tutti gli Stati membri sulla base di una classificazione delle applicazioni di AI basata sui rischi. Occorre precisare che la proposta non prende esplicitamente in considerazione le applicazioni robotiche dotate di intelligenza, apprendimento e autonomia che, per la loro varietà e complessità, richiederanno documenti specifici.

I sistemi AI considerati una chiara minaccia alla sicurezza, ai mezzi di sussistenza e ai diritti delle persone saranno vietati. Questo include sistemi o applicazioni di AI che manipolano il comportamento umano per aggirare il libero arbitrio degli utenti (per esempio, applicazioni che utilizzano l’assistenza vocale incoraggiando comportamenti pericolosi dei minori) e sistemi che permettono il punteggio sociale da parte dei governi.

I sistemi identificati come ad alto rischio includono la tecnologia AI usata in:

  • Infrastrutture critiche (per esempio i trasporti), che potrebbero mettere a rischio la vita e la salute dei cittadini;
  • istruzione o formazione professionale, che possono determinare l’accesso all’istruzione e il corso professionale della vita di qualcuno (per esempio, il punteggio degli esami);
  • componenti di sicurezza dei prodotti (come l’applicazione dell’AI nelle apparecchiature medicali);
  • occupazione, gestione dei lavoratori e accesso al lavoro autonomo (software di selezione dei CV per le procedure di assunzione);
  • servizi pubblici e privati essenziali (il credit scoring che nega ai cittadini la possibilità di ottenere un prestito);
  • applicazione della legge che può interferire con i diritti fondamentali delle persone (valutazione dell’affidabilità delle prove);
  • gestione della migrazione, dell’asilo e del controllo delle frontiere (come la verifica dell’autenticità dei documenti di viaggio);
  • amministrazione della giustizia e dei processi democratici (per esempio, l’applicazione della legge a un insieme concreto di fatti).
Leggi anche:  Come migliorare la collaborazione fra team per una digital transformation più efficace

I sistemi AI ad alto rischio saranno soggetti a obblighi rigorosi prima che possano essere messi sul mercato, in particolare:

  • controlli mediante adeguati sistemi di valutazione e mitigazione del rischio;
  • controlli sulla qualità dei dati immessi nel sistema per minimizzare i rischi e possibili esiti discriminatori;
  • obbligo di registrazione delle attività per garantire la tracciabilità dei risultati;
  • obbligo della documentazione dettagliata che fornisca tutte le informazioni necessarie sul sistema e i suoi obiettivi affinché le autorità possano valutarne la conformità;
  • obbligo di informazioni chiare e adeguate all’utente;
  • obbligo di misure appropriate di supervisione umana per minimizzare il rischio;
  • obbligo di alto livello di robustezza, sicurezza e accuratezza.

Margrethe Vestager, executive vicepresident of the European commission for a Europe fit for the Digital Age, ha commentato: «Sull’intelligenza artificiale, la fiducia è un must, non un nice to have. Con queste regole di riferimento, l’UE sta guidando lo sviluppo di nuove norme globali per assicurarsi che l’AI sia affidabile. Stabilendo gli standard, possiamo aprire la strada a una tecnologia etica in tutto il mondo e garantire che l’UE rimanga competitiva lungo la strada. Le nostre regole, che sono future-proof e innovation-friendly interverranno dove strettamente necessario, quando la sicurezza e i diritti fondamentali dei cittadini dell’UE sono in gioco».


Gianmarco Veruggio scienziato robotico – www.veruggio.it