L’UE introdurrà “crash test” per l’intelligenza artificiale

Intelligenza artificiale: il mercato in Lombardia raggiunge quasi 192 milioni di euro nel 2023

Le autorità di regolamentazione garantiranno che le tecnologie basate sull’IA siano sicure da usare prima di arrivare sul mercato

L’Unione Europea vuole garantire che i software di intelligenza artificiale siano sicuri, prima di essere immessi sul mercato. Per farlo, introdurrà diversi sistemi di “crash test”, che coinvolgeranno vari Paesi. Ad oggi, si tratta di quattro test permanenti e strutture sperimentali in tutto il continente con il tentativo di garantire che le innovazioni alimentate dall’intelligenza artificiale non rappresentino un rischio per la sicurezza dei cittadini. Bloomberg ha riferito che il blocco  commerciale ha iniettato circa 240 milioni di dollari (220 milioni di euro) in questo progetto. Attraverso i sistemi e le strutture di crash test che verranno lanciati dal prossimo anno, l’UE offrirà ai fornitori di tecnologia uno spazio per testare l’intelligenza artificiale e la robotica in diversi campi, tra cui produzione, assistenza sanitaria, agricoltura e cibo e città. Testare la tecnologia è l’unica scelta giusta per il blocco commerciale, sapendo cosa emerge rapidamente ogni giorno.

Il direttore dell’UE per l’intelligenza artificiale e l’industria digitale, Lucilla Sioli, ha dichiarato durante un evento di lancio a Copenaghen che gli innovatori dovrebbero offrire sul mercato nuovi strumenti basati sull’intelligenza artificiale, etichettati come prodotti “affidabili”. Sioli ha anche evidenziato la disinformazione come uno dei rischi introdotti dall’intelligenza artificiale per le persone. Nei giorni scorsi, gruppi di consumatori in tutti i paesi europei hanno esortato le autorità di regolamentazione ad avviare indagini sui potenziali rischi dell’intelligenza artificiale generativa, incluso ChatGPT. Il vicedirettore generale del BEUC, l’organizzazione europea dei consumatori, Ursula Pachl, ha sottolineato le sue preoccupazioni riguardo alla tecnologia, rilevando il potenziale inganno, manipolazione e danno che potrebbe interessare i consumatori, indistintamente. Pachl ha dichiarato: “Chiediamo alle autorità per la sicurezza, i dati e la protezione dei consumatori di avviare le indagini ora e di non aspettare pigramente che si siano verificati tutti i tipi di danni ai consumatori prima di agire. Queste leggi si dovranno applicare a tutti i prodotti e servizi, siano essi alimentati dall’IA o meno”.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Leggi anche:  Data Center: re-inventare i Data Center Network