Crescono i rischi legati alla sicurezza e conformità dell’intelligenza artificiale, ma l’innovazione non si ferma a causa delle pressioni legate al business
Il 60% dei responsabili aziendali italiani si è sentito costretto ad approvare progetti di intelligenza artificiale, nonostante le preoccupazioni legate alla sicurezza. Questo, per stare al passo con la concorrenza e soddisfare la domanda interna. Il dato emerge da “Securing the AI-Powered Enterprise”, l’ultima ricerca di TrendAI, leader globale di AI security, che ha coinvolto un campione italiano di 100 responsabili aziendali in organizzazioni con oltre 250 dipendenti.
“Le organizzazioni sono consapevoli dei rischi, ma non dispongono degli strumenti per gestirli”. Afferma Salvatore Marcis, Country Manager di TrendAI, una business unit di Trend Micro. “La maggior parte delle implementazioni risponde a esigenze di competitività, non a ragionamenti legati alla governance, e l’AI viene incorporata in sistemi critici senza i controlli necessari per una corretta gestione. Il nostro obiettivo è aiutare le organizzazioni a ottenere solidi risultati di business, continuando a gestire il rischio legato all’AI”.
Quando l’implementazione dell’AI è guidata dalla pressione, è facile incontrare incoerenze nella governance e responsabilità poco chiare nella gestione dei rischi. Inoltre, i team di sicurezza lavorano in modo reattivo per rispondere a eventuali criticità, il che spesso porta a soluzioni alternative e a un maggiore utilizzo di strumenti di intelligenza artificiale non autorizzati o “shadow”. Le previsioni sulle minacce cyber per il 2026 di TrendAI mostrano anche come i criminali stiano già utilizzando l’intelligenza artificiale per automatizzare le campagne di phishing senza la necessità di particolari competenze tecniche, aumentando velocità e portata degli attacchi.
L’adozione dell’intelligenza artificiale sta superando le capacità di controllo e difesa
Le organizzazioni implementano l’intelligenza artificiale più velocemente di quanto riescano a gestire i rischi associati, generando un divario sempre più ampio tra ambizione e supervisione. Il 57% del campione italiano afferma che l’intelligenza artificiale sta superando le capacità di difesa, e il 23% riferisce solo una moderata fiducia nella propria comprensione dei quadri giuridici che regolamentano l’intelligenza artificiale. La maturità della governance è bassa. Solo il 20% delle organizzazioni dispone di policy complete sull’AI, molte delle quali ancora in fase di elaborazione. Il 41% cita come ostacolo una regolamentazione o standard di conformità poco chiari. In pratica, l’AI viene resa operativa prima che le regole che ne disciplinano l’uso siano completamente stabilite.
La fiducia nell’intelligenza artificiale autonoma rimane incerta
La fiducia nei sistemi autonomi più avanzati è ancora in evoluzione. Il 43% del campione ritiene che l’intelligenza artificiale migliorerà significativamente le capacità di difesa nel breve termine, ma restano le preoccupazioni legate all’accesso ai dati, all’uso improprio e alla mancanza di supervisione. Il 39% degli intervistati ritiene che l’accesso degli agenti ai dati sensibili costituisca il rischio maggiore. Il 25% avverte che i prompt dannosi potrebbero compromettere la sicurezza, mentre il 26% indica come criticità l’aumento della superficie di attacco. Il 28% teme l’abuso dello status di AI affidabile e i rischi legati all’implementazione autonoma del codice. Allo stesso tempo, il 28% ammette di non avere osservabilità né verificabilità sui sistemi, sollevando seri interrogativi su come le organizzazioni possano controllare o intervenire una volta implementati gli agenti.
Circa il 38% delle organizzazioni sostiene l’introduzione di meccanismi di “kill switch” per spegnere i sistemi in caso di guasto o uso improprio, mentre quasi un terzo rimane incerto su eventuali contromisure. Questa mancanza di consenso evidenzia una questione più profonda: le organizzazioni si stanno orientando verso un’intelligenza artificiale autonoma, senza un accordo su come mantenere il controllo.
“L’intelligenza artificiale agentica introduce una nuova categoria di rischio”. Conclude Salvatore Marcis. “La nostra ricerca mostra che le organizzazioni sono preoccupate per l’esposizione dei dati sensibili e per la perdita di supervisione. Senza visibilità e controllo, le aziende implementano sistemi che non comprendono né possono governare pienamente, determinando un ulteriore aumento dei rischi”.


































