L’ultima ricerca Trend Micro rivela un’adozione diffusa dell’intelligenza artificiale nelle strategie di sicurezza informatica, ma crescono le preoccupazioni sull’esposizione al rischio informatico. Lo studio include un campione italiano
In tutto il mondo, le organizzazioni adottano l’intelligenza artificiale per potenziare le proprie difese informatiche, ma molte sottolineano la crescente preoccupazione che questa tecnologia possa ampliare la superficie di attacco ed esporle a nuove minacce. Il dato emerge da AI is Changing the Cyber Risk Game. Are You Keeping Up?, l’ultima ricerca Trend Micro, leader globale di cybersecurity, che include anche un campione italiano.
“L’intelligenza artificiale consente all’organizzazione di rafforzare le proprie difese informatiche, permettendo di individuare più rapidamente le anomalie e di automatizzare le attività più dispendiose in termini di tempo. Ma anche i cybercriminali sfruttano l’AI per raggiungere i propri obiettivi e questo porta grandi trasformazioni nel panorama delle minacce cyber. La nostra ricerca e i test che abbiamo effettuato nel mondo reale certificano come sia necessario integrare la security nei sistemi AI sin dall’inizio. La posta in gioco è troppo alta per rimandare la gestione di questo aspetto a un secondo momento”. Afferma Salvatore Marcis, Country Manager Trend Micro Italia.
Secondo lo studio, l’81% delle aziende a livello globale utilizza già strumenti basati sull’AI come parte della strategia di cybersecurity e un ulteriore 16% è attivo nell’esplorare altre implementazioni. Il 97% del campione è favorevole all’utilizzo dell’AI e più della metà si affida a questa tecnologia per processi essenziali come il rilevamento automatizzato delle risorse, la prioritizzazione dei rischi e la scoperta delle anomalie. Per quanto riguarda i prossimi 12 mesi, il 42% degli intervistati considera l’AI e l’automazione un’assoluta priorità nelle strategie di miglioramento della cybersecurity. Questo ottimismo non è esente da perplessità. Un sorprendente 94% del campione ritiene che l’AI peggiorerà la propria esposizione al rischio nei prossimi 3-5 anni e oltre la metà si aspetta un incremento nella portata e complessità degli attacchi basati sull’AI, che costringerà le organizzazioni a ripensare e rimodellare le strategie di cybersecurity in atto. Molti sottolineano il rischio di esposizione dei dati sensibili, l’incertezza sul modo in cui i dati vengono elaborati e archiviati dai sistemi di intelligenza artificiale, la possibilità che i dati proprietari vengano sfruttati da modelli non affidabili. Parte degli intervistati ha anche manifestato timore circa le crescenti pressioni sulla conformità e le sfide legate al monitoraggio di nuovi endpoint, API e shadow IT.
Il dualismo tra opportunità e rischi nell’ambito dell’intelligenza artificiale è emerso chiaramente all’ultimo evento Pwn2Own di Trend Micro a Berlino, che ha introdotto per la prima volta la categoria AI. I risultati hanno offerto un’istantanea convincente dello stato della sicurezza dell’intelligenza artificiale. Dodici sfide miravano a quattro principali framework di intelligenza artificiale, tra cui NVIDIA Triton Inference Server, che ha ricevuto le maggiori attenzioni. Anche Chroma, Redis e NVIDIA Container Toolkit sono stati colpiti con successo, in alcuni casi utilizzando un solo bug per raggiungere il massimo risultato. In totale, nei framework AI coinvolti nell’evento, sono state scoperte sette vulnerabilità zero-day uniche. I vendor hanno a disposizione 90 giorni per sviluppare le patch, prima che i dettagli tecnici vengano resi pubblici.
L’intelligenza artificiale è sempre più profondamente integrata negli ambienti IT enterprise. Trend raccomanda ai leader aziendali di valutare proattivamente il panorama in costante evoluzione delle minacce e integrare pratiche rigorose di cybersecurity a ogni livello di adozione dell’AI.