L’ultimo studio Trend Micro rivela i pericoli nella creazione di nuove infrastrutture di intelligenza artificiale
I sistemi di intelligenza artificiale sono sempre più sotto attacco. Il dato emerge da “Trend Micro State of AI Security Report, 1H 2025”, l’ultimo studio Trend Micro, leader globale di cybersecurity. L’azienda esorta gli addetti ai lavori e i leader della comunità IT a seguire le migliori pratiche per l’implementazione di stack applicativi IA sicuri, al fine di evitare furti di dati, avvelenamento dei modelli, richieste di estorsioni e altri attacchi.
“L’intelligenza artificiale potrebbe essere l’opportunità del secolo per le aziende di tutto il mondo, ma le organizzazioni che non prevedono adeguate precauzioni potrebbero finire per sperimentare più danni che benefici. Come rivela la nostra ultima ricerca, sono troppe le infrastrutture di intelligenza artificiale che vengono costruite con componenti non protetti o privi di patch, dando il via libera ad attività cybercriminali”. Afferma Salvatore Marcis, Country Manager di Trend Micro Italia.
Di seguito, le principali sfide alla sicurezza dell’IA identificate dalla ricerca Trend Micro:
1. Vulnerabilità/exploit in componenti critici
Le organizzazioni che sviluppano, distribuiscono e utilizzano applicazioni IA sfruttano diversi componenti e framework software specializzati, che potrebbero contenere vulnerabilità riscontrabili nei normali software. Lo studio rivela vulnerabilità ed exploit zero-day nei componenti principali, tra cui ChromaDB, Redis, NVIDIA Triton e NVIDIA Container Toolkit
2. Esposizione accidentale a internet
Le vulnerabilità sono spesso il risultato di tempistiche di sviluppo e implementazione affrettate. Questo vale anche per i sistemi di intelligenza artificiale, che possono essere accidentalmente esposti a Internet, dove vengono analizzati dai cybercriminali. Trend ha rilevato oltre 200 server ChromaDB, 2.000 server Redis e oltre 10.000 server Ollama esposti a Internet senza autenticazione
3. Vulnerabilità in componenti open-source
Molti framework e piattaforme di intelligenza artificiale utilizzano librerie software open source per fornire funzionalità comuni. Tuttavia, i componenti open source contengono spesso vulnerabilità che finiscono per insinuarsi nei sistemi di produzione, dove sono difficili da rilevare. Nel recente Pwn2Own di Berlino, che includeva la nuova categoria AI, i ricercatori hanno scoperto un exploit per il database vettoriale Redis, che derivava da un componente Lua obsoleto
4. Debolezza a livello container
Gran parte dell’infrastruttura IA viene eseguita su container, questo significa che è esposta alle stesse vulnerabilità e minacce di sicurezza che influiscono sugli ambienti cloud e container. Come sottolineato nello studio, i ricercatori di Pwn2Own sono stati in grado di scoprire un exploit di NVIDIA Container Toolkit. Le organizzazioni, per mitigare i rischi, dovrebbero “sanificare” i dati in input e monitorare il comportamento in fase di esecuzione
La comunità degli sviluppatori e le aziende devono bilanciare al meglio la sicurezza con il time-to-market. Misure concrete potrebbero includere:
- Una migliore gestione delle patch e scansione delle vulnerabilità
- Il mantenimento di un inventario di tutti i componenti software, comprese librerie e sottosistemi di terze parti
- L’adozione di best practice per la sicurezza della gestione dei container, incluso l’utilizzo di immagini di base minime e strumenti di sicurezza a runtime
- Controlli di configurazione per garantire che i componenti dell’infrastruttura IA, come i server, non siano esposti a Internet