Cisco Skill Scanner: più sicurezza sugli Agenti AI

Cisco Skill Scanner: più sicurezza sugli Agenti AI

Cosa sono, nella sostanza, gli agenti AI personali?

Sono nient’altro che software autonomi o semi-autonomi basati sull’intelligenza artificiale, concepiti per comprendere il linguaggio naturale e svolgere compiti specifici per l’utente. Inoltre, operano in modo proattivo, apprendono dall’esperienza e combinano diversi strumenti digitali per migliorare efficienza e produttività.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Negli ultimi giorni, OpenClaw, un assistente personale AI open source, ha guadagnato grande popolarità. Questo agente AI può funzionare direttamente sul computer dell’utente e occuparsi di attività quotidiane, come prenotare voli, gestire il calendario o inviare messaggi tramite WhatsApp e iMessage.

OpenClaw è in grado di memorizzare informazioni a lungo termine, come preferenze e cronologia, e può automatizzare attività, eseguire script e interagire con servizi esterni tramite skill aggiuntive: moduli specializzati in compiti complessi e specifici, come la creazione di contenuti o l’analisi dei dati. In termini di funzionalità, OpenClaw offre insomma un’ampia gamma di possibilità.

I problemi sorgono sul fronte della sicurezza, poiché i rischi possono diventare davvero significativi:

  • Può eseguire comandi sul computer e leggere o modificare file, con il rischio che comandi malevoli vengano eseguiti se una skill è compromessa.
  • Sono già stati segnalati casi di fuga di chiavi e credenziali in testo chiaro, vulnerabili ad attacchi esterni.
  • L’integrazione con le app di messaggistica amplia la superficie di attacco, esponendo gli utenti a prompt dannosi.

La documentazione del prodotto sottolinea chiaramente che non esiste una configurazione “completamente sicura”. Concedere a un agente AI accesso illimitato ai propri dati locali può comportare pericoli rilevanti se il tutto non viene gestito con attenzione.

Skill Scanner: uno strumento per proteggere le skill AI

Nel dicembre 2025, Anthropic ha presentato Claude Skills, collezioni organizzate di istruzioni, script e risorse pensate per potenziare i flussi di lavoro degli agenti AI, aggiungendo capacità specifiche per ogni compito. Queste skill non sono solo guide: possono influenzare il comportamento degli agenti, eseguire codice e collegarsi a file esterni. Preoccupati dalle possibili vulnerabilità che Claude Skills avrebbe potuto produrre, il team Cisco AI Threat and Security Research ha sviluppato uno strumento in grado di analizzare le skill di Claude Skills e OpenAI Codex, individuando comportamenti sospetti o rischiosi nascosti in descrizioni, metadati o implementazioni, ed anzi evidenziando che circa un quarto delle skill analizzate presentava almeno una vulnerabilità.

Leggi anche:  DeceptiveDevelopment, la nuova indagine di ESET Research sul cybercrime nordcoreano legato al furto di criptovalute

Ecco perché, di pari passo con la crescita esplosiva di OpenClaw AI, Cisco presenta Skill Scanner, un nuovo strumento open source pensato per aiutare sviluppatori e utenti a usare le skill in sicurezza, senza sorprese indesiderate.

Durante i test su una delle skill disponibili, Skill Scanner ha rilevato diversi problemi di sicurezza. Tra questi, la possibilità di inviare dati a server esterni senza il consenso dell’utente e di aggirare i controlli di sicurezza interni. Altri rischi significativi includono comandi malevoli incorporati, esecuzione di script non autorizzati e compromissione di strumenti locali.

Perché le aziende devono preoccuparsi

Gli agenti AI possono aggirare i sistemi di sicurezza, eseguire comandi complessi e diffondere dati sensibili senza che nessuno se ne accorga. Le skill non sicure aumentano i rischi lungo la catena di approvvigionamento, e i pacchetti locali possono nascondere comportamenti dannosi difficili da rilevare, alimentando la Shadow AI in azienda.

Lo Skill Scanner di Cisco aiuta sviluppatori e team di sicurezza a verificare la sicurezza delle skill, combinando analisi statica, comportamentale e semantica assistita da AI, con indicazioni chiare su gravità, file coinvolti e azioni correttive. Con questo strumento, le aziende possono adottare, correggere o rifiutare skill AI rischiose, proteggendo dati e sistemi senza limitare l’innovazione offerta dagli agenti personali.