Inoltre, il 61% delle imprese italiane non è completamente sicuro che i propri controlli di sicurezza per l’AI riuscirebbero a identificarne una compromessa
Proofpoint, azienda leader nella cybersecurity e nella compliance, ha pubblicato il report “AI and Human Risk Landscape 2026”, che esamina il divario crescente tra la velocità con cui le aziende stanno rendendo operativa l’AI e il loro livello di preparazione per proteggere e analizzare i rischi che ne derivano. Lo studio globale, che ha coinvolto oltre 1.400 professionisti della sicurezza in 12 paesi, tra cui l’Italia, esamina come la rapida adozione dell’AI stia trasformando la collaborazione aziendale e mettendo in luce punti deboli strutturali nei controlli di sicurezza e nella risposta agli incidenti.
L’AI si sta diffondendo sempre più nelle aziende ed è ormai operativa nella maggior parte delle funzioni, con implementazioni che spaziano dall’assistenza clienti alla messaggistica interna, ai flussi di lavoro via email e alla collaborazione con terze parti. L’87% delle imprese a livello globale ha già implementato assistenti AI oltre la fase pilota, e il 76% sta attivamente testando in fase pilota o implementando agenti autonomi. Tuttavia, mentre stanno investendo in strumenti e controlli AI, molte non sono in grado di confermare che siano efficaci: il 52% non è pienamente fiducioso che i propri controlli di sicurezza AI rilevino un’intelligenza artificiale compromessa, e la metà di chi ha controlli in atto ha già subìto un incidente legato all’AI, confermato o sospetto.
Inoltre, la maggior parte delle aziende dichiara di non essere completamente preparata a investigare incidenti legati all’AI che si estendono su più sistemi e canali (solo un terzo afferma di esserlo).
“I risultati di quest’anno evidenziano un crescente divario tra adozione dell’AI e preparazione di sicurezza,” commenta Ryan Kalember, Chief Strategy Officer di Proofpoint. “Le aziende stanno estendendo l’utilizzo di assistenti AI e agenti autonomi nei principali flussi di lavoro, eppure molte non riescono a confermare l’efficacia dei propri controlli o ad analizzare a fondo incidenti che si propagano attraverso canali di collaborazione. Mentre l’AI si integra nel modo di operare, i responsabili della sicurezza devono ripensare come proteggere le interazioni affidabili tra persone, dati e sistemi di AI.”
I principali risultati italiani del report “AI and Human Risk Landscape 2026” di Proofpoint evidenziano che:
- L’implementazione dell’AI supera la preparazione di sicurezza. L’adozione dell’intelligenza artificiale è passata in produzione più velocemente di quanto siano maturati i framework di governance. Mentre l’82% delle aziende ha implementato assistenti AI oltre la fase pilota e l’83% sta sviluppando agenti autonomi, il 38% descrive ancora la sicurezza come in fase di recupero, incoerente o reattiva. Il 31% riferisce di aver subìto un incidente – sospetto o confermato – legato all’AI, indicando esposizione già presente negli ambienti operativi.
- I canali di collaborazione sono la principale superficie di attacco dell’AI. L’intelligenza artificiale sta ampliando la superficie di attacco, permettendo alle minacce di diffondersi a velocità macchina e avere impatto sui flussi di lavoro connessi. Sebbene l’email rimanga il vettore di minaccia più comune con il 58%, l’esposizione si estende ora a piattaforme di condivisione file (38%), applicazioni SaaS e cloud di terze parti (35%) e piattaforme social e di messaggistica (30%). Tra le aziende in Italia che hanno subìto un incidente legato all’AI, l’esposizione aumenta su ogni canale, inclusi il 71% nelle email e il 52% nelle piattaforme di condivisione file.
- La fiducia supera l’efficacia dei controlli. Sebbene molte aziende abbiano implementato controlli di sicurezza, manca loro la certezza della loro efficacia. Il 67% dichiara di avere una copertura di sicurezza AI in atto, eppure il 61% non è pienamente fiducioso che tali controlli ne rilevino una compromessa. Inoltre, il 31% delle aziende dotata di controlli ha comunque segnalato un incidente legato all’AI e persistono lacune nell’allineamento della governance tra i team (48%), nella visibilità delle attività di AI o degli agenti (39%) e nella formazione (31%).
- La preparazione alle indagini è in ritardo rispetto alla realtà degli incidenti. Quando si verificano incidenti legati all’AI, molte aziende faticano ad analizzarli efficacemente. Solo il 38% dichiara di essere pienamente preparato a indagare un incidente legato all’AI o agli agenti, e il 34% segnala difficoltà nel correlare le minacce tra i vari canali. Poiché l’attività legata all’AI si estende a email, piattaforme di collaborazione e sistemi cloud, la capacità di ricostruire gli eventi dipende dalla visibilità su tutti gli ambienti connessi, componente che molte aziende ancora non possiedono.
- La proliferazione di strumenti è una barriera strutturale.La frammentazione degli stack di sicurezza sta aggravando la sfida, limitando la visibilità e rallentando la risposta quando gli incidenti si spostano tra i sistemi a velocità macchina. Il 100% delle aziende afferma che gestire molteplici tool di sicurezza è almeno moderatamente impegnativo, e l’86% lo descrive come molto o estremamente difficile. Gli intervistati citano pressioni sui costi operativi (51%), difficoltà a correlare le minacce (34%) e sfide di integrazione (31%).
- L’architettura di sicurezza diventa una priorità strategica con la crescita dell’AI.Il 52% delle aziende sta attivamente perseguendo il consolidamento di fornitori e strumenti, e il 48% ritiene che una piattaforma unificata sia più efficace di soluzioni puntuali. Nei prossimi 12 mesi, il 60% prevede di ampliare le protezioni AI, il 46% intende estendere la copertura dei canali di collaborazione e il 33% si aspetta di migrare verso un approccio di piattaforma unificata.
“Sebbene l’AI abbia introdotto nuovi rischi, come il prompt engineering, il suo impatto maggiore è stato nell’amplificare rischi affrontati da sempre,” afferma Kalember. “Esecuzione di codice non affidabile, gestione impropria di dati sensibili e perdita di controllo delle credenziali sono le stesse sfide create dalle persone da decenni, l’AI le amplifica, eseguendole con velocità e portata di macchina. Quando le aziende affidano all’AI le chiavi per agire per loro conto – con clienti, partner e sistemi interni – il raggio d’azione dell’impatto di ciascuno di questi errori aumenta drasticamente. La risposta non è trattare l’AI come una nuova categoria di minacce, ma applicare controlli rigorosi e collaudati a ciò che l’AI tocca ed esegue e ai metodi di autenticazione concessi. Le aziende che impostano correttamente queste basi fin dall’inizio scaleranno l’AI con fiducia, chi non lo farà sta solo automatizzando la propria esposizione.”


































