A cura di Patrick Joyce, Global Resident CISO, Proofpoint
Prevedere che l’Intelligenza Artificiale, e più specificamente l’agentic AI, dominerà il 2026 potrebbe essere la previsione più facile e, allo stesso tempo, più difficile da fare. Semplice perché il trend è già in atto, complesso prevederne le ramificazioni, che potrebbero non essere quelle che ci si aspetta.
Mentre le aziende si affrettano a implementare sistemi agentici per gestire ogni attività, dal supporto clienti all’automazione della sicurezza, scopriranno presto che l’adozione comporta una curva di apprendimento ripida. Sfide legate a qualità dei dati, sicurezza e privacy rallenteranno l’implementazione su vasta scala, mentre l’interoperabilità dei sistemi aggiungerà ulteriori attriti.
Dal ruolo di supporto a quello di protagonista: cos’è davvero l’agentic AI?
L’agentic AI rappresenta un’evoluzione significativa rispetto ai tool di GenAI utilizzati oggi. Non è un assistente passivo, ma un sistema autonomo capace di azione indipendente. Come evidenziato da analisti, quali Gartner e IDC, che la considerano uno dei principali trend tecnologici strategici, stiamo passando da un mondo in cui gli utenti “definiscono la soluzione” a uno in cui semplicemente “enunciano il problema”. L’agente si occuperà del resto.
Le aziende si stanno muovendo con cautela, avviando progetti pilota e preferendo partnership strategiche invece di costruire questi complessi sistemi da zero. Ma mentre la promessa di trasformare interi settori è reale, lo è anche il rischio. Il successo ha il potenziale per cambiare radicalmente il panorama, ma prospererà solo chi affronterà questo percorso con governance e pazienza.
Il nuovo campo di battaglia: proteggere il “workspace agentico”
L’evoluzione tecnologica portata dall’agentic AI porta con sé la necessità di far evolvere la protezione, estendendola anche ad agenti AI e dati con cui interagiscono, mettendo in sicurezza la prossima era del lavoro.
L’AI sta trasformando il digital workspace in agentico, in cui le attività non sono più svolte solo da persone, ma anche da agenti AI che agiscono in autonomia. In questo paradigma emergente, ogni collaborazione, che sia tra esseri umani o tra uomo e AI, comporta un rischio per i dati. Gli agenti AI consumano, generano e manipolano informazioni, ampliando la superficie di attacco.
Gli strumenti tradizionali, costruiti per l’era di email e app cloud, sono ancora fondamentali, ma non più sufficienti. Devono evolversi per proteggere sia le persone che gli agenti AI e per farlo, sono necessarie tre capacità fondamentali:
- Mappatura delle interazioni delle minacce: gli attaccanti stanno già prendendo di mira l’AI con tecniche come la “prompt injection” (prompt malevoli nascosti nel contenuto). Una piattaforma di sicurezza di nuova generazione deve rilevare e bloccare questi exploit basati su prompt prima che raggiungano l’utente o l’agente AI.
- Mappatura del rischio dei dati: è necessaria una visibilità unificata sui dati strutturati e non, attraverso SaaS, cloud e canali di collaborazione. Ciò significa classificare, controllare gli accessi, monitorare l’utilizzo e applicare policy di governance in modo automatico, anche per l’accesso da parte dell’AI.
- Gateway e controlli agent-aware: un “gateway per agenti” può agire come un piano di controllo per l’AI, applicando policy sui dati, prevenendo l’esposizione non autorizzata e monitorandone l’attività. Gli agenti stessi devono essere affidabili e governati.
L’innovazione ha bisogno di sicurezza
Nessun singolo fornitore può avere tutti i dati o il contesto necessari e partnership e integrazioni tecnologiche sono cruciali per ottenere una visibilità unificata.
La posta in gioco è alta: nel workspace agentico, persone e agenti affrontano rischi paralleli, dall’ingegneria sociale alle identità compromesse o alla fuga accidentale di dati.
L’obiettivo non è bloccare il progresso, ma permettere a persone e AI di collaborare in modo sicuro e con fiducia. La protezione non deve essere un ostacolo all’innovazione, ma il fondamento che la renda possibile e sostenibile.


































