Elia Zaitsev, CTO, e Adam Meyers, SVP Counter Adversary Operations, CrowdStrike, condividono le previsioni di settore di CrowdStrike per il 2026
Di Elia Zaitsev, CTO, CrowdStrike
La prompt injection è un problema di sicurezza di frontiera
Proprio come il phishing ha definito l’era delle email, la prompt injection sta definendo l’era dell’AI. Gli avversari stanno incorporando istruzioni nascoste per bypassare le misure di sicurezza, dirottare gli agent, rubare dati e manipolare i modelli, trasformando il livello di interazione dell’intelligenza artificiale nella nuova superficie di attacco e facendo dei prompt un nuovo malware.
Nel 2026, l’AI Detection and Response (AIDR) diventerà essenziale quanto l’EDR, dal momento che le aziende necessitano di una visibilità in tempo reale su prompt, risposte, azioni intraprese dagli agent e tool calls per poter contenere l’abuso dell’AI prima che esso si diffonda, assicurando che l’intelligenza artificiale guidi l’innovazione anziché diventare un fattore di rischio.
L’ascesa dei Security orchestrator
Gli avversari stanno già utilizzando l’AI per muoversi più velocemente di quanto sia umanamente possibile – e i SOC legacy non riescono a stare al passo. Nel 2026 i difensori evolveranno da gestori di alert a orchestratori dell’agentic SOC: agent intelligenti che ragionano, decidono e agiscono lungo l’intero ciclo di vita della sicurezza alla velocità della macchina, sempre sotto il comando umano. Questo è il modello che ridisegnerà gli equilibri tra avversari e difensori, accelerando i risultati e dando agli esseri umani il tempo e la chiarezza per concentrarsi sulla strategia, sul giudizio e sull’impatto.
Il successo di questa evoluzione dipenderà dai seguenti prerequisiti:
- Fornire sia agli agent che agli analisti un contesto ambientale completo con la capacità di agire immediatamente su qualsiasi segnale
- Un’agentic workforce di agent mission-ready, addestrati su anni di decisioni di esperti SOC per automatizzare attività ad alto rischio, con velocità e precisione
- Benchmark e strumenti di validazione per dimostrare l’efficacia degli agent
- La capacità per le aziende di costruire e personalizzare i propri agent per soddisfare specifiche esigenze
- Orchestrare la collaborazione tra agent e analisti, all’interno di un unico sistema coordinato, guidato dall’esperienza umana
Gli analisti della sicurezza non scompariranno, bensì saranno potenziati da una flotta di agent che lavorano alla velocità della macchina.
Gestione delle identità AI (AI Identity Management)
Nel 2026 la diffusione di agenti AI e identità non umane è destinata ad esplodere all’interno delle aziende, in quanto si espanderanno in modo esponenziale, superando le identità umane. Ogni agent opererà come un super-umano privilegiato con token OAuth, chiavi API e accesso continuo a set di dati precedentemente isolati, rendendoli le entità più potenti e pericolose in ciascun ambiente.
L’identity security creata per gli umani non sopravviverà a questo cambiamento. I team di sicurezza avranno bisogno di visibilità in tempo reale, contenimento istantaneo delle minacce e la capacità di tracciare ogni azione intrapresa dall’agente, in tutto il percorso, fino ad arrivare all’umano che l’ha creata. Quando un AI agent trasferisce denaro sul conto sbagliato o divulga proprietà intellettuale, “è stata l’AI a farlo” non sarà più una risposta accettabile. Questa è l’era in cui sicurezza delle identità significa proteggere entità che non hanno un battito cardiaco.
AI: l’acceleratore di vulnerabilità zero-day
Di Adam Meyers, SVP Counter Adversary Operations, CrowdStrike
Nel 2026 assisteremo probabilmente a un’esplosione di vulnerabilità zero-day guidate dall’AI. Mentre l’intelligenza artificiale accelera la generazione di codice e lo sviluppo di software, sta diventando anche perfetta per trovare difetti nel software. Esistono due modi principali per identificare queste vulnerabilità: uno è l’analisi mirata, che richiede molte risorse e tipicamente un intervento umano nel processo. L’altro è comunemente chiamato fuzzing e comporta l’uso dell’automazione per identificare i difetti. La GenAI è un punto di svolta per quest’ultimo. L’AI può ottimizzare le metodologie di fuzzing e analizzare i crash report su vasta scala, portando rapidamente alla luce difetti sfruttabili come vulnerabilità.
I primi indicatori suggeriscono che gli avversari sofisticati stanno già investendo in questo tipo di ricerca, abbassando il livello di costo per la scoperta e facendo delle vulnerabilità stesse un’arma. Questi exploit sono le chiavi che gli avversari utilizzano per ottenere l’accesso iniziale ai loro obiettivi. I difensori che avranno successo saranno quelli che utilizzeranno l’AI con la stessa velocità e precisione: rilevando, applicando patch e cercando proattivamente le vulnerabilità zero-day con la stessa rapidità con cui vengono identificate.


































