A cura di Christoph Bausewein, Assistant General Counsel for Data Protection and Policy, CrowdStrike
La protezione dei dati è ora in un momento cruciale, dal momento che l’intelligenza artificiale (AI) svolge un ruolo sempre più centrale sia nella sicurezza informatica che nella privacy. Ora, le organizzazioni devono proteggere non solo i propri dati e workload, ma anche i sistemi AI su cui si basano. Mentre l’AI rimodella il modo in cui i team di sicurezza mettono in atto strategie di difesa contro le minacce informatiche, sta al tempo stesso anche ridefinendo cosa significa proteggere la privacy in un mondo digitale.
Ripensare la Privacy e la Sicurezza nell’era dell’AI
Privacy e sicurezza non sono più preoccupazioni distinte: le misure di sicurezza basate sull’AI stanno dimostrando che una sicurezza informatica efficace è fondamentale per la protezione della privacy moderna. Sebbene l’AI venga spesso vista come un rischio per la privacy, è al contempo cruciale anche per proteggere i dati sensibili dalle minacce informatiche. Le organizzazioni hanno bisogno di un approccio Privacy-by-Design e Secure-by-Design, garantendo che i sistemi AI siano progettati con la sicurezza al centro. Questo approccio si applica ad ogni fase dell’adozione dell’AI:
- I dati che addestrano i modelli AI devono essere protetti contro manipolazioni avversarie.
- I sistemi di sicurezza basati sull’AI devono essere progettati per salvaguardare i dati degli utenti.
- Le query e i risultati generati dall’AI devono essere protetti contro fughe o usi impropri.
La sicurezza informatica basata sull’AI sta dimostrando che sicurezza e privacy vanno di pari passo. La rilevazione delle minacce tramite AI permette alle organizzazioni di identificare i comportamenti degli avversari in tempo reale, rafforzando la difesa contro attacchi informatici sempre più sofisticati. Questo è un fattore cruciale di fronte alla dark AI, dove gli avversari usano l’AI per lanciare attacchi avanzati e rapidi che le difese tradizionali potrebbero non riuscire a rilevare.
Il potere dell’AI nella sicurezza informatica
Per proteggere sia i dati che i sistemi AI, le organizzazioni devono adottare un approccio di sicurezza completo basato sull’AI che dia priorità a:
- Rilevamento delle minacce: L’AI eccelle nel riconoscimento dei modelli e nella rilevazione di anomalie, consentendo di scoprire sottili segnali di minacce informatiche su vasti set di dati. Gli indicatori di attacco basati sull’AI (IOAs) possono identificare minacce potenziali prima che si concretizzino in attacchi veri e propri.
- Risposta e mitigazione: La risposta alle minacce mediata dall’AI porta ad azioni rapide ed efficaci, riducendo significativamente i tempi di risposta. Ciò è cruciale in un’epoca in cui gli attacchi possono diffondersi nelle reti in pochi secondi.
- Gestione delle vulnerabilità: Gli strumenti AI-native forniscono un monitoraggio continuo e scansioni automatizzate per individuare possibili punti deboli nella sicurezza. Possono dare priorità alle vulnerabilità in base alle informazioni reali sulle minacce, garantendo che le risorse siano focalizzate sui problemi più critici.
- Ricerca assistita delle minacce con l’AI: L’AI migliora il lavoro degli analisti umani, combinando l’intuizione umana con le capacità di elaborazione dei dati dell’AI. Questa sinergia consente una ricerca delle minacce più efficace e proattiva.
- Esperienza semplificata per gli analisti: Gli assistenti di sicurezza basati sull’AI generativa stanno trasformando l’esperienza degli analisti di sicurezza permettendo query in linguaggio naturale e semplificando l’analisi dei dati complessi. Tutto questo democratizza la sicurezza informatica, consentendo agli utenti di tutti i livelli di competenza di sfruttare capacità avanzate di sicurezza.
Proteggere l’AI stessa
Mentre l’AI è fondamentale per proteggere i dati, i sistemi di AI sono anch’essi a rischio. Dato che gli avversari mirano sempre più ai modelli AI, le organizzazioni devono prendere misure proattive per proteggere le pipeline AI, i modelli e le operazioni.
Un approccio efficace per proteggere i sistemi AI include:
- Operazioni sui dati: Garantire l’integrità dei modelli di AI tramite dati di addestramento accuratamente selezionati. Ciò include processi rigorosi per avere una protezione contro gli attacchi machine learning degli avversari.
- Miglioramento continuo: Affinamento costante dei modelli per adattarsi alle nuove minacce.
- Privacy-by-Design: Sviluppare sistemi AI tenendo conto dei principi di Privacy-by-Design, aiutando a sfruttare l’AI in modo da rispettare la privacy degli utenti pur garantendo una sicurezza robusta.
- Trasparenza e responsabilità: Documentazione chiara delle capacità e dei limiti dei sistemi AI, questa trasparenza è cruciale per costruire fiducia e rispettare le normative emergenti sull’AI.
L’Elemento umano nella sicurezza informatica basata sull’AI
Contrariamente ad alcune narrazioni, l’esperienza umana rimane cruciale nella sicurezza informatica basata sull’AI. La collaborazione tra uomo e macchina deve essere abbracciata per affrontare la velocità, il volume e la crescente sofisticazione degli avversari. Gli elementi chiave includono:
- Generazione della verità di base: Gli esperti umani forniscono dati cruciali per quanto concerne la verità di base per addestrare e valutare i sistemi AI, garantendo accuratezza e affidabilità.
- Apprendimento attivo: L’AI segnala gli incidenti in cui la revisione umana può fornire il massimo valore, garantendo che l’attenzione umana venga spesa dove è più necessario. Questo approccio, noto come “fast loop” e “long loop”, consente all’AI di migliorare continuamente sulla base del feedback degli esperti.
- Feedback continuo: Gli esperti umani analizzano i risultati dei sistemi AI, fornendo feedback che aiutano i modelli AI a migliorare costantemente. Questo processo iterativo assicura che l’AI rimanga all’avanguardia rispetto alle minacce in evoluzione.
Navigare tra le normative sull’AI con una mentalità di sicurezza
I moderni sistemi AI generalmente utilizzano un mix di dati regolamentati e non regolamentati su sistemi che potrebbero rientrare nei requisiti di conformità di settori con proprie normative specifiche. Ma ci sono requisiti comuni per implementare salvaguardie di sicurezza appropriate al rischio. Ad esempio, il Regolamento Generale sulla Protezione dei Dati (GDPR) include molte disposizioni di sicurezza che sono neutrali rispetto alla tecnologia, il che significa che i dati personali devono essere protetti per legge indipendentemente dall’uso o meno dell’AI. Man mano che emergono nuove normative sull’AI, come l’AI Act dell’Unione Europea, è fondamentale affrontare la conformità tenendo conto sia della privacy che della sicurezza.
Guardando al futuro, l’AI sarà un elemento cruciale sia per rispettare i requisiti di protezione dei dati che per mitigare i rischi legati alla sicurezza e alla privacy.