Attacco vs. difesa: come i modelli di Intelligenza Artificiale vengono utilizzati da entrambe le parti

Attacco vs. difesa: come i modelli di Intelligenza Artificiale vengono utilizzati da entrambe le parti

A cura di Alex Galimi, Technical Partner Manager Trend Micro Italia

Tutti parlano di Intelligenza Artificiale: la tecnologia che sta rivoluzionando diversi settori come la sanità, i servizi finanziari e l’industria manifatturiera e che sarà uno dei temi caldi degli anni futuri. In ambito cybersicurezza, i vendor del settore sono stati probabilmente tra i primi ad adottare l’intelligenza artificiale per affrontare la lotta alla criminalità informatica. Purtroppo, non sono solo i “buoni” a investire in tecnologie emergenti come questa.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Per questo è importante osservare l’evoluzione di questa tecnologia, concentrandosi in particolare su due tipi di modelli: l’IA categorizzante e quella generativa.

Come utilizzare in modo efficace l’intelligenza artificiale categorizzante

Conosciuta anche come modello classificatore, segmentatore o descrittivo, l’intelligenza artificiale categorizzante, come dice il suo nome, prende un input e lo categorizza. Un’applicazione ovvia per i difensori di rete è quella di classificare input come connessioni di rete, comportamenti o file in “buoni” e “cattivi”. Si tratta di una continuazione logica del classico elenco di blocchi e permessi, con l’unica differenza che la decisione buono/cattivo viene presa automaticamente anziché creata manualmente.

Tuttavia, occorre prestare attenzione a un paio di aspetti: in primo luogo, gli sviluppatori di queste soluzioni dovrebbero evitare di stabilire in modo esclusivamente binario se un input è buono o cattivo. C’è una grande differenza tra un file giudicato dannoso all’1% e uno giudicato dannoso al 49%; per questo motivo potrebbe essere utile fornire categorie definibili dall’utente, come ad esempio “potenzialmente dannoso” o “indesiderato”, per aggiungere maggiore variabilità in termini di affidabilità. In secondo luogo, gli utenti hanno bisogno di conoscere non solo la risposta, ma anche il modo in cui un modello di IA la elabora. Purtroppo, la maggior parte delle IA attuali non è autoriflessiva, cioè non è consapevole di sé stessa e del proprio processo decisionale. L’IA di oggi è quindi come un esperto ben addestrato, valuta i fatti che gli vengono presentati sulla base del proprio istinto in modo da giungere a una conclusione. Per ridurre questi rischi, potrebbe essere una buona idea memorizzare le decisioni dell’IA per una futura analisi forense ed eventualmente anche i dati grezzi su cui si sono basate tali decisioni. Ciò consentirebbe a un essere umano esperto di ricostruire o riconfermare la decisione dell’IA.

Leggi anche:  Cybersecurity outlook 2024. La sinergia tra AI e cloud

Indirizzare il successo dell’intelligenza artificiale generativa

Il motivo per cui tutti i consigli di amministrazione parlano di IA è dato dal fatto che modelli generativi, come ChatGPT, debuttano sulla scena con una straordinaria capacità di interagire con gli utenti attraverso il linguaggio naturale. Il modello calcola o “genera” un output da un enorme pool di dati di addestramento, combinati con il contesto attuale (domande o cronologia delle chat). Tuttavia, è importante ricordare che, nonostante la fluidità nella lingua dell’utente e l’apparente capacità di comporre battute, poesie e altre opere d’arte, questi modelli non “capiscono” realmente i contenuti che apprendono. Di conseguenza, tutto ciò che viene prodotto è fondamentalmente solo un ottimo “remix” dei contenuti su cui il modello è stato addestrato, anche se si tratta di un patrimonio di conoscenze a cui nessun essere umano potrebbe attingere nel corso della propria vita.

A differenza dell’IA categorizzante, la forza dei modelli generativi non sta nel prendere decisioni, ma nel riassumere e presentare informazioni e fatti in un dialogo. Se addestrati sui dati giusti – ad esempio input che coprono le connessioni di rete, le interazioni, la conformità e i requisiti aziendali – potrebbero diventare assistenti informatici estremamente efficaci. Un modello di intelligenza artificiale generativa potrebbe essere in grado di consigliare impostazioni di sistema ottimizzate, o suggerire priorità per una strategia di conformità. Con le giuste informazioni tempestive, potrebbe persino essere in grado di fornire un’analisi delle cause degli attacchi.

È importante ricordare che la qualità linguistica dei risultati non è un indicatore della qualità del contenuto effettivo. I falsi positivi sono un problema comune per alcuni modelli generativi, soprattutto quando questi vengono addestrati solo su pochi dati. Alcuni attacchi zero-day potrebbero passare inosservati proprio per questo motivo.

Il nuovo assistente di Trend Micro basato sull’intelligenza artificiale generativa, Companion, è diverso: questo è addestrato su dati strettamente controllati che fanno parte della proprietà di Trend Micro, ed è progettato per essere utilizzato dagli analisti SecOps. Questi ultimi sono spesso sovraccaricati da avvisi di minacce e hanno difficoltà a gestire il carico di lavoro a causa della carenza di competenze. La soluzione aiuterà gli utenti, di tutti i livelli di competenza, a essere più produttivi grazie a:

  • Spiegazione e contestualizzazione degli avvisi
  • Gestione e raccomandazione di azioni
  • Decodifica di script complessi
  • Sviluppo e test di query di ricerca complessi
Leggi anche:  Le telecomunicazioni sono i primi bersagli dei cyberattacchi nel 2024

Companion è già disponibile in Trend Vision One e sono previste molte altre novità.

Utilizzo dell’IA categorizzante per scopi malevoli

Purtroppo, ciò che funziona per i team di sicurezza IT può essere utilizzato anche da aggressori con obiettivi dannosi, ed è risaputo che i cybercriminali sono sempre pieni di risorse. Infatti, un’importante fuga di dati che l’anno scorso ha colpito il famigerato gruppo ransomware Conti, ha rivelato che questo spendeva 6 milioni di dollari annui in strumenti, servizi e stipendi, destinandone la maggior parte in ricerca e sviluppo. In questo gioco al gatto e al topo, solo lo studio dell’uso malevolo dell’IA può permettere alla cybersecurity di progettare prodotti e misure di mitigazione migliori.

Per i team di sicurezza informatica, i modelli di intelligenza artificiale categorizzante costituiscono la punta di diamante della difesa informatica. I cybercriminali, invece, li utilizzano principalmente per selezionare strategicamente le vittime e pianificare nuovi attacchi. Questo primo utilizzo non si allontana troppo dai processi di marketing aziendale pensati per trovare un target ottimale: si inizia definendo l’obiettivo e si cerca successivamente di abbinarlo a un modello preciso.

Nel caso in cui non volessero automatizzare gli attacchi, con lo scopo di rivolgerli a un ampio gruppo di utenti come un “direct mailing” nel marketing, i criminali informatici potrebbero anche voler definire le “vittime ottimali”. Si tratta di individui maggiormente disposti a pagare, meno propensi a sporgere denuncia e che richiedono uno sforzo minore in termini di attacco. La fase successiva consiste nel cercare di trovare questi obiettivi, utilizzando le fonti di dati disponibili come: le ricerche su Shodan, l’OSINT derivata dai social network, i dati di attacchi precedenti e le informazioni trapelate o rubate. In questo caso, grandi quantità di dati e insiemi di dati complessi possono essere elaborati dall’intelligenza artificiale per trovare potenziali vittime.

Leggi anche:  Bitdefender entra a far parte della Global Anti-Scam Alliance come membro fondatore

Teoricamente, l’intelligenza artificiale potrebbe essere utilizzata anche durante un attacco per determinare quale attività post compromissione – come la crittografia, il ricatto o il furto di dati – prometta i maggiori profitti. Un modello di IA di categorizzazione, eseguito localmente, potrebbe aiutare in questo caso.

I limiti dell’IA generativa

Come spiegato in precedenza, l’IA generativa non è creativa, in quanto tutto ciò che produce è un remix, a volte complesso, di contenuti su cui è stata addestrata. Ciò significa che può mostrare agli utenti exploit già pronti, con tanto di spiegazioni e commenti, ma non sarà in grado di generare exploit zero-day dal nulla. Può però aiutare in altri modi, ad esempio un modello di IA generativa è stato usato per scrivere il codice dei plugin distribuiti durante una competizione Pwn2Own. ChatGPT è stato adoperato invece per la creazione di varianti polimorfiche di malware, sebbene, anche in questo caso si sia trattato solo di riscritture di contenuti noti appresi durante l’addestramento. Nonostante il limitato uso che potrebbe farne un criminale informatico esperto, questo strumento potrebbe contribuire a democratizzare l’accesso a determinate conoscenze tra i criminali meno esperti, a patto che sappiano cosa chiedere.

È nella creazione di contenuti che i modelli di IA generativa si rivelano davvero efficaci. Questi strumenti sono in grado di produrre contenuti di phishing accattivanti e altamente leggibili e senza errori grammaticali. Il possibile utilizzo dell’intelligenza artificiale generativa per produrre contenuti altamente convincenti per attacchi BEC (Business Email Compromise) e altri attacchi di impersonificazione, è una preoccupazione già sollevata da Europol.

È anche il motivo per cui aziende come Trend Micro continuano a svolgere ricerche intensive nel settore dell’IA, analizzando le azioni degli avversari e sviluppando misure di mitigazione per rilevare e bloccare i loro sforzi in modo più efficace. La corsa agli armamenti dell’IA è appena iniziata.