I criminali informatici ricorrono a Telegram per aggirare ChatGPT

I criminali informatici ricorrono a Telegram per aggirare ChatGPT

Check Point Research (CPR), la divisione Threat Intelligence di Check Point Software, ha dimostrato che i criminali informatici utilizzano i bot di Telegram per aggirare le restrizioni poste da ChatGPT, nei forum underground.

I bot utilizzano le API di OpenAI per consentire la creazione di e-mail o di codici malevoli. Gli aggressori che creano i bot, attualmente, concedono fino a 20 query gratuite per poi richiedere successivamente un pagamento di 5,50$ per ogni 100 query.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

ChatGPT Bot-as-a-Service su Telegram

CPR ha scovato alcuni annunci di bot di Telegram nei forum clandestini. Questi bot utilizzano l’API di OpenAI per consentire agli aggressori di creare e-mail o codici malevoli, concedendo 20 query gratuite, per poi addebitare 5,50$ a ogni 100 query.

Pubblicità del forum underground del bot OpenAI su Telegram
Esempio di un’email di phishing creata per dimostrare la possibilità di utilizzare le API di OpenAI senza limitazioni
Esempio della possibilità di creare un codice malware senza restrizioni anti-abuso in un bot Telegram utilizzando l’API OpenAI
Modello di business del canale Telegram basato sull’API ChatGPT

Script per aggirare le restrizioni ChatGPT

CPR ha anche osservato che i criminali informatici creano script di base che utilizzano le API di OpenAI per evitare limitazioni e le restrizioni anti-abuso.

Esempio di uno script che interroga direttamente l’API e aggira le restrizioni per creare malware

Sergey Shykevich, Threat Group Manager di Check Point Software: In quanto parte della sua content policy, OpenAI ha creato barriere e restrizioni per evitare la creazione di contenuti malevoli sulla sua piattaforma. Tuttavia, i cybercriminali hanno le capacità per aggirare le restrizioni di ChatGPT, ed è in corso una discussione attiva nei forum clandestini che rivela come utilizzare le API di OpenAI per aggirare queste limitazioni. A questo scopo vengono creati bot su Telegram che utilizzano l’API e che vengono pubblicizzati nei forum di hacking per aumentarne l’esposizione. La versione attuale dell’API di OpenAI è utilizzata da applicazioni esterne e ha pochissime misure anti-abuso. Di conseguenza, consente la creazione di contenuti pericolosi, come e-mail di phishing e codici malware, senza le barriere imposte da ChatGPT per la propria interfaccia utente. Dobbiamo essere consapevoli che i criminali informatici continueranno a cercare modi per aggirare le restrizioni di ChatGPT”.

Leggi anche:  Commvault: trend, regole e sfide della resilienza informatica