I clienti Netskope stanno già sfruttando le protezioni di sicurezza AI di Netskope, con nuove funzionalità ora disponibili attraverso la piattaforma Netskope One
Netskope, leader nei moderni ambiti di sicurezza e networking, annuncia la continua espansione della piattaforma Netskope One per coprire un numero crescente di casi d’uso legati alla sicurezza dell’intelligenza artificiale, tra cui una protezione avanzata per le applicazioni private e attributi di gestione della postura di sicurezza dei dati (DSPM). Mentre altri fornitori si concentrano principalmente sull’abilitare un accesso sicuro degli utenti alle applicazioni di intelligenza artificiale, le funzionalità di Netskope vanno molto oltre, gestendo i nuovi rischi introdotti dall’adozione e dallo sviluppo di applicazioni di intelligenza artificiale, fornendo una profonda comprensione dei dati sensibili immessi nei modelli linguistici di grandi dimensioni (LLM) e valutando il rischio associato ai modelli di intelligenza artificiale per prendere decisioni consapevoli sulla selezione delle applicazioni e sulla definizione delle policy.
Basandosi sulle attuali e complete protezioni per le applicazioni SaaS pubbliche e di intelligenza artificiale, Netskope One — potenziata dalle innovazioni di SkopeAI in tutta la piattaforma — copre un’ampia gamma di casi d’uso relativi alla sicurezza dell’AI: protegge e mette in sicurezza l’utilizzo dell’intelligenza artificiale da parte di utenti, agenti, dati e applicazioni, garantendo visibilità completa e controlli contestuali in tempo reale.
La rapida adozione dell’intelligenza artificiale da parte delle organizzazioni aziendali ha creato un ecosistema estremamente complesso, composto da popolari applicazioni di genAI pubbliche, applicazioni con funzionalità AI integrate, applicazioni AI private, agenti AI e altro ancora, tutti caratterizzati da diversi livelli di utilizzo e accesso, e in costante interazione tra loro e con le altre operazioni aziendali. Questo ecosistema ha a sua volta generato una superficie di attacco molto estesa, introducendo nuove sfide in termini di visibilità e di applicazione delle policy.
Secondo il 2025 Generative AI Cloud and Threat Report di Netskope Threat Labs, nell’ultimo anno le organizzazioni hanno registrato un aumento di 30 volte nel volume di dati inviati alle applicazioni di generative AI da parte degli utenti interni. Gran parte di questo incremento deriva dall’uso di “shadow AI”, ovvero dall’accesso degli impiegati agli strumenti di generative AI tramite account personali. Il report ha evidenziato che il 72% degli utenti di generative AI continua a utilizzare account personali per interagire con applicazioni come ChatGPT, Google Gemini e Grammarly all’interno dell’ambiente lavorativo. Le organizzazioni necessitano ora di un approccio unificato ed end-to-end per proteggere ogni aspetto dell’intelligenza artificiale nel proprio business, dal generative AI all’agentic AI e oltre, così da ridurre i rischi mantenendo al contempo alta la produttività dei dipendenti nell’uso dell’AI.
I miglioramenti annunciati per Netskope One includono nuovi aggiornamenti al Data Security Posture Management (DSPM) di Netskope One, che offre una visibilità e un controllo end-to-end ancora più estesi sull’utilizzo dei diversi archivi di dati per l’addestramento di LLM pubblici e privati. Con Netskope One, le organizzazioni possono:
- Supportare un addestramento sicuro, impedendo che dati sensibili o soggetti a regolamentazioni vengano accidentalmente utilizzati per alimentare i LLM, sia direttamente, sia attraverso tecniche come la Retrieval-Augmented Generation (RAG) o il fine-tuning dei modelli. Il DSPM svolge un ruolo fondamentale identificando e segnalando i dati strutturati e non strutturati a rischio all’interno di ambienti SaaS, IaaS, PaaS e on-premises.
- Valutare il rischio AI con il contesto dei dati, sfruttando la classificazione dei dati del DSPM, potenziata dal motore DLP di Netskope e dalle analisi di esposizione, per valutare meglio il livello di rischio associato alle diverse attività legate all’intelligenza artificiale. Questo consente ai team di sicurezza di dare priorità ai rischi più rilevanti e prendere decisioni più informate sulle policy AI.
- Abilitare una governance AI basata sulle policy, automatizzando il rilevamento e l’applicazione delle policy relative all’uso dei dati per l’intelligenza artificiale, in base alla classificazione, alla provenienza o al contesto di utilizzo. Combinato con controlli inline, il DSPM aiuta a garantire che solo i dati approvati vengano utilizzati per il training, l’inferenza o le risposte ai prompt.
«Le organizzazioni devono avere la certezza che i dati utilizzati in qualsiasi fase del loro ecosistema AI siano sicuri, comprendendo come questi dati possano essere impiegati nelle applicazioni, accessibili dagli utenti e integrati negli agenti AI», ha dichiarato Sanjay Beri, CEO di Netskope. «Nelle conversazioni che ho avuto con i leader di tutto il mondo, mi viene posta ripetutamente la stessa domanda: “Come può la mia organizzazione accelerare lo sviluppo e la distribuzione delle applicazioni AI a supporto del business senza mettere a rischio i dati aziendali in nessuna fase del processo?” Netskope One elimina l’incertezza legata all’AI, aiutando le organizzazioni a intraprendere percorsi di adozione dell’intelligenza artificiale basati su una piena comprensione delle interazioni AI e garantendo la protezione dei dati in ogni momento.»
Molti clienti di Netskope utilizzano già oggi la piattaforma Netskope One per abilitare l’uso aziendale delle applicazioni di intelligenza artificiale. Ora, tutti i clienti possono accelerare i propri percorsi verso una AI sicura per quasi ogni tipo di caso d’uso. Con Netskope One, le organizzazioni possono:
- Creare una base coerente per la preparazione all’AI: Comprendere i dati che fluiscono nei LLM, sia attraverso applicazioni pubbliche di generative AI sia tramite modelli sviluppati internamente, è fondamentale per mantenere sicurezza e fiducia. Le funzionalità di Netskope One aiutano a garantire che solo i dati appropriati vengano utilizzati nell’addestramento, identificando i dati sensibili e prevenendo l’inserimento di informazioni dannose negli archivi. Questo offre protezione contro il data poisoning e supporta l’applicazione di solide policy DLP. Grazie a funzionalità avanzate di discovery, classificazione ed etichettatura, le organizzazioni possono identificare e gestire i dati che potrebbero interagire con LLM, applicazioni o agenti AI, creando una base solida per uno sviluppo dell’AI sicuro e responsabile.
- Ottenere una visione completa dell’AI all’interno dell’organizzazione: I team di sicurezza possono monitorare l’attività dei dipendenti, tracciare l’uso di istanze personali e aziendali e proteggere i dati sensibili sia negli ambienti gestiti sia in quelli non gestiti. Grazie alle valutazioni di rischio fornite dal Netskope Cloud Confidence Index (CCI)—che copre oltre 370 applicazioni di generative AI e più di 82.000 applicazioni SaaS—le organizzazioni possono comprendere in modo proattivo i rischi legati all’AI, inclusi l’utilizzo dei dati, la condivisione con terze parti e i comportamenti di addestramento dei modelli.
- Applicare una protezione granulare con contesto di rischio adattivo: I team di sicurezza possono andare oltre i semplici controlli di tipo consenti o blocca, applicando policy dettagliate basate sul comportamento degli utenti e sulla sensibilità dei dati, e possono gestire e prevenire l’adozione di “shadow AI” indirizzando gli utenti verso strumenti approvati, come le versioni enterprise di Microsoft Copilot e ChatGPT. I team possono anche controllare azioni specifiche all’interno delle applicazioni di intelligenza artificiale, come caricare, scaricare, copiare, stampare e altro ancora, riducendo così i rischi. Con un’avanzata tecnologia di Data Loss Prevention (DLP), Netskope monitora non solo i prompt inviati, ma anche le risposte generate dall’AI, applicando automaticamente le policy per prevenire l’esposizione di informazioni sensibili o soggette a regolamentazioni.
Netskope sta presentando l’intera piattaforma Netskope One, comprese le nuove e ampliate funzionalità AI, alla RSA Conference 2025 che si sta svolgendo in questi giorni (stand n. 1135, padiglione Moscone South).