Kaspersky definisce i principi per lo sviluppo etico e l’uso responsabile dell’IA nella cybersecurity

CyberArk lancia il primo browser sicuro focalizzato sull’identità

Kaspersky presenta i suoi principi etici per lo sviluppo e l’utilizzo di sistemi basati su intelligenza artificiale (IA) o machine learning (ML), consolidando il suo impegno ad adottare un approccio trasparente e responsabile nei confronti dello sviluppo tecnologico

Da oltre 20 anni Kaspersky utilizza gli algoritmi ML, sottoinsieme dell’IA, nelle proprie soluzioni. La combinazione tra le potenzialità dell’intelligenza artificiale e le competenze umane ha permesso alle soluzioni di Kaspersky di rilevare e contrastare efficacemente le nuove minacce. In questo senso, il machine learning gioca un ruolo importante nell’automatizzazione del rilevamento delle minacce e del riconoscimento delle anomalie, migliorando la precisione nell’identificazione dei malware. Per favorire l’innovazione, Kaspersky ha definito una serie di principi etici per lo sviluppo e l’utilizzo di IA/ML, che condivide con tutto il settore per dare impulso a un confronto volto a garantire che l’IA venga utilizzata per rendere il mondo migliore.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Secondo Kaspersky, lo sviluppo e l’utilizzo continuativo di IA/ML dovrebbe tenere in considerazione i seguenti sei principi:

  • Trasparenza
  • Sicurezza
  • Controllo umano
  • Privacy
  • Impegno per la sicurezza informatica
  • Apertura al dialogo

Il principio della trasparenza rappresenta la profonda convinzione di Kaspersky che le aziende debbano informare i propri clienti in merito all’utilizzo delle tecnologie IA/ML nei propri prodotti e servizi. In Kaspersky viene rispettato questo principio, sviluppando sistemi IA/ML facilmente comprensibili e condividendo con gli stakeholder le informazioni sul funzionamento e sull’uso delle tecnologie IA/ML nelle soluzioni aziendali.

Le preoccupazioni sulla sicurezza si riflettono in un’ampia gamma di rigorose misure che Kaspersky implementa per assicurare la qualità dei propri sistemi IA/ML. Tra queste, audit specifici per l’IA/ML, iniziative per ridurre al minimo la dipendenza da dataset di terze parti nel processo di apprendimento delle soluzioni di IA e privilegiare le tecnologie di ML basate su cloud dotate delle necessarie misure di protezione invece di modelli installati sulle macchine dei clienti.

Leggi anche:  Attacchi cyber al settore Energia e Utility continuano a crescere nel primo trimestre 2023

L’importanza del controllo umano si spiega con la necessità di ottimizzare il lavoro dei sistemi IA/ML quando si tratta di analizzare minacce complesse, soprattutto le Advanced Persistent Threats (APT). Per fornire una protezione efficace contro le minacce in continua evoluzione, Kaspersky si impegna a garantire il controllo da parte dell’uomo come elemento essenziale di tutti i propri sistemi IA/ML.

Un altro principio fondamentale è garantire il diritto alla privacy nell’uso etico di IA/ML. Con i big data che giocano un ruolo essenziale nel processo di addestramento di questi sistemi, le aziende che utilizzano l’IA/ML devono sempre tenere in considerazione la privacy dei singoli individui. Impegnata nel rispetto del diritto alla privacy, Kaspersky applica numerose misure tecniche e organizzative per proteggere i dati e i sistemi e garantisce che il diritto alla privacy dei propri utenti sia esercitato in modo corretto.

Il quinto principio etico corrisponde all’impegno di Kaspersky nell’utilizzare i sistemi IA/ML esclusivamente per scopi difensivi. In questo modo, l’azienda prosegue nella propria missione volta a costruire un mondo più sicuro e dimostra il proprio impegno a proteggere gli utenti e i p dati.

Infine, l’ultimo principio di riferisce alla disponibilità di Kaspersky al dialogo con tutti gli stakeholder per condividere le best practice nell’utilizzo etico dell’IA. A questo proposito, Kaspersky è pronta a confrontarsi con tutte le parti interessate, poiché l’azienda ritiene che solo attraverso una collaborazione costante tra tutti gli stakeholder sia possibile superare gli ostacoli, promuovere l’innovazione e aprirsi a nuovi orizzonti.

Anton Ivanov, Kaspersky CTO, ha dichiarato: “L’intelligenza artificiale può potenzialmente portare molti vantaggi al settore della cybersecurity, migliorando ulteriormente la resilienza informatica nella nostra società. Ma, come per tutte le tecnologie nelle fasi iniziali dello sviluppo, l’intelligenza artificiale non è priva di rischi. Per affrontare le preoccupazioni legate all’IA, Kaspersky ha presentato i suoi principi etici, così da condividere le proprie best practice sull’applicazione dell’IA e invitare tutto il settore a un dialogo aperto, attraverso il quale possano essere sviluppate delle linee guida chiare su quali siano le riflessioni che lo sviluppo di soluzioni basate su IA e ML dovrebbe tenere in considerazione per essere definito etico”.

Leggi anche:  La video analisi al servizio dell’healthcare

Kaspersky sta presentando i propri principi etici in occasione dell’Internet Governance Forum organizzato dalle Nazioni Unite, che si svolte a Kyoto, in Giappone, dall’8 al 12 ottobre. Poiché l’IA e le tecnologie emergenti sono uno dei temi chiave degli eventi di quest’anno, Kaspersky ha organizzato un workshop per discutere i principi etici dello sviluppo e dell’utilizzo dell’IA, introducendo nel dibattito considerazioni tecniche e legali.

La pubblicazione di questi principi etici si inserisce nella Global Transparency Initiative, che promuove criteri come trasparenza e affidabilità tra i provider IT a favore di un mondo più resiliente e sicuro dal punto di vista informatico. Per maggiori informazioni sull’iniziativa e sui principi di trasparenza dell’azienda, è possibile richiedere una visita a uno dei Transparency Center di Kaspersky.