Deepfake: come funziona la minaccia del nuovo decennio e come comportarsi

I deepfake sono video falsi che vengono realizzati utilizzando l’AI e che stanno invadendo sempre di più gli spazi online. Ma come funzionano e come è possibile riconoscerli? Il pensiero di Gastone Nencini, Country Manager Trend Micro Italia

Quale percentuale di contenuti su Internet è vera? Online ci sono molte informazioni affidabili, ma è sempre più critico distinguere le notizie vere da quelle false. E potrebbe essere sempre più difficile a causa dei deepfake: clip audio e video altamente convincenti, basati sull’intelligenza artificiale, che potrebbero letteralmente mettere le parole in bocca a qualcuno che si conosce.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Questo è un grosso problema, per la nostra società ma anche a livello governativo. In effetti, potremmo trovare video di personaggi influenti o ricevere messaggi vocali difficili da verificare.

Ma la conoscenza è potere. Se siamo più critici nel valutare quello che vediamo online e comprendiamo il potenziale danno che la condivisione di filmati falsi può generare, insegnando a chi ci circonda a fare lo stesso, tutti possiamo fare la nostra parte per creare un Internet più forte e più sicuro.

Come funzionano i deepfake?

I deepfake si chiamano così perché usano il deep learning, un tipo di intelligenza artificiale, per creare clip audio e video contraffatti che sono difficili da distinguere rispetto a quelli reali.

Per generare un video deepfake, la tecnologia impara a codificare e decodificare due volti separatamente, ad esempio quello di una persona famosa che parla e quello di un’altra persona che dice qualcosa di completamente diverso e magari controverso. La tecnologia impara come abbattere e ricostruire il primo volto e fonderlo con il secondo. In questo modo le espressioni facciali della persona originale sembrano imitare quelle della seconda persona. La stessa tecnologia può essere usata per sovrapporre ancora un altro volto sulla persona che viene presa di mira per il deepfake.

Leggi anche:  Predictions per il 2024: IA generativa e operazioni CaaS semplificano il lavoro dei malintenzionati

Passi da giganti

La tecnologia non è ancora del tutto presente, il che rende abbastanza facile individuare la maggior parte dei deepfake, ma i progressi sono rapidi. Ad esempio, apportando piccole modifiche all’audio in grado da alterare in modo significativo il messaggio principale di un video. Inoltre, i media hanno dimostrato che i deepfake “base” sono già alla portata della gente comune, senza il bisogno di un investimento finanziario ingente o di un particolare know-how tecnologico.

Questa tecnologia può essere utilizzata in maniera positiva, come nel settore della produzione cinematografica, in cui la ripresa di una scena può essere evitata grazie alla tecnologia deepfake, ma la stessa tecnica è già utilizzata in modo negativo per creare contenuti per adulti che sfruttano i volti di celebrità senza il loro consenso. Considerando questi possibili utilizzi, ci sono grandi preoccupazioni che questa tecnologia possa essere utilizzata regolarmente per far oscillare le elezioni, far crollare i mercati, rovinare le carriere e consentire crimini ancora peggiori.

È ora di individuare e denunciare i “falsari”

I colossi tecnologici prendono il problema dei deepfake sul serio. Facebook, YouTube e Twitter hanno recentemente cercato di vietare la distribuzione di questi contenuti, ma resta da vedere quanto bene si possano applicare questi sforzi. Una possibile soluzione potrebbe essere quella di richiedere che i video siano filigranati e firmati digitalmente, questo potrebbe aiutare la persona media a convalidare il produttore del contenuto. La speranza è avere un modo tecnicamente accurato di segnalare i deepfake prima che vengano pubblicati. Fino a quando soluzioni attendibili non saranno attuabili, l’unica risorsa è essere vigili e aiutare gli altri a fare lo stesso.

Leggi anche:  Mancanza di fiducia la maggiore sfida per la cybersecurity per il 42% dei responsabili della sicurezza IT

Come comportarsi?

Quando si visualizza un contenuto di questo tipo online, si può adottare uno schema di risposta che segue questi tre punti:

Fermarsi

Non condividere o commentare i video se sembrano in qualche modo sospetti.

Domandarsi

Da dove proviene il video? La persona è veramente il personaggio che appare nel video? Perché la persona o l’organizzazione lo condivide online?

Segnalare

Ogni volta che si incontra qualcosa di sospetto online, ignorarlo è sempre un’opzione. Ma se si è davvero preoccupati è opportuno fare una segnalazione al sito o all’app su cui è stato visualizzato.