Microsoft rivela un nuovo strumento per combattere i video deepfake

IA e deepfake, Twitter vuole più trasparenza

Video Authenticator fornisce un punteggio di affidabilità percentuale sulla probabilità che una clip sia un deepfake

Microsoft ha svelato Video Authenticator, un software che analizza foto e video per fornire un punteggio di affidabilità sulla probabilità che il materiale sia stato creato artificialmente. L’azienda spera che la tecnologia aiuti a “combattere la disinformazione” su tutti i livelli di applicazione. Certo è che non è semplice stare dietro a raggiri digitali del genere, tanto che seppur innovativa nella sua applicazione, Video Authenticator rischia di divenire rapidamente obsoleta, a causa del ritmo con cui sta avanzando la tecnologia deepfake. Per risolvere questo problema, Microsoft ha annunciato un sistema separato volto ad aiutare i produttori di contenuti ad aggiungere codice nascosto alle loro riprese, in modo che eventuali modifiche successive possano essere facilmente contrassegnate.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Combattere il falso

L’uso di deepfake è balzato agli onori della cronaca all’inizio del 2018, dopo che uno sviluppatore ha adattato tecniche di intelligenza artificiale per creare software che scambiava il volto di una persona con un’altra. Il processo ha funzionato, alimentato con molte immagini fisse di una persona e filmati di un’altra. Il software ha quindi utilizzato questo stratagemma per generare un nuovo video con il volto del primo al posto del secondo, con espressioni corrispondenti, sincronizzazione labiale e altri movimenti.

Da allora, il processo è stato semplificato, aprendolo a più utenti, tanto da richiedere meno foto per funzionare. Esistono alcune app che girano, ad esempio, con un singolo selfie, utile a sostituire il volto di una star del cinema con quello dell’utente, all’interno di clip di Hollywood. Ma vi sono preoccupazioni sul fatto che il processo possa anche essere abusato per creare clip fuorvianti, in cui una figura di spicco è costretta a dire o agire in un modo che non è mai realmente accaduto, magari per motivi politici. All’inizio di quest’anno, Facebook ha vietato i video deepfake; Twitter e TikTok hanno applicato regole simili. Lo strumento di autenticazione video di Microsoft funziona cercando di rilevare i segni evidenti che un’immagine sia stata generata artificialmente, spesso invisibili all’occhio umano.

Leggi anche:  Bitdefender presenta la nuova offerta di servizi Bitdefender Offensive