Gli sviluppi dell’IA: le voci clonate invadono il web

Le aziende prevedono che la quota di fatturato generato da attività legate al software quadruplicherà entro il 2030

ElevenLabs permette di sintetizzare testi partendo da zero, anche con le voci di attori famosi, e su internet si diffondono i deep “voice” fake

Pochi giorni fa, ElevenLabs, startup di intelligenza artificiale vocale, ha lanciato una versione beta della sua piattaforma che offre agli utenti la possibilità di creare voci sintetiche completamente nuove o di clonare la voce di qualcuno. Bene, Internet ha impiegato solo pochi giorni per iniziare a utilizzare quest’ultimo per scopi poco etici. La società ha rivelato su Twitter che sta assistendo a un “numero crescente di casi di uso improprio della clonazione vocale” e che sta pensando a un modo per affrontare il problema “implementando ulteriori misure di sicurezza”. Sebbene ElevenLabs non abbia approfondito cosa intendesse per “casi di uso improprio”, Motherboard ha trovato post di 4chan con clip con voci generate che suonano come celebrità che leggono o dicono qualcosa di discutibile. Una clip, ad esempio, secondo quanto riferito presentava una voce che suonava come Emma Watson che leggeva una parte del Mein Kampf. 

Gli utenti hanno anche pubblicato clip vocali che presentano sentimenti omofobici, transfobici, violenti e razzisti. Non è del tutto chiaro se tutte le clip utilizzassero la tecnologia di ElevenLab, ma un post con un’ampia raccolta di file vocali su 4chan include un collegamento alla piattaforma della startup. Forse questa comparsa di clip audio “deepfake” non dovrebbe sorprendere, visto che qualche anno fa avevamo assistito a un fenomeno simile. I progressi nell’intelligenza artificiale e nell’apprendimento automatico hanno portato a un aumento dei video deepfake, in particolare della pornografia, in cui i materiali esistenti vengono modificati per utilizzare i volti delle celebrità. ElevenLabs sta raccogliendo feedback su come impedire agli utenti di abusare della sua tecnologia.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Leggi anche:  L’UE, una nuova legge sulla libertà di stampa mette a rischio la privacy

Al momento, le idee attuali includono l’aggiunta di più livelli alla verifica dell’account per abilitare la clonazione vocale, come richiedere agli utenti di inserire informazioni di pagamento o un ID. La società sta anche considerando la possibilità che gli utenti verifichino la proprietà del copyright della voce che desiderano clonare, ad esempio convincendoli a inviare un campione con il testo richiesto. Infine, l’azienda sta pensando di eliminare del tutto il suo strumento Voice Lab e di chiedere agli utenti di inviare richieste di clonazione vocale che deve verificare manualmente.