Meta accelera sulla filigrana per i contenuti generati da IA

Meta accelera sulla filigrana per i contenuti generati da IAcontinua a crescere nell’anno di efficienza di Meta

Il colosso lavora a una tecnologia in grado di rilevare immagini e video creati anche da strumenti di terze parti

Meta prevede di aumentare l’etichettatura delle immagini generate dall’intelligenza artificiale su Facebook, Instagram e Threads per chiarire quando i contenuti sono artificiali. La mossa fa parte di una spinta più ampia volta a reprimere la cattiva informazione e la disinformazione, il che è particolarmente significativo in un importante anno elettorale negli Stati Uniti e in altri paesi. Secondo il presidente degli affari globali di Meta, Nick Clegg, la società ha collaborato con partner di tutto il settore per sviluppare standard che includano indicatori che un’immagine, un video o una clip audio sono stati generati utilizzando l’intelligenza artificiale. “Essere in grado di rilevare questi segnali ci consentirà di etichettare le immagini generate dall’intelligenza artificiale che gli utenti pubblicano su Facebook, Instagram e Threads”, ha scritto Clegg in un post di Meta Newsroom. 

“Stiamo sviluppando questa funzionalità adesso e nei prossimi mesi inizieremo ad applicare le etichette in tutte le lingue supportate da ciascuna app”. Clegg ha aggiunto che, espandendo queste capacità nel prossimo anno, Meta si aspetta di saperne di più su “come le persone creano e condividono contenuti IA, quale tipo di trasparenza le persone ritengono più preziosa e come si evolvono queste tecnologie”. Questi contribuiranno a informare sia le migliori pratiche del settore che le politiche stesse di Meta. Inoltre, il colosso sta cercando di rendere più difficile per le persone alterare o rimuovere marcatori invisibili dai contenuti artificiali. Il laboratorio di ricerca FAIR AI dell’azienda ha sviluppato una tecnologia che “integra il meccanismo di filigrana direttamente nel processo di generazione delle immagini per alcuni tipi di generatori di immagini, che potrebbe essere prezioso per i modelli open source in modo che la filigrana non possa essere disabilitata”, ha scritto Clegg. Meta sta anche lavorando su modi per rilevare automaticamente il materiale generato dall’intelligenza artificiale che non ha marcatori invisibili.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Leggi anche:  Al via l’Adobe Summit EMEA