Facebook ammette che l’IA da sola non può fermare i livestream violenti

Facebook ammette che l'intelligenza artificiale da sola non può fermare i livestream violenti

Non solo algoritmi nei piani di controllo e monitoraggio del social network, che necessita di un capitale umano importante

Molte persone hanno chiesto perché l’intelligenza artificiale non abbia rilevato automaticamente il video dall’attacco della scorsa settimana –  ha dichiarato Guy Rosen, VP di Facebook, in un post pubblicato online – l’IA ha compiuto enormi progressi nel corso degli anni e in molti settori, il che ci ha permesso di rilevare in modo proattivo la maggior parte dei contenuti che rimuoviamo. Ma non è perfetta”. Dopo l’orribile attacco terroristico di Christchurch che ha provocato la morte di 50 persone, molti stanno mettendo in dubbio il ruolo svolto dal web, o meglio, da alcune piattaforme web, dove non sembra esservi molta etica tra l’accettabile e l’evitabile. Non a caso, c’è chi ha espresso il parere che quella in Nuova Zelanda è probabilmente la prima sparatoria di massa nativa via internet, dato che il terrorista ha annunciato le sue intenzioni su 8chan e ha trasmesso l’attacco via Facebook, condiviso poi all’infinito su YouTube, Twitter e Reddit.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Fare il possibile

Come servizio, Facebook ha attirato particolare attenzione per il ruolo svolto nella tragedia, tra cui il tempo necessario per reagire con le procedure di censura. Il social ha pubblicato una cronologia, osservando che il video è stato visto meno di 200 volte durante la trasmissione in diretta e 4mila volte prima che i moderatori lo rimuovessero. Nel tentativo di scrollarsi di dosso alcune delle colpe, ha sottolineato che “nessun utente ha segnalato il video nel mezzo del live” e che “il primo rapporto è arrivato 29 minuti dopo l’inizio e a 12 minuti dalla fine della trasmissione”. Insomma, Facebook sta dicendo che non avrebbe potuto intervenire durante il livestream, dal momento che non era nemmeno a conoscenza dell’attacco.

Leggi anche:  Meta cambia le regole in Europa

Ma che dire del rilevamento automatizzato in grado di identificare contenuti che “violano i nostri standard di comunità”? Bene, in seguito all’incidente, Facebook è riuscito a cancellare il filmato originale e a impostare i suoi algoritmi per trovare e rimuovere video visivamente simili su Facebook e Instagram. “Alcune varianti come le registrazioni dello schermo erano più difficili da riconoscere, quindi abbiamo ampliato i sistemi di rilevamento aggiuntivi, incluso l’uso della tecnologia audio”, ha osservato Chris Sonderby, vicepresidente di Facebook. Il punto qui è che l’IA richiede vaste “informazioni di training” per prendere decisioni informate. Facebook Live non solo rende possibili contenuti imprevedibili che non sono mai stati visti prima, in caso di violenze gravi, ma è anche (per fortuna) privo di materiale su vasta scala utile ad addestrare i suoi sistemi di intelligenza artificiale.

Tutto ciò non dovrebbe sminuire il ruolo che l’AI può svolgere ed è chiaro che gli umani continueranno a svolgere una parte essenziale nel monitoraggio dei contenuti generati dagli utenti. Semplicemente, la piattaforma è troppo grande per essere controllata solo dagli addetti ai lavori, anche con l’aiuto dell’IA. Quale strada? Assumere più persone, ed è per questo che Menlo Park ha rimpolpato le sue fila di circa 15 mila revisori, mentre continua a migliorare gli algoritmi, sperando che non si arrivi più ad una viralità come quella di Christchurch.