Il tool che ritaglia le foto di Twitter è razzista?

Il tool che ritaglia le foto di Twitter è razzista?
Ascolta l'articolo

Un programmatore ha condotto un esperimento e conclude che lo strumento automatizzato di Twitter favorisce i volti dei bianchi

Twitter ha avviato un’indagine dopo che gli utenti hanno affermato che la sua funzione di ritaglio delle immagini favorisce i volti dei bianchi. Uno strumento automatico sull’app mobile del social network ritaglia automaticamente le immagini che sono troppo grandi per adattarsi allo schermo, e seleziona quali parti devono essere tagliate. Ma un esperimento di un programmatore sembra appunto mostrare pregiudizi razziali.

Per vedere cosa avrebbe scelto l’algoritmo di Twitter, Tony Arcieri ha pubblicato una lunga immagine del leader repubblicano del Senato Mitch McConnell in alto e dell’ex presidente degli Stati Uniti, Barack Obama in basso, separati da uno spazio bianco. In una seconda immagine, Obama è stato posizionato in alto e McConnell in basso. Entrambe le volte, l’ex presidente è stato tagliato fuori del tutto. In seguito all’esperimento”, Arcieri ha scritto: “Twitter è solo un esempio di razzismo che si manifesta negli algoritmi di apprendimento automatico”.

In cosa consiste l’esperimento

Twitter ha promesso di esaminare la questione, ma ha dichiarato: “Il nostro team ha testato i pregiudizi prima di condividere il modello e non ha trovato prove di razzismo nei test. “È chiaro da questi esempi che abbiamo più analisi da fare. Continueremo a condividere ciò che apprendiamo e renderemo la ricerca open source in modo che altri possano replicare”. Un rappresentante di Twitter ha anche indicato la ricerca di uno scienziato della Carnegie Mellon University che ha analizzato 92 immagini.

In quell’esperimento, l’algoritmo ha favorito i volti neri 52 volte. Nel 2018, la società ha affermato che lo strumento era basato su una “rete neurale”, che utilizza l’intelligenza artificiale per prevedere quale parte di una foto sarebbe interessante per un utente. Meredith Whittaker, co-fondatrice dell’AI Now Institute, ha dichiarato alla Thomson Reuters Foundation: “Questo è un altro segno di una lunga e stanca litania di esempi che mostrano sistemi automatizzati che codificano razzismo, misoginia e storie di discriminazione”.

Leggi anche:  Wolters Kluwer Tax & Accounting Italia ai suoi clienti dice #NoiCiSiamo