Perché i dipendenti di Amazon protestano contro la tecnologia Rekognition

amazon riconoscimento facciale Rekognition
Perché i dipendenti di Amazon protestano contro la tecnologia Rekognition

Una fonte anonima ha diffuso maggiori informazioni su Rekognition, il progetto di riconoscimento facciale che Amazon vorrebbe vendere al governo Usa

Ha scelto la piattaforma di scrittura globale Medium per spiegare al mondo cos’è Rekognition. C’è un dipendente “anonimo” di Amazon dietro alla lettera, pubblicata la scorsa settimana, che punta il dito contro le strategie di business del gigante dell’e-commerce, in procinto di finalizzare il progetto che dovrebbe aiutare il governo degli Stati Uniti a monitorare meglio i cittadini nella loro quotidianità.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Avevamo scritto a maggio della tecnologia di riconoscimento facciale sviluppata dai laboratori interni della multinazionale e già “bloccata” da alcuni enti federali, interessati a provarla sul campo. Con quale scopo? Semplice: una volta inseriti in archivio i volti di centinaia di migliaia di individui sarà semplice per l’intelligenza artificiale di bordo incrociare le informazioni per dare un nome alle persone che camminano per strada o sono intente nelle loro attività giornaliere.

Il fine giustifica i mezzi

Se la tecnologia ha un obiettivo ben preciso, che è quello di migliorare la sicurezza nazionale, è evidente che sfociare in una violazione della privacy sarà molto semplice. Per questo, almeno 450 dipendenti di Amazon avrebbero scritto a Jeff Bezos, chiedendo di porre fine al progetto o comunque di evitare una sua vendita agli organi di polizia del paese, per impedire un futuro in cui la sorveglianza di massa limiterà la libertà individuale, come nei più lungimiranti romanzi di fantascienza di un tempo.

“La nostra preoccupazione non riguarda i danni futuri causati da qualche altra azienda: Amazon sta progettando, commercializzando e vendendo un sistema per la sorveglianza di massa che è molto pericoloso in questo momento – scrive l’impiegato anonimo su Medium – il prodotto in questione è una tecnologia imperfetta, capace di rinforzare pregiudizi esistenti. Gli studi hanno dimostrato che il riconoscimento facciale ha probabilità di identificare erroneamente le persone con la pelle più scura. Anche se le inesattezze fossero corrette, sarebbe comunque irresponsabile, pericoloso e non etico consentire al governo di usare un simile software. Ciò contribuirà solo ad amplificare gli attuali strumenti di oppressione”.

Leggi anche:  Apple si lancia nel mercato del’IA generativa