Come le forze dell’ordine usano Clearview AI, un’app di riconoscimento facciale

riconoscimento facciale

La città di NY vede l’uso di massa della ricerca facciale tramite software ma altri stati non ci stanno e vietano una simile procedura

Il New York Times ha appreso che oltre 600 forze dell’ordine negli Stati Uniti e in Canada si sono messe in coda l’anno scorso per utilizzare software della nota startup Clearview AI che può abbinare le foto caricate sul web (anche quelle con angoli imperfetti) con oltre tre miliardi di persone. Tra i servizi che fungono da database del servizio ci sono Facebook e Youtube.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Se pare che il programma abbia aiutato a risolvere alcuni casi di indagine, è evidente che il suo uso crea anche enormi preoccupazioni per la privacy: eventualmente permettendo ai poliziotti di abusare del sistema. Parte del problema deriva da una mancanza di controllo. Non vi è stato alcun reale input pubblico nell’adozione del software Clearview e la capacità dell’azienda di salvaguardare i dati non è stata testata nella pratica.

Come funziona la riservatezza

Clearview stesso è rimasto altamente riservato fino alla fine del 2019. È certamente in grado di esaminare i dati di ricerca, e sembra violare esplicitamente le politiche di Facebook e altri siti, quando questi vietano la raccolta di immagini degli utenti in massa. La stessa Facebook ha dichiarato di star esaminando la situazione e di voler prendere presto le contromisure appropriate. Il capo dell’azienda, Hoan Ton-Che, ha cercato di minimizzare alcune delle preoccupazioni, osservando che le telecamere di sorveglianza sono “troppo alte” per fornire un riconoscimento facciale veramente affidabile e che la compagnia in prima persona non monitora le foto caricate, è un processo automatico.

Leggi anche:  L’economia eco-digitale raddoppierà nei prossimi cinque anni

L’uso di Clearview ha comunque lanciato campanelli d’allarme, e non solo per i possibili abusi di potere menzionati in precedenza. Il programma ha una precisione del 75% circa ed esiste pure il rischio di problemi maggiori, come la realizzazione di false corrispondenze, per non parlare dei potenziali pregiudizi di genere e razziali. Per quanto bene abbia funzionato in alcuni casi, c’è la possibilità che possa portare ad accuse infondate o colpire in modo sproporzionato gruppi etnici specifici. Città come San Francisco si sono affrettate a vietarne l’uso e ulteriori divieti potrebbero aumentare ulteriormente a seguito delle ultime notizie.