Apple rimanda il riconoscimento delle foto in difesa dei minori

Apple rimanda il riconoscimento delle foto in difesa dei minori

I sostenitori della privacy hanno criticato gli strumenti di rilevamento, che avrebbero dovuto arrivare con l’aggiornamento ad iOS 15

Apple ha confermato il rimando nel lancio degli strumenti di analisi di foto e video sul cloud, col fine di proteggere i minori. L’azienda aveva spiegato che, con l’aggiornamento ad iOS 15, avrebbe messo in campo uno sforzo finalizzato a riconoscere foto e video in cui vi sono abusi su minori, così da collaborare con la denuncia e le forze dell’ordine.

Tra le funzionalità, una specifica avrebbe scandagliato le foto di iCloud alla ricerca di Child Sexual Abuse Material (CSAM) noti. Ma questo ha suscitato preoccupazione tra i sostenitori della privacy. “Il mese scorso abbiamo annunciato piani per funzionalità intese a proteggere i bambini dai predatori che utilizzano strumenti di comunicazione per reclutarli e sfruttarli e limitare la diffusione di materiale pedopornografico” ahaveva dichiarato Apple in una nota.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

“Sulla base del feedback dei clienti, gruppi di advocacy, ricercatori e altri, abbiamo deciso di dedicare più tempo nei prossimi mesi nel raccogliere input e apportare miglioramenti prima di rilasciare queste funzionalità di sicurezza dei bambini, che è di fondamentale importanza”. Apple ha pianificato di implementare i sistemi di rilevamento CSAM come parte di tutti i prossimi aggiornamenti del sistema operativo, ovvero iOS 15, iPadOS 15, watchOS 8 e macOS Monterey.

Cosa accadrà adesso

Una funzione di iMessage avviserà nel caso in cui Apple rilevi foto dei bambini, già presenti sul cloud, condivise in altre app del gruppo. A seguito di ciò, un popup direbbe cosa fare, ossia come denunciare l’accaduto. Stessa cosa per Siri e le funzioni di ricerca su iOS e macOS, che indirizzeranno gli utenti alle risorse appropriate quando qualcuno chiede come segnalare CSAM o tenta di eseguire ricerche relative a CSAM. Apple ha affermato che il nuovo approccio fornirà “vantaggi in termini di privacy rispetto alle tecniche esistenti, poiché l’azienda viene a conoscenza delle foto degli utenti solo se hanno una raccolta di CSAM noti nel proprio account iCloud Photos”. 

Leggi anche:  Sicurezza di stampa in azienda