Una ricerca pubblicata dal Financial Times ha rivelato che Apple avrebbe intenzione di effettuare verifiche a tappeto sulle immagini archiviate su iPhone e iCloud alla ricerca di immagini che potrebbero rivelare abusi sui minori.
Una decisione che ha sollevato però la questione della protezione dei dati degli utenti, che potrebbe portare Apple a incappare in maggiori richieste legali e governative.
Apple, scan a tappeto sulle foto di iCloud e iPhone
Il sistema, chiamato neuralMatch, «avviserà in modo proattivo un team di revisori umani se ritiene che vengano rilevate immagini illegali, che poi contatteranno le forze dell’ordine se il materiale può essere verificato», si legge sulle colonne del Financial Times. neuralMatch, che è stato “addestrato” utilizzando 200.000 immagini dal National Center for Missing & Exploited Children, verrà lanciato per la prima volta negli Stati Uniti. Le foto verranno sottoposte a hash e confrontate con un database di immagini note di abusi sessuali su minori.
LEGGI ANCHE >>> 10.000 dollari al mese con il fondo YouTube Shorts: il piano per competere con TikTok
«Secondo le persone informate sul progetto, ogni foto caricata su iCloud negli Stati Uniti riceverà un cosiddetti buono di sicurezza che indica se sia sospetta o meno – si legge ancora sul Financial Times – Una volta che un certo numero di foto sarà contrassegnato come sospetto, Apple consentirà a tutte le foto sospette di essere decifrate e, se apparentemente illegali, trasmesse alle autorità competenti».
LEGGI ANCHE >>> iOS 15 accontenta gli amanti delle foto: grossa novità in arrivo
Ma il professore e crittografo della John Hopkins University Matthew Green ha sollevato, con un Tweet, preoccupazioni sul sistema. «Questo tipo di strumento può essere un vantaggio per trovare materiale pedopornografico nei telefoni delle persone – ha detto Green – Ma immaginiamo cosa potrebbe farne un governo autarchico se finisse nelle mani sbagliate?».
“Anche se possiamo essere certi che Apple non permetterà che questi strumenti vengano utilizzati in modo improprio, c’è ancora molto di cui preoccuparsi“, ha continuato. “Questi sistemi si basano su un database di ‘hash multimediali problematici’ che il consumatore, non può rivedere.”
Apple controlla già i file iCloud rispetto alle immagini di abusi sui minori note, come ogni altro importante provider di servizi cloud. Ma il sistema qui descritto andrebbe oltre, consentendo l’accesso centrale all’archiviazione locale.
Apple ha precedentemente pubblicizzato le protezioni della privacy integrate nei suoi dispositivi e notoriamente si è opposto all’FBI quando l’agenzia voleva che Apple costruisse una backdoor in iOS per accedere a un iPhone utilizzato da uno degli assassini nell’attacco del 2015 a San Bernardino.