Apple ha dichiarato a Wired che la funzione che scansiona le foto su iCloud e iMessage per combattere gli abusi sui minori sarà ufficialmente interrotta in favore di altre misure che consentano la tutela dei bambini preservandone il diritto alla privacy.
L’analisi delle foto è stata fatta con l’intelligenza artificiale integrata in iCloud, garantendo così che la privacy degli utenti non fosse compromessa. Nonostante tutto, questo non è bastato a convincere gruppi di ricercatori e di diritti digitali, che hanno reagito su internet protestando contro la risorsa per sospetta violazione della privacy.
In una dichiarazione, Apple afferma:
“Abbiamo inoltre deciso di non andare avanti con il nostro strumento di rilevamento CSAM precedentemente proposto per iCloud Photos. I bambini possono essere protetti senza che le aziende raccolgano i dati personali e continueremo a lavorare con i governi, i sostenitori dei bambini e altre aziende per aiutare a proteggere i giovani, preservare il loro diritto alla privacy e rendere Internet un luogo più sicuro per i bambini e per tutti noi”.
L’azienda sta concentrando le sue risorse sul suo investimento nella funzionalità di sicurezza delle comunicazioni.
Inoltre, Apple afferma che ora scansionerà e sfocherà solo le foto con contenuti sessuali espliciti inviati in iMessage.
Ci sono anche alcune novità introdotte dall’azienda. Un’altra novità che riguarda sempre iCloud e la privacy è quella che vede l’inclusione del supporto per la crittografia end-to-end ai backup, che sicuramente dovrebbe riscattare parte della reputazione di Apple quando si parla di privacy dato che foto, note e memo vocali spesso contengono le informazioni più sensibili.
Per quanto riguarda iMessage invece iMessage Contact Key Verification intende offrire maggiore tutela per gli utenti che affrontano minacce Straordinarie, come giornalisti o attivisti, che possono così verificare ulteriormente a chi stanno inviando messaggi.