Apple spiega meglio il processo coinvolto nelle sue nuove misure contro gli abusi sui minori.
Il gigante della tecnologia ha annunciato la scorsa settimana una nuova politica che utilizza la tecnologia per individuare potenziali immagini di abusi sui minori in iCloud e Messaggi. The Verge riporta che negli ultimi giorni Apple ha pubblicato una pagina delle domande frequenti che spiega come viene utilizzata la tecnologia e come appaiono gli aspetti della privacy dopo che le persone hanno espresso preoccupazioni sulle nuove misure.
Apple ha affermato che la sua tecnologia è specificamente limitata al rilevamento di materiale pedopornografico (CSAM) e non può essere trasformata in strumenti di sorveglianza.
"Una delle sfide significative in questo spazio è proteggere i bambini preservando al contempo la privacy degli utenti", ha scritto Apple nella nuova pagina delle domande frequenti.
"Con questa nuova tecnologia, Apple imparerà a conoscere le foto CSAM note archiviate in iCloud Photos in cui l'account sta archiviando una raccolta di CSAM noti. Apple non imparerà nulla sugli altri dati archiviati esclusivamente sul dispositivo."
La tecnologia funziona scansionando un'immagine prima che venga eseguito il backup su iCloud. Quindi, se un'immagine corrisponde ai criteri di CSAM, Apple riceve i dati del voucher crittografico.
Gruppi come l'Electronic Frontier Foundation hanno espresso le loro preoccupazioni sulla tecnologia la scorsa settimana, affermando che la tecnologia potrebbe essere "riproposta per creare un database di contenuti" terroristici "a cui le aziende possono contribuire e accedere allo scopo di vietare tale contenuto."
Una delle sfide significative in questo spazio è proteggere i bambini preservando al contempo la privacy degli utenti.
Tuttavia, la pagina delle domande frequenti dettagliate di Apple affronta alcune di queste preoccupazioni precisando che la tecnologia non eseguirà la scansione di tutte le foto archiviate su un dispositivo, non interromperà la crittografia end-to-end nei Messaggi e che non lo farebbe segnala falsamente persone innocenti alle forze dell'ordine.
The Verge rileva che le domande frequenti di Apple non affrontano le preoccupazioni sollevate sulla tecnologia utilizzata per scansionare i messaggi e su come l'azienda garantisce che la scansione si concentri solo su CSAM.