Da asporto chiave
- La nuova politica di Apple contro il materiale pedopornografico ha suscitato polemiche tra utenti ed esperti di privacy.
- La tecnologia funziona scansionando le immagini in iCloud per CSAM e utilizzando l'apprendimento automatico per identificare le foto esplicite in Messaggi.
- Gli esperti dicono che non importa quanto privata Apple affermi che la sua tecnologia di scansione sia, alla fine consente comunque di aprire una backdoor dove tutto potrebbe accadere.
Apple ha recentemente introdotto una nuova tecnologia per individuare materiale pedopornografico (CSAM), ma sta ricevendo più critiche che elogi dalla comunità della privacy.
Sebbene Apple sia stata precedentemente salutata come una delle uniche società Big Tech che si preoccupano davvero della privacy degli utenti, la nuova tecnologia di scansione CSAM introdotta la scorsa settimana sta mettendo una grande svolta in questo. Gli esperti affermano che anche se Apple promette la privacy degli utenti, la tecnologia alla fine metterà a rischio tutti gli utenti Apple.
"Apple sta facendo il suo passo lungo un pendio molto scivoloso; ha messo a punto uno strumento che è a rischio per le backdoor del governo e l'uso improprio da parte di cattivi attori", ha affermato Farah Sattar, fondatrice e ricercatrice sulla sicurezza di DCRYPTD a Lifewire in un'intervista via e-mail.
Il piano di Apple non è privato
La nuova tecnologia funziona in due modi: in primo luogo, scansionando un'immagine prima che venga eseguito il backup su iCloud: se un'immagine corrisponde ai criteri di CSAM, Apple riceve i dati del voucher crittografico. L' altra parte utilizza l'apprendimento automatico sul dispositivo per identificare e offuscare le immagini sessualmente esplicite che i bambini ricevono tramite i messaggi.
Apple sta facendo il suo passo lungo un pendio molto scivoloso; hanno sviluppato uno strumento che è a rischio per le backdoor del governo e per l'uso improprio da parte di cattivi attori.
Gli esperti sono preoccupati per la funzione Messaggi poiché porrebbe fine alla crittografia end-to-end (E2EE) sostenuta da Apple.
"L'introduzione da parte di Apple della scansione lato client è un'invasione della privacy poiché interrompe effettivamente l'E2EE", ha affermato Sattar.
"Lo scopo di E2EE è rendere un messaggio illeggibile a qualsiasi parte, esclusi il mittente e il destinatario, ma la scansione lato client consentirà a terzi di accedere al contenuto in caso di corrispondenza. Questo stabilisce il precedente che il tuo i dati sono E2EE… finché non lo sono."
Mentre Apple ha affermato in una pagina delle domande frequenti pubblicata di recente che affronta le preoccupazioni delle persone sulla sua nuova politica che non cambierà le garanzie sulla privacy dei messaggi e non avrà accesso alle comunicazioni, le organizzazioni sono ancora diffidenti nei confronti delle promesse di Apple.
"Dal momento che il rilevamento di un'"immagine sessualmente esplicita" utilizzerà l'apprendimento automatico sul dispositivo per scansionare il contenuto dei messaggi, Apple non sarà più in grado di chiamare onestamente iMessage "crittografato end-to-end", l'Electronic Frontier Foundation (EFF) ha scritto in risposta alla politica di Apple.
"Apple e i suoi sostenitori potrebbero obiettare che la scansione prima o dopo che un messaggio è stato crittografato o decrittato mantiene intatta la promessa 'end-to-end', ma si tratterebbe di manovre semantiche per coprire un cambiamento tettonico nell'azienda posizione verso una crittografia avanzata."
Potenziale per uso improprio
La preoccupazione principale di molti esperti è l'esistenza di una backdoor che, indipendentemente da ciò che Apple potrebbe affermare, è ancora aperta a potenziali usi impropri.
"Sebbene questa politica sia pensata per essere applicabile solo agli utenti di età inferiore ai 13 anni, questo strumento è anche pronto per un uso improprio in quanto non vi è alcuna garanzia che l'utente abbia effettivamente meno di 13 anni. Tale iniziativa rappresenta un rischio per i giovani LGBTQ+ e le persone in relazioni abusive in quanto potrebbe esistere come forma di stalkerware", ha affermato Sattar.
EFF ha affermato che la minima pressione esterna (in particolare da parte del governo) avrebbe aperto la porta agli abusi e ha indicato casi in cui si stanno già verificando. Ad esempio, EFF ha affermato che le tecnologie create inizialmente per scansionare e hash CSAM sono state riproposte per creare un database di contenuti "terroristici" a cui le aziende possono contribuire e accedere per vietare tali contenuti.
"Tutto ciò che servirebbe per ampliare la stretta backdoor che Apple sta costruendo è un'espansione dei parametri di apprendimento automatico per cercare ulteriori tipi di contenuto, o una modifica dei flag di configurazione da scansionare, non solo per bambini, ma conti di qualcuno", ha detto EFF.
Edward Snowden ha persino condannato la nuova tecnologia di Apple come un "problema di sicurezza nazionale" e "disastroso" e la sua organizzazione, la Freedom of the Press Foundation, è una delle tante che hanno firmato una nuova lettera chiedendo ad Apple di porre fine a questo politica prima ancora che inizi.
La lettera è stata firmata da oltre 7.400 organizzazioni ed esperti di sicurezza e privacy, chiedendo ad Apple di interrompere immediatamente questa tecnologia e rilasciare una dichiarazione in cui riafferma l'impegno dell'azienda per la crittografia end-to-end e la privacy degli utenti.
"L'attuale percorso di Apple minaccia di minare decenni di lavoro di tecnologi, accademici e sostenitori delle politiche verso forti misure di tutela della privacy che sono la norma nella maggior parte dei dispositivi elettronici di consumo e dei casi d'uso", si legge nella lettera.
Il tempo dirà come Apple prevede di implementare questa tecnologia nonostante le enormi controversie che la circondano, ma le affermazioni dell'azienda sulla priorità alla privacy non saranno sicuramente mai le stesse.