Novità Apple

I ricercatori sulla sicurezza esprimono allarme sui piani di Apple per la scansione delle immagini di iCloud, ma la pratica è già diffusa

Giovedì 5 agosto 2021 14:04 PDT di Juli Clover

Mela annunciato oggi che con il lancio di iOS 15 e iPad 15 , inizierà la scansione Foto di iCloud negli Stati Uniti per cercare materiale noto sugli abusi sessuali su minori (CSAM), con l'intenzione di riferire i risultati al National Center for Missing and Exploited Children (NCMEC).





Funzione di sicurezza per bambini
Prima di quando Apple ha dettagliato i suoi piani, la notizia dell'iniziativa CSAM è trapelata e i ricercatori della sicurezza hanno già iniziato a esprimere preoccupazioni su come il nuovo protocollo di scansione delle immagini di Apple potrebbe essere utilizzato in futuro, come notato da Financial Times .

Apple utilizza un sistema 'NeuralHash' per confrontare le immagini CSAM note con le foto su un utente i phone prima che vengano caricati su iCloud. Se c'è una corrispondenza, quella fotografia viene caricata con un voucher di sicurezza crittografico e, a una certa soglia, viene attivata una revisione per verificare se la persona ha CSAM sui propri dispositivi.



come faccio a resettare a fondo il mio orologio Apple?

Al momento, Apple sta utilizzando la sua tecnologia di scansione e corrispondenza delle immagini per cercare abusi sui minori, ma i ricercatori temono che in futuro possa essere adattata per la scansione di altri tipi di immagini più preoccupanti, come i cartelli anti-governativi a proteste.

In una serie di tweet, il ricercatore di crittografia Johns Hopkins Matteo Verde ha affermato che la scansione CSAM è una 'davvero cattiva idea' perché in futuro potrebbe espandersi alla scansione di foto crittografate end-to-end piuttosto che solo ai contenuti caricati su ‌iCloud‌. Per i bambini, Apple è implementando una funzione di scansione separata che cerca contenuti sessualmente espliciti direttamente in iMessage, che sono crittografati end-to-end.

Green ha anche espresso preoccupazione per gli hash che Apple prevede di utilizzare perché potrebbero esserci 'collisioni', in cui qualcuno invia un file innocuo che condivide un hash con CSAM e potrebbe risultare in una falsa bandiera.

Apple, da parte sua, afferma che la sua tecnologia di scansione ha un 'livello di accuratezza estremamente elevato' per garantire che gli account non vengano contrassegnati in modo errato e che i rapporti vengano esaminati manualmente prima che ‌iCloud‌ l'account è disabilitato e viene inviato un rapporto a NCMEC.

Green crede che l'implementazione di Apple spingerà altre aziende tecnologiche ad adottare tecniche simili. 'Questo romperà la diga', ha scritto. 'I governi lo richiederanno a tutti.' Ha paragonato la tecnologia agli 'strumenti che i regimi repressivi hanno messo in campo'.


Il ricercatore di sicurezza Alec Muffett, che in precedenza ha lavorato presso Facebook, ha affermato che la decisione di Apple di implementare questo tipo di scansione delle immagini è stato un 'passo enorme e regressivo per la privacy individuale'. 'Apple sta tornando indietro sulla privacy per consentire il 1984', ha affermato.

Ross Anderson, professore di ingegneria della sicurezza presso l'Università di Cambridge, ha affermato che si tratta di un''idea assolutamente spaventosa' che potrebbe portare a una 'sorveglianza di massa distribuita' dei dispositivi.

Come molti hanno sottolineato su Twitter, diverse aziende tecnologiche eseguono già la scansione delle immagini per CSAM. Google, Twitter, Microsoft, Facebook e altri utilizzano metodi di hashing delle immagini per cercare e segnalare immagini note di abusi sui minori.


Vale anche la pena notare che Apple lo era già scansione di alcuni contenuti per immagini di abusi sui minori prima del lancio della nuova iniziativa CSAM. Nel 2020, il responsabile della privacy di Apple Jane Horvath ha affermato che Apple ha utilizzato la tecnologia di screening per cercare immagini illegali e quindi disabilita gli account se viene rilevata la prova di CSAM.

come scrivere con la matita di mele

Mela nel 2019 aggiornato le sue politiche sulla privacy per notare che avrebbe scansionato i contenuti caricati alla ricerca di 'contenuti potenzialmente illegali, incluso materiale di sfruttamento sessuale di minori', quindi gli annunci di oggi non sono del tutto nuovi.

Nota: a causa della natura politica o sociale della discussione su questo argomento, il thread di discussione si trova nel nostro Notizie politiche Forum. Tutti i membri del forum e i visitatori del sito sono invitati a leggere e seguire il thread, ma la pubblicazione è limitata ai membri del forum con almeno 100 post.

Tag: Privacy di Apple , Funzioni di sicurezza per i bambini di Apple