Novità Apple

I ricercatori universitari che hanno creato un sistema di scansione CSAM esortano Apple a non utilizzare la tecnologia 'pericolosa'

Venerdì 20 agosto 2021 6:48 PDT di Sami Fathi

Rispettati ricercatori universitari stanno suonando i campanelli d'allarme sulla tecnologia alla base dei piani di scansione di Apple i phone raccolte di foto degli utenti per CSAM, o materiale pedopornografico, definendo la tecnologia 'pericolosa'.





privacy della mela
Jonanath Mayer, assistente professore di informatica e affari pubblici alla Princeton University, così come Anunay Kulshrestha, ricercatrice presso il Princeton University Center for Information Technology Policy, entrambi ha scritto un editoriale per Il Washington Post , descrivendo le loro esperienze con la creazione di tecnologie di rilevamento delle immagini.

I ricercatori hanno avviato un progetto due anni fa per identificare il CSAM nei servizi online crittografati end-to-end. I ricercatori fanno notare che, dato il loro campo, 'conoscere il valore della crittografia end-to-end, che protegge i dati dall'accesso di terze parti'. Questa preoccupazione, dicono, è ciò che li inorridisce per la 'proliferazione di CSAM su piattaforme crittografate'.



perché c'è un contatto nella parte superiore dei miei messaggi?

Mayer e Kulshrestha hanno affermato di voler trovare una via di mezzo per la situazione: costruire un sistema che le piattaforme online possano utilizzare per trovare CSAM e proteggere la crittografia end-to-end. I ricercatori notano che gli esperti del settore dubitavano della prospettiva di un tale sistema, ma sono riusciti a costruirlo e nel processo hanno notato un problema significativo.

Abbiamo cercato di esplorare una possibile via di mezzo, in cui i servizi online potessero identificare i contenuti dannosi preservando al tempo stesso la crittografia end-to-end. Il concetto era semplice: se qualcuno condivideva materiale che corrispondeva a un database di contenuti nocivi noti, il servizio veniva avvisato. Se una persona condividesse contenuti innocenti, il servizio non imparerebbe nulla. Le persone non potevano leggere il database o sapere se i contenuti corrispondevano, poiché tali informazioni potrebbero rivelare metodi di applicazione della legge e aiutare i criminali a eludere il rilevamento.

Osservatori esperti sostenevano che un sistema come il nostro fosse tutt'altro che fattibile. Dopo molte false partenze, abbiamo costruito un prototipo funzionante. Ma abbiamo riscontrato un problema evidente.

Dall'annuncio della funzionalità da parte di Apple, l'azienda è stata bombardata con preoccupazioni che il sistema alla base del rilevamento di CSAM potrebbe essere utilizzato per rilevare altre forme di foto su richiesta di governi oppressivi. Apple ha fortemente respinto tale possibilità, affermando che rifiuterà tale richiesta da parte dei governi.

Tuttavia, le preoccupazioni sulle future implicazioni della tecnologia utilizzata per il rilevamento CSAM sono diffuse. Mayer e Kulshrestha hanno affermato che le loro preoccupazioni su come i governi potrebbero utilizzare il sistema per rilevare contenuti diversi da CSAM li hanno 'disturbati'.

iphone 12 fotocamera vs pixel 5

Un governo straniero potrebbe, ad esempio, imporre un servizio a persone che condividono un discorso politico sfavorevole. Non è un'ipotesi: WeChat, la popolare app di messaggistica cinese, utilizza già la corrispondenza dei contenuti per identificare il materiale dissidente. L'India ha emanato regole quest'anno che potrebbero richiedere la pre-selezione di contenuti critici nei confronti della politica del governo. La Russia ha recentemente multato Google, Facebook e Twitter per non aver rimosso i materiali di protesta a favore della democrazia.

Abbiamo individuato altre carenze. Il processo di corrispondenza dei contenuti potrebbe avere falsi positivi e utenti malintenzionati potrebbero ingannare il sistema per sottoporre a controllo gli utenti innocenti.

Eravamo così turbati che abbiamo fatto un passo che non avevamo mai visto prima nella letteratura informatica: abbiamo messo in guardia contro la progettazione del nostro sistema, sollecitando ulteriori ricerche su come mitigare i gravi svantaggi....

Apple ha continuato a rispondere alle preoccupazioni degli utenti sui suoi piani, pubblicazione di documenti aggiuntivi e una pagina di FAQ . Apple continua a credere che il suo sistema di rilevamento CSAM, che si verificherà sul dispositivo di un utente, sia in linea con i suoi valori di privacy di vecchia data.

Tag: Privacy di Apple , WashingtonPost.com , Funzioni di sicurezza dei bambini di Apple