Novità Apple

I dipendenti Apple sollevano internamente preoccupazioni sui piani di rilevamento CSAM

Venerdì 13 agosto 2021 00:43 PDT di Sami Fathi

I dipendenti Apple si stanno unendo al coro di persone che sollevano preoccupazioni sui piani di Apple per la scansione i phone librerie di foto degli utenti per materiale pedopornografico o materiale pedopornografico, secondo quanto riferito, parlando internamente di come la tecnologia potrebbe essere utilizzata per scansionare le foto degli utenti alla ricerca di altri tipi di contenuti, secondo un rapporto di Reuters .





drone parco mele giugno 2018 2
Secondo Reuters , un numero imprecisato di dipendenti Apple si è rivolto ai canali interni di Slack per sollevare dubbi sul rilevamento di CSAM. In particolare, i dipendenti temono che i governi possano costringere Apple a utilizzare la tecnologia per la censura trovando contenuti diversi da CSAM. Alcuni dipendenti sono preoccupati che Apple stia danneggiando la sua reputazione sulla privacy leader del settore.

I dipendenti Apple hanno inondato un canale Slack interno di Apple con oltre 800 messaggi sul piano annunciato una settimana fa, hanno detto a Reuters i lavoratori che hanno chiesto di non essere identificati. Molti hanno espresso preoccupazione per il fatto che la funzionalità possa essere sfruttata da governi repressivi che cercano altro materiale per la censura o gli arresti, secondo i lavoratori che hanno visto il filo del giorno.



Anche i cambiamenti di sicurezza passati in Apple hanno suscitato preoccupazione tra i dipendenti, ma il volume e la durata del nuovo dibattito sono sorprendenti, hanno affermato i lavoratori. Alcuni poster temevano che Apple stesse danneggiando la sua reputazione di leader nella protezione della privacy.

Secondo il rapporto, non si pensa che i dipendenti Apple in ruoli relativi alla sicurezza degli utenti abbiano fatto parte della protesta interna.

Da quando è annuncio la scorsa settimana , Apple è stata bombardata da critiche sui suoi piani di rilevamento CSAM, che dovrebbero ancora essere implementati con iOS 15 e iPadOS 15 questo autunno. Le preoccupazioni ruotano principalmente su come la tecnologia potrebbe presentare un pendio scivoloso per future implementazioni da parte di governi e regimi oppressivi.

differenza tra serie 6 e se

Apple ha fermamente respinto l'idea che la tecnologia sul dispositivo utilizzata per rilevare il materiale CSAM possa essere utilizzata per qualsiasi altro scopo. In un documento FAQ pubblicato , la società afferma che rifiuterà con veemenza qualsiasi richiesta del genere da parte dei governi.

I governi potrebbero costringere Apple ad aggiungere immagini non CSAM all'elenco hash?
Apple rifiuterà tali richieste. La capacità di rilevamento CSAM di Apple è progettata esclusivamente per rilevare immagini CSAM note archiviate in iCloud Photos che sono state identificate da esperti di NCMEC e altri gruppi per la sicurezza dei bambini. Abbiamo già affrontato richieste di creare e implementare modifiche imposte dal governo che degradano la privacy degli utenti e abbiamo rifiutato fermamente tali richieste. Continueremo a rifiutarli in futuro. Cerchiamo di essere chiari, questa tecnologia si limita a rilevare CSAM archiviato in iCloud e non accetteremo alcuna richiesta del governo di espanderlo. Inoltre, Apple conduce una revisione umana prima di inviare una segnalazione a NCMEC. Nel caso in cui il sistema segnali le foto che non corrispondono a immagini CSAM note, l'account non verrà disabilitato e nessuna segnalazione verrà inviata a NCMEC.

Un lettera aperta criticare Apple e invitare l'azienda a interrompere immediatamente il suo piano di implementare il rilevamento CSAM ha ottenuto più di 7.000 firme al momento della stesura. Anche il capo di WhatsApp ha pesato nel dibattito .

Tag: Privacy di Apple , Funzioni di sicurezza per i bambini di Apple