Novità Apple

Craig Federighi riconosce la confusione sulle funzionalità di sicurezza dei bambini di Apple e spiega nuovi dettagli sulle misure di salvaguardia

Venerdì 13 agosto 2021 7:33 PDT di Hartley Charlton

Il vicepresidente senior dell'ingegneria del software di Apple, Craig Federighi, ha difeso oggi il controverso piano dell'azienda caratteristiche di sicurezza dei bambini in una significativa intervista a Il giornale di Wall Street , rivelando una serie di nuovi dettagli sulle garanzie integrate nel sistema di Apple per la scansione delle librerie di foto degli utenti alla ricerca di materiale sugli abusi sessuali su minori (CSAM).





craig wwdc 2021 privacy
Federighi ha ammesso che Apple aveva gestito la scorsa settimana annuncio delle due nuove funzionalità, relative al rilevamento di contenuti espliciti in Messaggi per bambini e contenuti CSAM archiviati in Foto di iCloud biblioteche e ha riconosciuto la diffusa confusione intorno agli strumenti:

È davvero chiaro che molti messaggi sono stati confusi abbastanza male in termini di come sono state comprese le cose. Ci auguriamo che questo sia uscito un po' più chiaramente per tutti perché ci sentiamo molto positivi e fortemente su ciò che stiamo facendo.



quando esce l'aggiornamento a ios 14?

[...]

Col senno di poi, introdurre queste due caratteristiche contemporaneamente è stata una ricetta per questo tipo di confusione. Rilasciandoli allo stesso tempo, le persone li collegavano tecnicamente e si spaventavano molto: cosa sta succedendo ai miei messaggi? La risposta è... non sta succedendo niente con i tuoi messaggi.

La funzione di sicurezza delle comunicazioni significa che se i bambini inviano o ricevono immagini esplicite tramite iMessage, verranno avvisati prima di visualizzarla, l'immagine sarà sfocata e sarà disponibile un'opzione per avvisare i genitori. La scansione CSAM, d'altra parte, tenta di abbinare le foto degli utenti con le immagini con hash di CSAM noto prima che vengano caricate su iCloud . Gli account che hanno rilevato CSAM saranno quindi soggetti a una revisione manuale da parte di Apple e potrebbero essere segnalati al National Center for Missing and Exploited Children (NCMEC).

come eseguire il backup delle foto su iPhone

Le nuove funzionalità sono state oggetto di una grande quantità di critiche da parte degli utenti, ricercatori di sicurezza , il Electronic Frontier Foundation (EFF) e Edward Snowden , L'ex capo della sicurezza di Facebook , e persino dipendenti Apple .

Tra queste critiche, Federighi ha affrontato una delle principali aree di preoccupazione, sottolineando che il sistema di Apple sarà protetto dall'essere sfruttato dai governi o da altre terze parti con 'più livelli di verificabilità'.


Federighi ha anche rivelato una serie di nuovi dettagli sulle garanzie del sistema, come il fatto che un utente dovrà soddisfare circa 30 corrispondenze per i contenuti CSAM nel proprio Fotografie libreria prima che Apple venga avvisata, dopodiché confermerà se quelle immagini sembrano essere autentiche istanze di CSAM.

Se e solo se raggiungi una soglia di qualcosa dell'ordine di 30 corrispondenti immagini pedopornografiche conosciute, solo allora Apple saprà qualcosa sul tuo account e sa qualcosa su quelle immagini e, a quel punto, sa solo su quelle immagini, non su una qualsiasi delle tue altre immagini. Questo non è fare delle analisi perché avevi una foto di tuo figlio nella vasca da bagno? O, se è per questo, avevi una foto di qualche altro tipo di pornografia? Questo corrisponde letteralmente solo alle impronte digitali esatte di specifiche immagini pedopornografiche conosciute.

Ha anche sottolineato il vantaggio per la sicurezza di posizionare il processo di abbinamento sul i phone direttamente, anziché sui server di ‌iCloud‌.

Poiché è sul [telefono], i ricercatori di sicurezza sono costantemente in grado di analizzare ciò che sta accadendo nel software [del telefono] di Apple. Quindi, se sono state apportate modifiche per espandere l'ambito di questo in qualche modo, in un modo che ci eravamo impegnati a non fare, c'è verificabilità, possono individuare ciò che sta accadendo.

Alla domanda se il database di immagini utilizzate per abbinare i contenuti CSAM sui dispositivi degli utenti potrebbe essere compromesso dall'inserimento di altri materiali, come contenuti politici in alcune regioni, Federighi ha spiegato che il database è costruito da immagini CSAM note di più organizzazioni per la sicurezza dei minori, con almeno due 'in giurisdizioni distinte', per proteggere contro l'abuso del sistema.

come attivare pip su iphone

Queste organizzazioni per la protezione dell'infanzia, nonché un revisore indipendente, potranno verificare che il database di immagini è costituito solo da contenuti di tali entità, secondo Federighi.

L'intervista di Federighi è tra i più grandi respingimenti di pubbliche relazioni da parte di Apple finora a seguito della risposta mista del pubblico all'annuncio delle caratteristiche di sicurezza dei bambini, ma l'azienda ha anche ripetutamente tentato di affrontare le preoccupazioni degli utenti , pubblicare una FAQ e affrontando direttamente le preoccupazioni in interviste con i media .

Tags: The Wall Street Journal , Craig Federighi , Dispositivi per la sicurezza dei bambini di Apple