Novità Apple

Apple presenta nuove funzionalità per la sicurezza dei bambini, inclusa la scansione delle raccolte di foto degli utenti per materiale noto sugli abusi sessuali

Giovedì 5 agosto 2021 13:00 PDT di Joe Rossignol

La mela oggi nuove funzionalità per la sicurezza dei bambini in anteprima che arriverà sulle sue piattaforme con aggiornamenti software entro la fine dell'anno. La società ha affermato che le funzionalità saranno disponibili negli Stati Uniti solo al momento del lancio e verranno estese ad altre regioni nel tempo.





funzione di sicurezza della comunicazione iphone

Sicurezza delle comunicazioni

Innanzitutto, l'app Messaggi su iPhone, iPad e Mac riceverà una nuova funzione di sicurezza delle comunicazioni per avvisare i bambini e i loro genitori quando ricevono o inviano foto sessualmente esplicite. Apple ha affermato che l'app Messaggi utilizzerà l'apprendimento automatico sul dispositivo per analizzare gli allegati di immagini e, se si determina che una foto è sessualmente esplicita, la foto verrà automaticamente sfocata e il bambino verrà avvisato.



14 nella data di rilascio di macbook pro

Quando un bambino tenta di visualizzare una foto contrassegnata come sensibile nell'app Messaggi, verrà avvisato che la foto potrebbe contenere parti del corpo private e che la foto potrebbe essere dannosa. A seconda dell'età del bambino, ci sarà anche un'opzione per i genitori di ricevere una notifica se il loro bambino procede a visualizzare la foto sensibile o se scelgono di inviare una foto sessualmente esplicita a un altro contatto dopo essere stati avvisati.

Apple ha affermato che la nuova funzionalità di sicurezza delle comunicazioni sarà disponibile negli aggiornamenti per iOS 15, iPadOS 15 e macOS Monterey entro la fine dell'anno per gli account configurati come famiglie in iCloud. Apple ha assicurato che le conversazioni di iMessage rimarranno protette con la crittografia end-to-end, rendendo le comunicazioni private illeggibili da Apple.

Scansione di foto per materiale pedopornografico (CSAM)

In secondo luogo, a partire da quest'anno con iOS 15 e iPadOS 15, Apple sarà in grado di rilevare immagini note di materiale pedopornografico (CSAM) archiviate in iCloud Photos, consentendo ad Apple di segnalare questi casi al National Center for Missing and Exploited Children (NCMEC) , un'organizzazione senza scopo di lucro che lavora in collaborazione con le forze dell'ordine statunitensi.

Apple ha affermato che il suo metodo di rilevamento di CSAM noto è progettato tenendo presente la privacy degli utenti. Invece di scansionare le immagini nel cloud, Apple ha affermato che il sistema eseguirà la corrispondenza sul dispositivo con un database di hash di immagini CSAM noti forniti dall'NCMEC e da altre organizzazioni per la sicurezza dei bambini. Apple ha affermato che trasformerà ulteriormente questo database in un insieme illeggibile di hash archiviati in modo sicuro sui dispositivi degli utenti.

La tecnologia di hashing, chiamata NeuralHash, analizza un'immagine e la converte in un numero univoco specifico per quell'immagine, secondo Apple.

'Lo scopo principale dell'hash è garantire che immagini identiche e visivamente simili producano lo stesso hash, mentre immagini diverse l'una dall'altra producono hash diversi', ha affermato Apple in un nuovo white paper 'Protezioni estese per i bambini'. 'Ad esempio, un'immagine che è stata leggermente ritagliata, ridimensionata o convertita da colore a bianco e nero viene trattata in modo identico all'originale e ha lo stesso hash.'

diagramma di flusso di apple csam
Prima che un'immagine venga archiviata in iCloud Photos, Apple ha affermato che viene eseguito un processo di corrispondenza sul dispositivo per quell'immagine rispetto al set illeggibile di hash CSAM noti. In caso di corrispondenza, il dispositivo crea un voucher di sicurezza crittografico. Questo voucher viene caricato su iCloud Photos insieme all'immagine e, una volta superata una soglia non divulgata di corrispondenze, Apple è in grado di interpretare il contenuto dei voucher per le corrispondenze CSAM. Apple quindi esamina manualmente ogni rapporto per confermare che esiste una corrispondenza, disabilita l'account iCloud dell'utente e invia un rapporto a NCMEC. Apple non condivide quale sia la sua soglia esatta, ma garantisce un 'livello di precisione estremamente elevato' che gli account non vengano contrassegnati in modo errato.

Apple ha affermato che il suo metodo di rilevamento di CSAM noto offre 'significativi vantaggi per la privacy' rispetto alle tecniche esistenti:

• Questo sistema è un modo efficace per identificare i contenuti CSAM noti archiviati negli account Foto di iCloud proteggendo la privacy degli utenti.
• Come parte del processo, gli utenti non possono inoltre apprendere nulla sull'insieme di immagini CSAM note utilizzate per la corrispondenza. Ciò protegge il contenuto del database da usi dannosi.
• Il sistema è molto accurato, con un tasso di errore estremamente basso, inferiore a un conto su un trilione all'anno.
• Il sistema salvaguarda notevolmente la privacy rispetto alla scansione basata su cloud, poiché segnala solo gli utenti che hanno una raccolta di CSAM noti archiviati in iCloud Photos.

La tecnologia alla base del sistema di Apple è piuttosto complessa e ha pubblicato un riassunto tecnico con maggiori dettagli.

'La protezione estesa di Apple per i bambini è un punto di svolta. Con così tante persone che utilizzano i prodotti Apple, queste nuove misure di sicurezza hanno un potenziale salvavita per i bambini che vengono allettati online e le cui immagini orribili vengono fatte circolare in materiale pedopornografico', ha affermato John Clark, presidente e CEO del National Center for Missing & Bambini sfruttati. 'Al Centro nazionale per i bambini scomparsi e sfruttati sappiamo che questo crimine può essere combattuto solo se siamo fermi nella nostra dedizione alla protezione dei bambini. Possiamo farlo solo perché i partner tecnologici, come Apple, si fanno avanti e rendono nota la loro dedizione. La realtà è che la privacy e la protezione dei bambini possono coesistere. Applaudiamo Apple e non vediamo l'ora di lavorare insieme per rendere questo mondo un posto più sicuro per i bambini.'

Guida CSAM estesa in Siri e Ricerca

iphone csam siri
In terzo luogo, Apple ha affermato che amplierà la guida in Siri e Spotlight Search su tutti i dispositivi fornendo risorse aggiuntive per aiutare bambini e genitori a rimanere al sicuro online e ottenere aiuto in situazioni non sicure. Ad esempio, gli utenti che chiedono a Siri come possono segnalare CSAM o sfruttamento minorile verranno indirizzati a risorse su dove e come presentare una segnalazione.

Gli aggiornamenti a Siri e Search arriveranno entro la fine dell'anno in un aggiornamento a iOS 15, iPadOS 15, watchOS 8 e macOS Monterey, secondo Apple.

Nota: a causa della natura politica o sociale della discussione su questo argomento, il thread di discussione si trova nel nostro Notizie politiche Forum. Tutti i membri del forum e i visitatori del sito sono invitati a leggere e seguire il thread, ma la pubblicazione è limitata ai membri del forum con almeno 100 post.

Tag: Privacy di Apple , Funzioni di sicurezza per i bambini di Apple