Cos’è e come funziona il nuovo sistema Apple per la tutela dei minori

Apple ha affermato che, a partire da iOs 15, inizierà a scansionare la galleria fotografica e l’App iMessagge degli iPhone al fine di individuare materiale pedopornografico e segnalare l’utente alle Forze dell’Ordine. Poiché a livello di privacy si pongono molte domande (qualcuno vedrà le nostre foto? Ed i nostri messaggi?), in questo articolo cercherò di fare chiarezza sulla tecnologia utilizzata e capiremo se i clienti Apple debbano effettivamente preoccuparsi di questa funzionalità che, ben presto, potrebbe essere presa in considerazione anche da altre aziende tecnologiche.

Apple ha annunciato che introdurrà all’interno degli iPhone ed iPad, a partire da iOs 15 e quindi entro fine anno, una nuova tecnologia contro i contenuti CSAM (Child Sexual Abuse Material). Almeno inizialmente, tale innovazione sarà introdotta esclusivamente sul territorio Statunitense.
La nuova tecnologia di Apple ricomprendere tre differenti tipologie di implementazioni:

  1. Sicurezza della comunicazione in iMessage
  2. Rilevamento CSAM su iCloud
  3. Aiuti su Siri e Ricerca

Tra tutti i sistemi, quello che al momento desta più preoccupazione è relativo al rilevamento dei contenuti all’interno di iCloud, in quanto presuppone che Apple abbia accesso alle foto/video presenti all’interno del backup del proprio dispositivo.
Per Apple, la fascia “bambino”, che ricorre all’interno di tutta la documentazione, identifica un minore fino ad anni 14 (in Italia, per altri paesi il limite viene applicato fino ai 13 o 16 anni) . Ciò riguarda in particolar modo le funzioni informative e di blocco per i contenuti sensibili, mentre il rilevamento CSAM sarà attivo su ogni dispositivo.
Andiamo con ordine, analizzando ogni singola implementazione e cercando di capire quali possano essere gli effettivi rischi per la privacy.

Sicurezza della comunicazione in iMessage

L’app Messaggi integrerà nuovi strumenti per avvisare i bambini e i loro genitori quando ricevono o inviano foto sessualmente esplicite.
Quando verrà ricevuto un contenuto di tale natura, la foto/video verrà sfocata ed il bambino verrà avvisato del rischio che potrebbe correre, indicandoli risorse utili da poter consultare. Come ulteriore precauzione, al bambino può anche essere detto che, per assicurarsi che sia al sicuro, i suoi genitori riceveranno un messaggio se deciderà di aprire il contenuto ricevuto.
Protezioni analoghe verranno attuate nel caso in cui anche il bambino dovesse tentare di inviare foto sessualmente esplicite. 

Anteprima sistema CSAM su Apple
I bambini e i loro genitori quando verranno ricevute o inviate foto sessualmente esplicite

L’applicazione Messaggi utilizza l’apprendimento automatico sul dispositivo per analizzare gli allegati di immagini e determinare se una foto è sessualmente esplicita.
La funzione è progettata in modo che Apple non abbia accesso ai messaggi.

Rilevamento CSAM su iCloud

Il rilevamento di contenuti CSAM su iCloud è l’implementazione che sta destando più problemi e preoccupazioni tra tutte le novità introdotte da Apple con iOs 15. Al fine di prevenire la diffusione di contenti CSAM, la nuova tecnologia in iOS e iPadOS consentirà ad Apple di rilevare le immagini CSAM note archiviate in iCloud Photos. Ciò consentirà ad Apple di segnalare questi contenuti al National Center for Missing and Exploited Children (NCMEC), centro di segnalazione dei contenuti CSAM, il quale lavora in collaborazione con le forze dell’ordine degli Stati Uniti. 

I più attenti avranno notato che ho volutamente sottolineato la frase “immagini CSAM note“, in quanto tale sistema sarà in grado di identificare esclusivamente contenuti che sono già noti alle forze dell’ordine. In che senso? Dovete sapere che, quando un contenuto CSAM viene individuato, di questo viene generato un hash univoco, una sorta di firma che identifica quel file. Esistono dei database, come quello del NCMEC, che contengono gli hash di tutti i contenuti di tipo CSAM trovati nel tempo. Così facendo, anche senza visualizzare le foto, basterà generare gli hash di tutti i contenuti presenti in un dispositivo e confrontarli con uno di questi database pubblici (come quello del NCMEC, ripeto) ed in caso di corrispondenza, far scattare ulteriori controlli.

Sfruttando questa tecnica, Apple, prima che un’immagine venga archiviata in Foto di iCloud, esegue un processo di corrispondenza sul dispositivo per quell’immagine rispetto agli hash CSAM noti. Grazie ad una serie di implementazioni di sicurezza, Apple non è in grado di accedere ad alcuna informazione riservata fino a quando il numero di contenuti CSAM individuati non supera una certa soglia di sicurezza. Tale soglia è impostata per fornire un livello di precisione estremamente elevato e garantisce meno di un trilione di possibilità all’anno di segnalare erroneamente un determinato account.

Solo al superamento della soglia, la tecnologia crittografica consente ad Apple di esaminare manualmente il rapporto generato automaticamente, al fine di confermare la reale corrispondenza tra i contenuti caricati e gli hash dei database pubblici. Se tale corrispondenza viene confermata, l’account dell’utente viene disattivato ed un rapporto viene inviato al NCMEC. Se l’utente ritiene che il proprio account sia stato segnalato per errore, può presentare ricorso per il ripristino del proprio account.

Aiuti su Siri e Ricerca

Tra le tante implementazioni, questa è probabilmente la più “blanda”. Apple sta ampliando la guida in Siri e nella Ricerca fornendo risorse aggiuntive per aiutare bambini e genitori a rimanere al sicuro online e ottenere aiuto in situazioni non sicure. Ad esempio, gli utenti che chiederanno a Siri come poter segnalare CSAM o sfruttamento minorile verranno indirizzati a risorse su dove e come presentare una segnalazione.

Anteprima di CSAM su Siri
Siri fornirà risorse e aiuto per le ricerche relative a CSAM

E se disattiviamo iCloud?

Una delle prime domande spontanee che potremmo fare è: basterà quindi disattivare iCloud, per evitare che il sistema controlli i contenuti che abbiamo sui dispositivi Apple? In realtà sì e la risposta proviene proprio dalle FAQ di Expanded Protections for Children, dove possiamo leggere che: questa funzione (rilevamento CSAM iCloud, ndr) ha effetto solo sugli utenti che hanno scelto di utilizzare le foto di iCloud per archiviare le proprie fotografie. Non ha alcun impatto sugli utenti che non hanno scelto di utilizzare Foto di iCloud. Non c’è impatto a qualsiasi altro dato sul dispositivo.

Dopotutto, se un soggetto avesse qualcosa da nascondere, li basterebbe disattivare iCloud. Quantomeno, per evitare che un report venga inviato automaticamente alle Forze dell’Ordine.

1 commento
  1. Pingback: Cos’è e come funziona il nuovo sistema Apple per la tutela dei minori - La Tua Guida - Tutto sarà più facile
Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Articoli simili