Apple Neural Hash: nuove funzionalità per proteggere i minori

NOW

Francesca Azzurra Conidi

Il colosso di Cupertino, dapprima negli Stati Uniti, introdurrà nuove funzioni, studiate in collaborazione con esperti di sicurezza infantile, per tenere al sicuro i più piccoli

Apple negli ultimi anni sta puntando moltissimo sulla difesa della privacy dei propri utenti ma questa volta cerca di andare oltre, divenendo un soggetto attivo nella lotta alla pedopornografia. Il colosso di Cupertino ha deciso infatti di introdurre nuove funzionalità, studiate in collaborazione con esperti di sicurezza infantile, per permettere ai genitori di avere maggiori informazioni e proteggere i propri figli da questo pericolo.

L’applicazione Messaggi avverte i genitori

L’applicazione Messaggi, ad esempio, avviserà - mantenendo le comunicazioni private e illeggibili da Apple - sull’arrivo di contenuti sensibili sul dispositivo. Grazie all’utilizzo dell’apprendimento automatico, i bambini e i loro genitori riceveranno un alert sulla ricezione o l’invio di una foto sessualmente esplicita, che verrà sfocata. Come ulteriore precauzione, si potrà anche scegliere di attivare l’opzione che permette di inviare un secondo messaggio ai genitori del bambino che tenterà di visualizzare o inviare quell’immagine.

Neural Hash, l’intelligenza artificiale a caccia di foto pedopornografiche

Non è tutto. Con Neural Hash, Apple si preoccupa anche della diffusione di materiale pedopornografico online. La nuova tecnologia, presentata ad agosto, eseguendo una corrispondenza tra le foto presenti nel dispositivo e un database di immagini note, consentirà di segnalare questi casi al National Center for Missing and Exploited Children, un’organizzazione attiva negli Stati Uniti che si occupa della tutela dei minori e che lavora attivamente con le forze dell’ordine.

La tecnologia di hashing e la maggior tutela della privacy

Ma come mantenere la privacy degli utenti? La tecnologia di hashing, invece di fare la scansione in cloud, come già avviene in molti social e altri programmi di archiviazione, analizza l’immagine direttamente sul dispositivo e la converte in un hash, ovvero un numero univoco specifico, che garantisce a immagini identiche e visivamente simili di essere riconosciute prima di essere archiviate in cloud. Con un’altra tecnologia ancora il sistema salvaguarda il contenuto di sicurezza, che non può essere interpretato da Apple a meno che l'account di iCloud Photos non superi una soglia di immagini sospette. Questa soglia è fissata per fornire un livello di precisione estremamente elevato. Il margine di errore si attesta, infatti, a meno di un trilione di possibilità all’anno. Solo se l’account verrà segnalato interverrà il controllo di un team "umano", che avrà il compito di di chiuderlo e avvertire le autorità.

Le critiche e le risposte di Apple

E alle critiche che sono state sollevate da più parti, secondo cui questa funzionalità potrebbe aprire una falla nei dispositivi degli utenti, Apple replica che questa nuova tecnologia consente di fornire informazioni preziose alle forze dell'ordine in merito alla proliferazione dei presunti pedofili.

Tecnologia: I più letti