La tecnologia CSAM di Apple si è dimostrata inaffidabile

La tecnologia CSAM (Child Sexual Abuse Material) sviluppata da Apple per scansionare le immagini presenti su un dispositivo prima del loro caricamento su iCloud, è stata valutata inaffidabile da un team di ricercatori dell’Imperial College di Londra. Lo studio pubblicato dal team dimostra che l’algoritmo può essere facilmente ingannato.

La tecnologia aveva già avuto le critiche da parte di esperti della sicurezza, che avevano evidenziato la possibilità di falsi positivi e il potenziale uso di una tecnologia di questo tipo come strumento per la sorveglianza di massa, ed Apple stessa aveva già deciso di posticiparne il rilascio.

La tecnologia CSAM prevede l’identificazione delle immagini vietate mediante un confronto con quelle presenti nel database del National Center for Missing and Exploited Children (NCMEC).

I ricercatori hanno ora dimostrato che l’algoritmo implementato da Apple può essere ingannato il 99,9% delle volte, semplicemente applicando all’immagine un filtro di hashing che alteri l’immagine originale, e al momento non sono state individuate soluzioni praticabili per risolvere il problema.

 
Sei interessato ad argomenti simili e/o correlati ? Vedi tutti gli articoli di Nonsolomac su sicurezza e privacy ?

Seguici sui social e sul nostro canale YouTube:


Offerta speciale

Le offerte del giorno di Amazon.it

Seguendo i link sponsorizzati Amazon, tu non spenderai un centesimo in più, mentre noi riceveremo una piccola commissione, che investiremo nel mantenimento e nella crescita del sito.


Gli ultimi articoli di Nonsolomac:


Aiutaci a far conoscere sempre più Nonsolomac, condividi questo articolo sui tuoi social preferiti:

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *