La tecnologia CSAM (Child Sexual Abuse Material) sviluppata da Apple per scansionare le immagini presenti su un dispositivo prima del loro caricamento su iCloud, è stata valutata inaffidabile da un team di ricercatori dell’Imperial College di Londra. Lo studio pubblicato dal team dimostra che l’algoritmo può essere facilmente ingannato.
La tecnologia aveva già avuto le critiche da parte di esperti della sicurezza, che avevano evidenziato la possibilità di falsi positivi e il potenziale uso di una tecnologia di questo tipo come strumento per la sorveglianza di massa, ed Apple stessa aveva già deciso di posticiparne il rilascio.
La tecnologia CSAM prevede l’identificazione delle immagini vietate mediante un confronto con quelle presenti nel database del National Center for Missing and Exploited Children (NCMEC).
I ricercatori hanno ora dimostrato che l’algoritmo implementato da Apple può essere ingannato il 99,9% delle volte, semplicemente applicando all’immagine un filtro di hashing che alteri l’immagine originale, e al momento non sono state individuate soluzioni praticabili per risolvere il problema.
Seguici sui social e sul nostro canale YouTube:
Le offerte del giorno di Amazon.it
Seguendo i link sponsorizzati Amazon, tu non spenderai un centesimo in più, mentre noi riceveremo una piccola commissione, che investiremo nel mantenimento e nella crescita del sito.
Gli ultimi articoli di Nonsolomac:
- HomePod mini rileverà temperatura e umidità
- Apple presenta i nuovi processori M2 Pro e M2 Max
- iPhone 14, il Teardown di iFixit
- E’ uscito iOS 16, vediamo tutte le novità
- Apple ha presentato iPhone 14 Pro e iPhone 14 Pro Max
Aiutaci a far conoscere sempre più Nonsolomac, condividi questo articolo sui tuoi social preferiti: