La tecnologia CSAM (Child Sexual Abuse Material) sviluppata da Apple per scansionare le immagini presenti su un dispositivo prima del loro caricamento su iCloud, è stata valutata inaffidabile da un team di ricercatori dell’Imperial College di Londra. Lo studio pubblicato dal team dimostra che l’algoritmo può essere facilmente ingannato.
La tecnologia aveva già avuto le critiche da parte di esperti della sicurezza, che avevano evidenziato la possibilità di falsi positivi e il potenziale uso di una tecnologia di questo tipo come strumento per la sorveglianza di massa, ed Apple stessa aveva già deciso di posticiparne il rilascio.
La tecnologia CSAM prevede l’identificazione delle immagini vietate mediante un confronto con quelle presenti nel database del National Center for Missing and Exploited Children (NCMEC).
I ricercatori hanno ora dimostrato che l’algoritmo implementato da Apple può essere ingannato il 99,9% delle volte, semplicemente applicando all’immagine un filtro di hashing che alteri l’immagine originale, e al momento non sono state individuate soluzioni praticabili per risolvere il problema.
Seguici sui social e sul nostro canale YouTube:
Le offerte del giorno di Amazon.it
Seguendo i link sponsorizzati Amazon, tu non spenderai un centesimo in più, mentre noi riceveremo una piccola commissione, che investiremo nel mantenimento e nella crescita del sito.
Gli ultimi articoli di Nonsolomac:
- Le novità del keynote di apertura della WWDC 2022
- WWDC 2022, dal 6 al 10 giugno
- Una trackpad sulla tastiera dell’iPhone e dell’iPad
- Legalità dei navigatori che segnalano gli autovelox
- Apple presenta il nuovo iPhone SE
Aiutaci a far conoscere sempre più Nonsolomac, condividi questo articolo sui tuoi social preferiti: