Les détecteurs d’images illégaux proposés sur les appareils sont «facilement dupés»

Les détecteurs d'images illégaux proposés sur les appareils sont «facilement dupés»

Ces images ont été hachées, de sorte qu’elles semblent différentes des algorithmes de détection mais presque identiques aux nôtres. Crédit : Imperial College de Londres

Les algorithmes proposés qui détectent les images illégales sur les appareils peuvent être facilement trompés par des modifications imperceptibles des images, a découvert la recherche impériale.

Les entreprises et les gouvernements ont proposé d’utiliser des scanners intégrés sur des appareils tels que les téléphones, les tablettes et les ordinateurs portables pour détecter les images illégales, telles que le matériel pédopornographique (CSAM). Cependant, les nouvelles découvertes de l’Imperial College de Londres soulèvent des questions sur le bon fonctionnement de ces scanners dans la pratique.

Les chercheurs qui ont testé la robustesse de cinq algorithmes similaires ont découvert que la modification de la « signature » unique d’une image « illégale » sur un appareil signifiait qu’elle passerait sous le radar de l’algorithme 99,9 % du temps.

Les scientifiques à l’origine de l’étude évaluée par des pairs affirment que leurs tests démontrent que, dans leur forme actuelle, les algorithmes d’analyse côté client basés sur le hachage perceptuel (PH-CSS) ne seront pas une « balle magique » pour détecter les contenus illégaux tels que CSAM sur des données personnelles. dispositifs. Cela soulève également de sérieuses questions sur l’efficacité, et donc la proportionnalité, des plans actuels de lutte contre le matériel illégal par le biais de l’analyse sur l’appareil.

Les résultats sont publiés dans le cadre de la conférence USENIX sur la sécurité à Boston, aux États-Unis.

L’auteur principal, le Dr Yves-Alexandre de Montjoye, du Département d’informatique et de l’Institut de science des données de l’Impériale, a déclaré : « En appliquant simplement un filtre spécialement conçu pour la plupart imperceptible à l’œil humain, nous avons induit l’algorithme en erreur en lui faisant croire que deux images presque identiques étaient Il est important de noter que notre algorithme est capable de générer un grand nombre de filtres divers, ce qui rend difficile le développement de contre-mesures.

« Nos résultats soulèvent de sérieuses questions sur la robustesse de ces approches invasives. »

Apple a récemment proposé, puis reporté en raison de problèmes de confidentialité, son intention d’introduire PH-CSS sur tous ses appareils personnels. Il existe également des rapports selon lesquels certains gouvernements envisagent d’utiliser PH-CSS comme technique d’application de la loi en passant un cryptage de bout en bout.

Sous le radar

Les algorithmes PH-CSS peuvent être intégrés aux appareils pour rechercher du matériel illégal. Les algorithmes passent au crible les images d’un appareil et comparent leurs signatures avec celles de matériel illégal connu. Après avoir trouvé une image qui correspond à une image illégale connue, l’appareil le signalerait discrètement à la société à l’origine de l’algorithme et, en fin de compte, aux autorités chargées de l’application des lois.

Pour tester la robustesse des algorithmes, les chercheurs ont utilisé une nouvelle classe de tests appelés attaques de détection d’évitement pour voir si l’application de leur filtre à des images «illégales» simulées les laisserait passer sous le radar de PH-CSS et éviter la détection. Leurs filtres spécifiques à l’image sont conçus pour garantir que l’image évite la détection même lorsque l’attaquant ne sait pas comment fonctionne l’algorithme.

Ils ont marqué plusieurs images de tous les jours comme « illégales » et les ont soumises à des algorithmes, similaires aux systèmes proposés par Apple, et ont mesuré s’ils marquaient ou non une image comme illégale. Ils ont ensuite appliqué un filtre visuellement imperceptible aux signatures des images et les ont réintroduits.

Après avoir appliqué un filtre, l’image était différente de l’algorithme 99,9% du temps, bien qu’elles aient l’air presque identiques à l’œil humain.

Les chercheurs disent que cela met en évidence à quel point les personnes avec du matériel illégal pourraient facilement tromper la surveillance. Pour cette raison, l’équipe a décidé de ne pas rendre public son logiciel de génération de filtres.

Co-auteur principal Ana-Maria Cretu, Ph.D. candidat au Département d’informatique, a déclaré: « Deux images qui nous ressemblent peuvent sembler complètement différentes d’un ordinateur. Notre travail en tant que scientifiques est de tester si les algorithmes de préservation de la vie privée font vraiment ce que leurs champions prétendent faire.

« Nos résultats suggèrent que, dans sa forme actuelle, le PH-CCS ne sera pas la solution miracle pour laquelle on espère. »

Co-auteur principal Shubham Jain, également titulaire d’un doctorat. Le candidat du Département d’informatique a ajouté : « Cette prise de conscience, combinée aux problèmes de confidentialité liés à de tels mécanismes de surveillance invasifs, suggèrent que même les meilleures propositions PH-CSS d’aujourd’hui ne sont pas prêtes à être déployées. »

« Attaques d’évitement par détection adverse : évaluation de la robustesse de l’analyse côté client basée sur le hachage perceptuel » par Shubham Jain, Ana-Maria Cretu et Yves-Alexandre de Montjoye. Publié le 9 novembre 2021 dans le cadre de la conférence USENIX Security à Boston, aux États-Unis.


Apple peut scanner vos photos à la recherche de maltraitance d’enfants tout en protégeant votre vie privée


Plus d’information:
Shubham Jain, Ana-Maria Cretu, Yves-Alexandre de Montjoye, Adversarial Detection Avoidance Attacks : Evaluation de la robustesse de l’analyse perceptive côté client basée sur le hachage. arXiv : 2106.09820v1 [cs.CR], arxiv.org/abs/2106.09820

Fourni par l’Imperial College de Londres

Citation: Les détecteurs d’images illégaux proposés sur les appareils sont «facilement dupés» (2021, 9 novembre) récupérés le 9 novembre 2021 à partir de https://techxplore.com/news/2021-11-illegal-image-detectors-devices-easily.html

Ce document est soumis au droit d’auteur. En dehors de toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans l’autorisation écrite. Le contenu est fourni seulement pour information.