Apple peut scanner vos photos à la recherche de maltraitance d’enfants tout en protégeant votre vie privée

Apple peut scanner vos photos à la recherche de maltraitance d'enfants tout en protégeant votre vie privée, si l'entreprise tient ses promesses

Le nouveau système d’Apple pour comparer vos photos avec une base de données d’images connues de maltraitance d’enfants fonctionne sur votre appareil plutôt que sur un serveur. Crédit : Apple

La prolifération de matériel pédopornographique sur Internet est déchirante et donne à réfléchir. Les entreprises technologiques envoient des dizaines de millions de rapports par an sur ces images au National Center for Missing and Exploited Children à but non lucratif.

La façon dont les entreprises qui fournissent un stockage en nuage pour vos images détectent généralement les contenus pédopornographiques vous rend vulnérable aux violations de la vie privée par les entreprises et aux pirates qui s’introduisent dans leurs ordinateurs. Le 5 août 2021, Apple a annoncé une nouvelle façon de détecter ce matériel qui promet de mieux protéger votre vie privée.

En tant qu’informaticien qui étudie la cryptographie, je peux expliquer comment fonctionne le système d’Apple, pourquoi il s’agit d’une amélioration et pourquoi Apple doit en faire plus.

Qui détient la clé ?

Les fichiers numériques peuvent être protégés dans une sorte de boîte postale virtuelle via un cryptage, qui altère un fichier afin qu’il ne puisse être révélé, ou décrypté, que par une personne détenant une clé secrète. Le cryptage est l’un des meilleurs outils pour protéger les informations personnelles lorsqu’elles circulent sur Internet.

Un fournisseur de services cloud peut-il détecter du matériel pédopornographique si les photos sont déformées à l’aide du cryptage ? Cela dépend de qui détient la clé secrète.

De nombreux fournisseurs de cloud, dont Apple, conservent une copie de la clé secrète afin de pouvoir vous aider à récupérer vos données si vous oubliez votre mot de passe. Avec la clé, le fournisseur peut également comparer les photos stockées sur le cloud avec les images d’abus d’enfants connues détenues par le National Center for Missing and Exploited Children.

Mais cette commodité a un coût élevé. Un fournisseur de cloud qui stocke des clés secrètes peut abuser de son accès à vos données ou être victime d’une violation de données.

Une meilleure approche de la sécurité en ligne est le cryptage de bout en bout, dans lequel la clé secrète est stockée uniquement sur votre propre ordinateur, téléphone ou tablette. Dans ce cas, le fournisseur ne peut pas déchiffrer vos photos. La réponse d’Apple à la recherche de matériel pédopornographique protégé par un cryptage de bout en bout est une nouvelle procédure dans laquelle le fournisseur de services cloud, c’est-à-dire Apple, et votre appareil effectuent la correspondance d’images ensemble.

Repérer des preuves sans les regarder

Bien que cela puisse sembler magique, avec la cryptographie moderne, il est en fait possible de travailler avec des données que vous ne pouvez pas voir. J’ai contribué à des projets qui utilisent la cryptographie pour mesurer l’écart salarial entre les sexes sans connaître le salaire de qui que ce soit et pour détecter les récidivistes d’agressions sexuelles sans lire le rapport d’une victime. Et il existe de nombreux autres exemples d’entreprises et de gouvernements utilisant l’informatique protégée par cryptographie pour fournir des services tout en protégeant les données sous-jacentes.

La correspondance d’images proposée par Apple sur iCloud Photos utilise une informatique protégée par cryptographie pour numériser des photos sans les voir. Il est basé sur un outil appelé intersection d’ensembles privés qui a été étudié par les cryptographes depuis les années 1980. Cet outil permet à deux personnes de découvrir les fichiers qu’elles ont en commun tout en cachant le reste.

Voici comment fonctionne la correspondance d’images. Apple distribue à tous les iPhone, iPad et Mac une base de données contenant des encodages indéchiffrables d’images connues d’abus d’enfants. Pour chaque photo que vous téléchargez sur iCloud, votre appareil applique une empreinte numérique, appelée NeuralHash. La prise d’empreintes digitales fonctionne même si quelqu’un fait de petits changements sur une photo. Votre appareil crée ensuite un bon pour votre photo que votre appareil ne peut pas comprendre, mais qui indique au serveur si la photo téléchargée correspond au matériel pédopornographique dans la base de données.

Si suffisamment de bons d’un appareil indiquent des correspondances avec des images d’abus d’enfants connues, le serveur apprend les clés secrètes pour déchiffrer toutes les photos correspondantes, mais pas les clés des autres photos. Sinon, le serveur ne pourra voir aucune de vos photos.

Faire en sorte que cette procédure de correspondance ait lieu sur votre appareil peut être meilleur pour votre vie privée que les méthodes précédentes, dans lesquelles la correspondance a lieu sur un serveur, s’il est déployé correctement. Mais c’est une grosse mise en garde.

Déterminer ce qui pourrait mal tourner

Il y a une phrase dans le film « Apollo 13 » dans laquelle Gene Kranz, joué par Ed Harris, proclame : « Je me fiche de ce pour quoi tout a été conçu. Je me soucie de ce qu’il peut faire! » La technologie d’analyse des téléphones d’Apple est conçue pour protéger la confidentialité. Les experts en sécurité informatique et en politique technologique sont formés pour découvrir comment une technologie peut être utilisée, mal utilisée et maltraitée, quelle que soit l’intention de son créateur. Cependant, l’annonce d’Apple manque d’informations pour analyser les composants essentiels, il n’est donc pas possible d’évaluer la sécurité de son nouveau système.

Les chercheurs en sécurité doivent voir le code d’Apple pour valider que le logiciel de correspondance assisté par appareil est fidèle à la conception et n’introduit pas d’erreurs. Les chercheurs doivent également tester s’il est possible de tromper l’algorithme NeuralHash d’Apple en changeant les empreintes digitales en apporter des modifications imperceptibles à une photo.

Il est également important pour Apple de développer une politique d’audit pour tenir l’entreprise responsable de la mise en correspondance uniquement des images d’abus d’enfants. La menace de dérive de la mission était un risque même avec la correspondance basée sur le serveur. La bonne nouvelle est que les appareils correspondants offrent de nouvelles opportunités d’auditer les actions d’Apple, car la base de données encodée lie Apple à un ensemble d’images spécifique. Apple devrait permettre à chacun de vérifier qu’il a bien reçu la même base de données encodée et des auditeurs tiers pour valider les images contenues dans cet ensemble. Ces objectifs de responsabilité publique peuvent être atteints en utilisant la cryptographie.

La technologie de correspondance d’images proposée par Apple a le potentiel d’améliorer la confidentialité numérique et la sécurité des enfants, surtout si Apple suit cette évolution en offrant un cryptage de bout en bout à iCloud. Mais aucune technologie ne peut à elle seule répondre pleinement à des problèmes sociaux complexes. Toutes les options d’utilisation du cryptage et de la numérisation d’images ont effets délicats et nuancés sur la société.

Ces questions délicates nécessitent du temps et de l’espace pour raisonner sur les conséquences potentielles d’actions même bien intentionnées avant de les déployer, à travers un dialogue avec des groupes concernés et des chercheurs d’horizons très divers. J’exhorte Apple à se joindre à ce dialogue afin que la communauté des chercheurs puisse collectivement améliorer la sécurité et la responsabilité de cette nouvelle technologie.


La mise à jour d’Apple vérifiera les iPhones à la recherche d’images d’abus sexuels sur des enfants


Fourni par La Conversation

Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lire l’article original.La conversation

Citation: Apple peut scanner vos photos pour la maltraitance des enfants tout en protégeant votre vie privée (2021, 11 août) récupéré le 11 août 2021 à partir de https://techxplore.com/news/2021-08-apple-scan-photos-child-abuse.html

Ce document est soumis au droit d’auteur. En dehors de toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans l’autorisation écrite. Le contenu est fourni seulement pour information.