L’outil de sécurité garantit la confidentialité des images de surveillance

surveillance

Crédit : Pixabay/CC0 Domaine public

Les caméras de surveillance ont un problème d’identité, alimenté par une tension inhérente entre l’utilité et la vie privée. Comme ces petits appareils puissants ont surgi apparemment partout, l’utilisation d’outils d’apprentissage automatique a automatisé l’analyse du contenu vidéo à grande échelle, mais avec l’augmentation de la surveillance de masse, il n’existe actuellement aucune règle juridiquement contraignante pour limiter les atteintes à la vie privée.

Les caméras de sécurité peuvent faire beaucoup – elles sont devenues plus intelligentes et suprêmement plus compétentes que leurs fantômes d’images granuleuses du passé, souvent “l’outil de héros” dans les médias criminels. (“Voyez cette petite tache bleue floue dans le coin droit de ce coin densément peuplé – nous l’avons eu!”) Désormais, la vidéosurveillance peut aider les responsables de la santé à mesurer la fraction de personnes portant des masques, permettre aux services des transports de surveiller la densité et le flux des véhicules, des vélos et des piétons, et fournir aux entreprises une meilleure compréhension des comportements d’achat. Mais pourquoi la vie privée est-elle restée une faible réflexion après coup ?

Le statu quo consiste à moderniser la vidéo avec des visages flous ou des boîtes noires. Non seulement cela empêche les analystes de poser des questions authentiques (par exemple, les gens portent-ils des masques ?), mais cela ne fonctionne pas toujours ; le système peut manquer certains visages et les laisser non flous pour que le monde puisse les voir. Insatisfaits de ce statu quo, des chercheurs du Laboratoire d’informatique et d’intelligence artificielle (CSAIL) du MIT, en collaboration avec d’autres institutions, ont imaginé un système pour mieux garantir la confidentialité des séquences vidéo des caméras de surveillance. Appelé “Privid”, le système permet aux analystes de soumettre des requêtes de données vidéo et ajoute un peu de bruit (données supplémentaires) au résultat final pour s’assurer qu’un individu ne peut pas être identifié. Le système s’appuie sur une définition formelle de la vie privée – la “vie privée différentielle” – qui permet d’accéder à des statistiques agrégées sur les données privées sans révéler d’informations personnellement identifiables.

En règle générale, les analystes auraient simplement accès à la vidéo entière pour en faire ce qu’ils voulaient, mais Privid s’assure que la vidéo n’est pas un buffet gratuit. Les analystes honnêtes peuvent accéder aux informations dont ils ont besoin, mais cet accès est suffisamment restrictif pour que les analystes malveillants ne puissent pas en faire grand-chose. Pour permettre cela, plutôt que d’exécuter le code sur toute la vidéo en une seule fois, Privid divise la vidéo en petits morceaux et exécute le code de traitement sur chaque morceau. Au lieu de récupérer les résultats de chaque élément, les segments sont agrégés et ce bruit supplémentaire est ajouté. (Il existe également des informations sur la limite d’erreur que vous allez obtenir sur votre résultat – peut-être une marge d’erreur de 2%, compte tenu des données supplémentaires bruyantes ajoutées).

Par exemple, le code peut générer le nombre de personnes observées dans chaque bloc vidéo, et l’agrégation peut être la “somme”, pour compter le nombre total de personnes portant des couvre-visages, ou la “moyenne” pour estimer la densité des foules.

Privid permet aux analystes d’utiliser leurs propres réseaux de neurones profonds qui sont monnaie courante pour l’analyse vidéo aujourd’hui. Cela donne aux analystes la possibilité de poser des questions que les concepteurs de Privid n’avaient pas anticipées. À travers une variété de vidéos et de requêtes, Privid était précis à 79 à 99 % d’un système non privé.

“Nous sommes actuellement à un stade où les caméras sont pratiquement omniprésentes. S’il y a une caméra à chaque coin de rue, à chaque endroit où vous allez, et si quelqu’un pouvait réellement traiter toutes ces vidéos dans l’ensemble, vous pouvez imaginer que cette entité construise un très chronologie précise du moment et de l’endroit où une personne est allée », déclare le MIT CSAIL Ph.D. étudiant Frank Cangialosi, l’auteur principal d’un article sur Privid. “Les gens s’inquiètent déjà de la confidentialité de l’emplacement avec le GPS : les données vidéo agrégées pourraient capturer non seulement votre historique de localisation, mais également les humeurs, les comportements et plus encore à chaque emplacement.”

Privid introduit une nouvelle notion de « vie privée basée sur la durée », qui dissocie la définition de la vie privée de son application – avec obscurcissement, si votre objectif de confidentialité est de protéger toutes les personnes, le mécanisme d’application doit faire un travail pour trouver les personnes à protéger. , ce qu’il peut ou non faire parfaitement. Avec ce mécanisme, vous n’avez pas besoin de tout spécifier complètement et vous ne cachez pas plus d’informations que nécessaire.

Disons que nous avons une vidéo surplombant une rue. Deux analystes, Alice et Bob, affirment tous deux qu’ils veulent compter le nombre de personnes qui passent chaque heure, ils soumettent donc un module de traitement vidéo et demandent une agrégation de somme.

Le premier analyste est le service d’urbanisme, qui espère utiliser ces informations pour comprendre les schémas de fréquentation et planifier les trottoirs de la ville. Leur modèle compte les personnes et génère ce nombre pour chaque bloc vidéo.

L’autre analyste est malveillant. Ils espèrent s’identifier à chaque fois que “Charlie” passe devant la caméra. Leur modèle ne recherche que le visage de Charlie et produit un grand nombre si Charlie est présent (c’est-à-dire le “signal” qu’ils essaient d’extraire), ou zéro sinon. Leur espoir est que la somme sera non nulle si Charlie était présent.

Du point de vue de Privid, ces deux requêtes semblent identiques. Il est difficile de déterminer de manière fiable ce que leurs modèles pourraient faire en interne ou à quoi l’analyste espère utiliser les données. C’est là que le bruit entre en jeu. Privid exécute les deux requêtes et ajoute la même quantité de bruit pour chacune. Dans le premier cas, comme Alice comptait toutes les personnes, ce bruit n’aura qu’un faible impact sur le résultat, mais n’aura probablement pas d’impact sur l’utilité.

Dans le second cas, puisque Bob cherchait un signal spécifique (Charlie n’était visible que pour quelques morceaux), le bruit est suffisant pour les empêcher de savoir si Charlie était là ou non. S’ils voient un résultat différent de zéro, c’est peut-être parce que Charlie était réellement là, ou parce que le modèle affiche “zéro”, mais le bruit l’a rendu non nul. Privid n’avait pas besoin de savoir quand ni où Charlie est apparu, le système avait juste besoin de connaître une limite supérieure approximative sur la durée pendant laquelle Charlie pourrait apparaître, ce qui est plus facile à spécifier que de déterminer les emplacements exacts, sur lesquels reposent les méthodes précédentes. .

Le défi consiste à déterminer la quantité de bruit à ajouter – Privid souhaite en ajouter juste assez pour masquer tout le monde, mais pas au point que cela ne soit inutile pour les analystes. Ajouter du bruit aux données et insister sur les requêtes sur des fenêtres temporelles signifie que votre résultat ne sera pas aussi précis qu’il pourrait l’être, mais les résultats sont toujours utiles tout en offrant une meilleure confidentialité.

Cangialosi a écrit l’article avec Princeton Ph.D. étudiant Neil Agarwal, MIT CSAIL Ph.D. étudiant Venkat Arun, professeur adjoint à l’Université de Chicago Junchen Jiang, professeur adjoint à l’Université Rutgers et ancien postdoctorant du MIT CSAIL Srinivas Narayana, professeur associé à l’Université Rutgers Anand Sarwate et professeur adjoint à l’Université de Princeton et Ravi Netravali du MIT. Cangialosi présentera l’article au Symposium USENIX sur la conception et la mise en œuvre de systèmes en réseau en avril à Renton, Washington.


Utiliser des appareils portables pour former de nouveaux capteurs préservant la vie privée


Plus d’information:
Privid : requêtes d’analyse vidéo pratiques et respectueuses de la vie privée, arXiv : 2106.12083 [cs.CR] doi.org/10.48550/arXiv.2106.12083

Fourni par le Massachusetts Institute of Technology

Cette histoire est republiée avec l’aimable autorisation de MIT News (web.mit.edu/newsoffice/), un site populaire qui couvre l’actualité de la recherche, de l’innovation et de l’enseignement du MIT.

Citation: L’outil de sécurité garantit la confidentialité des images de surveillance (2022, 28 mars) récupéré le 28 mars 2022 sur https://techxplore.com/news/2022-03-tool-privacy-surveillance-footage.html

Ce document est soumis au droit d’auteur. En dehors de toute utilisation loyale à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans l’autorisation écrite. Le contenu est fourni seulement pour information.